首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI小精灵
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
AI小精灵
4年前
关注
【科幻】为何宇宙中有智能生命,基于量子退火的一种解释:“必然论”
之前在知乎写过一个宇宙层面的推理链条,类似"黑暗森林"的那种"纯靠推理猜测宇宙真相",也许能对人类和宇宙的目的给出一种解释。在这里略作整理,欢迎大家讨论。 【公设1】宇宙遵...
赞
评论
分享
AI小精灵
4年前
关注
黎曼猜想在 2019 年的新进展:Jensen-Polya (Hyperbolicity) 道路
初看很厉害,打个比喻,似乎进展已经到了 twin prime conjecture 的程度了(自张益唐以后的程度)。当然,现在一群数论猜想都卡在最后的程度,所以也说不定最后...
赞
评论
分享
AI小精灵
4年前
关注
做 AI 落地项目的一些经验,以及编程和编程语言的一些漫谈
模型的性能够用就行。 在数据集训练到天上,也不代表在实际中够用。因此我不大关心模型在训练时的性能。看真实测试的结果才有用。 了解实际客户需求,例如某些角度是客户接受度最高的...
赞
评论
分享
AI小精灵
4年前
关注
Basis:一种新编程语言构想,高效灵活,适用 AI / 后端 等等,静态强类型
写嵌入式用 C,训练神经网络用 Python,电脑运行神经网络用 C++,后端代码用 node,微信小程序用 JS,需要速度的脚本任务用 C#,可视化用 Mathemati...
赞
评论
分享
AI小精灵
5年前
关注
深度学习AI芯片/硬件,推理框架(移动/电脑 CPU/GPU/NPU)资料汇总
检验:VGG16 = 30 GOPS,1080Ti FP32 在 batch 16 做 inference 是 388 image/s,相当于 11.6T FP32(因为有...
赞
评论
分享
AI小精灵
5年前
关注
VAE 的细节:p(x|z) 的噪音,与 p(z|x) 的编码坍塌
变分自编码器 VAE 的常见错误理解,是认为 VAE 模糊。 实际 VAE 不模糊,真正的 VAE 输出 有很多噪音(由于常用的 Gaussian 模型是每点独立,因此噪音...
赞
评论
分享
AI小精灵
5年前
关注
变分自编码器 VAE 在近两年的新进展介绍 Variational Autoencoder
本专栏之前介绍了如何最快推导出 VAE,在此介绍 VAE 在 2017/18 年的新进展。 1. VAE 的“编码坍塌” 如果思考过 VAE 的原理,会发现它有一个矛盾之处...
赞
评论
分享
AI小精灵
5年前
关注
1 步推导出 VAE 变分自编码器(以及为何没必要时刻写出 KL 散度)
很多地方的推导太长了。 写成 MLE,比 KL 散度少一个常数,形式更简单。没必要时刻写出 KL 散度。 可以 1 步推导出 VAE。 恭喜,推导出了 VAE。 加 10 ...
赞
评论
分享
AI小精灵
5年前
关注
变分推断 variational inference 有数学吗?写给数学系同学的介绍(带计算过程)
生成模型,绕不开 VI,这是一个在 ML 届经常出现的词。 这个,扫一眼,就可以看出,没有数学,只是算积分。为了给大家节省时间,我给大家读一下。教科书 TLDL。这篇看上去...
赞
评论
分享
AI小精灵
5年前
关注
我的数学笔记(Chapter 7. 数论杂谈(待续))
这是从前写的用于备忘的数学笔记,在此连载分享给大家。 PENG Bo:我的数学笔记(Chapter 1-3. 代数和几何的基础)zhuanlan.zhihu.com 如您...
赞
评论
分享
AI小精灵
5年前
关注
深度学习与物理,有效场论,重整化群,简介1608.08225
之前提到2017年的一篇文章《Why does deep and cheap learning work so well》(https://arxiv.org/pdf/16...
赞
评论
分享
AI小精灵
5年前
关注
我在知乎的回答&文章整理:数学/物理篇
首先是很久以前的一些乱七八糟的思维碎片,列举一点如下,我从前还记录了好多这样的碎片,如果您对其中的话题有兴趣,非常欢迎讨论。我想知道,知乎有数学群吗? 来个正常的。在数学中...
赞
评论
分享
AI小精灵
5年前
关注
Noise2Noise:图像降噪,无需干净样本,原因非常简单
这个文章写了很长,其实它说的事情非常简单。 本来我们做图像降噪,需要输入的噪音图像 x,和 “干净样本” y。 例如,x 是路径跟踪渲染用少数光束渲染的图片,y 是长期渲染...
赞
评论
分享
AI小精灵
5年前
关注
招深圳的全栈工程师,无需工作经验,有独立开发经验即可~ 与深度学习相关的项目
地点:深圳南山。 需求:有独立全栈开发经验(例如 node + 某个前端框架),不需要工作经验。新毕业生也合适。 项目:与深度学习相关的网站,但您无需有深度学习经验。如果您...
赞
评论
分享
AI小精灵
5年前
关注
我写了个小程序《声音精灵》,希望它未来能用 AI 教你唱歌~
最近几个月我一直在研究唱歌。之前我在知乎写过一个自学钢琴的回答: 然而,对于从小不唱歌的人,学唱歌(更明确地说,流行唱法)比学乐器难得多!音准,气息,吐字,节奏.........
赞
评论
分享
AI小精灵
5年前
关注
谈谈语音识别与人声的物理原理,以及真声假声头声混声等概念
继续最近的话题。知乎有不少语音识别的文章,但主要是黑箱子端对端,没涉及背后的物理过程。 其实,人类的发声过程很有意思,在此我们从物理的第一性原理谈谈这些问题,也可以更好地理...
赞
评论
分享
AI小精灵
5年前
关注
TVGAN 的训练,BigGAN,与 InfoGAN 的最新进展,GAN 是否已接近最终形式?
标题图来自下文的 ProInfoGAN,在 CelebA-HQ 上无监督发现高质量 disentangled 编码。 我在几天前介绍了一个很简单的“TVGAN”,很奇怪的是...
2
评论
分享
AI小精灵
5年前
关注
Rethink Generative Model:生成模型的误区?思考DL的理论细节 (4)
图像的生成模型,或者说图像模型(与语言模型相对应),是图像无监督学习的核心(可以以此解决一切逆问题,如超分辨率,降噪,inpaint,等等),也是图像有监督学习的重要基础。...
1
评论
分享
AI小精灵
5年前
关注
DGN:生成模型,可以有多简单?目前的深度学习研究,有什么问题?思考DL的理论细节 (3)
在本系列的 (2),介绍了一种极其简单的生成模型。 在本文中,我们先不考虑它的复杂化。我们考虑能不能更简单,简单的极限到底在哪里。 Deep Image Prior 说的事...
赞
评论
分享
下一页
个人成就
文章被点赞
4
文章被阅读
15,078
掘力值
373
关注了
0
关注者
793
收藏集
0
关注标签
0
加入于
2018-10-26