首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
云时之间
掘友等级
ML小萌新
|
我在这里学习和探索机器学习世界的奥秘
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
云时之间
ML小萌新 @
·
5年前
关注
算法导论系列:分治算法
说起分治法,大家一定也都听过秦始皇采用郡县制将国家分为三十六郡的故事,我们常说”山高皇帝远”,意思就是山高路远,皇帝都管不了,实际上无论皇帝多远,山有多高,整个国家都属于朝...
赞
评论
分享
云时之间
ML小萌新 @
·
5年前
关注
NLP系列学习:潜在语义牵引
这个模型的作用是通过海量的文献找出词汇的关系.就跟警察抓嫌疑人一样,犯罪事件在这个区域里出现的多了,这片区域越有可能成为犯罪的重点辖区. 词汇也是这样,当一些词汇大量出现在...
赞
评论
分享
云时之间
ML小萌新 @
·
5年前
关注
文本分类中的一些小问题
这个问题可以说是我在实习阶段遇到的最大的坑吧. 自己的思路原本是使用CNN+字向量解决分类问题.然后通过选择卷积的宽度来去减少参数的规模,从而提升分类效果. 但是看到夕小瑶...
赞
评论
分享
云时之间
ML小萌新 @
·
5年前
关注
数字图像处理:直方图均衡化
首先在直方图的修整,有两种方法,一种是直方图均衡化,另外一种是直方图规定化,用起来的话第一种方法用的比较多,这里着重说一下第一种:直方图均衡化. 我们引入直方图,很大程度上...
1
评论
分享
云时之间
ML小萌新 @
·
5年前
关注
NLP系列学习:DBOW句向量
用神经网络训练词向量的逻辑是,让网络去预测单词(目标词/上下文)这样的任务,句向量也是一样,我们给定从句子里的一些上下文,让网络去预测下一个单词。在句(Paragraph)...
赞
评论
分享
云时之间
ML小萌新 @
·
5年前
关注
抛开复杂证明,我们从直觉上理解W-GAN为啥这么好训
关于GAN基础的知识,大家可以参考我另一篇生成对抗网络-GAN---一个好老师的重要性。 最关键的地方其实是D(X),即对整个H*W*C这个高维空间的评分系统,好不好训,最...
赞
评论
分享
个人成就
文章被点赞
88
文章被阅读
34,291
掘力值
830
关注了
16
关注者
35
收藏集
0
关注标签
35
加入于
2016-11-29