[MXNet/Gluon] 动手学深度学习第十六课:词向量(word2vec)

科技演讲·公开课
--播放 · --弹幕未经作者授权,禁止转载
-- --
词向量(word embedding)已逐渐成为自然语言处理的基础知识。 本课将以word2vec为例,着重介绍两套模型:跳字模型(Skip-gram)和连续词袋模型(CBOW),以及两套近似训练法:负采样(Negative sampling)和层序softmax(Hierarchical softmax) [10 mins]:词向量和word2vec概述。 [15 mins]:跳字模型。 [15 mins]:连续词袋模型。 [10 mins]:负采样。 [10 mins]:层序softmax
《动手学深度学习》,资源网站: zh.d2l.ai
相关视频推荐
LDA Topic Models20:37
LDA Topic Models
924播放 · 0弹幕
一周搞定--51单片机7:32:41
一周搞定--51单片机
2.7万播放 · 193弹幕
算法基础(北京大学)9:47:12
算法基础(北京大学)
4.3万播放 · 790弹幕
吴恩达第五课RNN笔记5:26:04
吴恩达第五课RNN笔记
7997播放 · 19弹幕
9C 动态规划专题14:26:53
9C 动态规划专题
4316播放 · 77弹幕
3.哈夫曼树原理与创建12:52
3.哈夫曼树原理与创建
3901播放 · 17弹幕
Tensorflow项目实战-文本分类2:29:26
阿里巴巴机器学习系列课程4:53:56
如何理解CrossEntropyLoss?10:56
XGBoost课程4:10:30
XGBoost课程
3331播放 · 15弹幕