[MXNet/Gluon] 动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

科技演讲·公开课2018-02-03 14:38:21
--播放 · --弹幕未经作者授权,禁止转载
-- --
稿件投诉
资源网站: zh.d2l.ai,纸质书详情见资源网站(上架4周重印2次,累计3万册)。 在循环神经网络中我们学习了如何将一个序列转化成定长输出(例如一个标签)。本节课中,我们将探究如何将一个序列转化成一个不定长的序列输出(例如一个不定长的标签序列)。 本节课将介绍seq2seq(编码器和解码器)以及注意力机制的设计。这些是神经机器翻译的基础知识。 本节课的大致安排: [30 mins]:seq2seq(编码器和解码器)。 [30 mins]:注意力机制。
评论
《动手学深度学习》,资源网站: https://zh.d2l.ai,新书上架4周重印2次,累计3万册(详情见资源网站)。
相关推荐
注意力机制49:44
注意力机制
2047播放 · 12弹幕