[MXNet/Gluon] 动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

科技演讲·公开课2018-02-03 14:38:21
--播放 · --弹幕未经作者授权,禁止转载
-- --
稿件投诉
在循环神经网络中我们学习了如何将一个序列转化成定长输出(例如一个标签)。本节课中,我们将探究如何将一个序列转化成一个不定长的序列输出(例如一个不定长的标签序列)。 本节课将介绍seq2seq(编码器和解码器)以及注意力机制的设计。这些是神经机器翻译的基础知识。 本节课的大致安排: [30 mins]:seq2seq(编码器和解码器)。 [30 mins]:注意力机制。
《动手学深度学习》,资源网站: zh.d2l.ai
相关推荐
变频器功能应用从入门到精通14:35:24
深度学习项目实战(下)5:20:19