HeaderTopStart
HeaderTopEnd

[MXNet/Gluon] 动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

---- 硬币 -- 收藏 --
一起来动手学深度学习吧!
投稿:19粉丝:8616
收藏0
硬币--
稍后看马克一下~
用手机看转移阵地~
[MXNet/Gluon] 动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

哔哩哔哩客户端或其他应用扫描二维码

手机下视频
[MXNet/Gluon] 动手学深度学习第十八课:seq2seq(编码器和解码器)和注意力机制

请使用哔哩哔哩客户端扫码
若未安装客户端,可直接扫此码下载应用

未经作者授权 禁止转载
在循环神经网络中我们学习了如何将一个序列转化成定长输出(例如一个标签)。本节课中,我们将探究如何将一个序列转化成一个不定长的序列输出(例如一个不定长的标签序列)。 本节课将介绍seq2seq(编码器和解码器)以及注意力机制的设计。这些是神经机器翻译的基础知识。 本节课的大致安排: [30 mins]:seq2seq(编码器和解码器)。 [30 mins]:注意力机制。

看过该视频的还喜欢