2023最新!4个小时带你重新认识【BERT+transformer】,详解self-attention,翻遍全网找不到比它更详细的了!!!

2966
1
2023-04-23 16:54:47
正在缓冲...
45
18
231
33
视频配套课件代码及完整NLP进阶教程获取 需要的小伙伴公众号【咕泡AI】关注并发送:222 还有:AI公开课、论文指导、简历指导、竞赛指导、技术问题解答~ ①100+人工智能学习论文合集、上千篇CVPR、ICCV顶会论文; ②动手学习深度学习、花书、西瓜书等AI必读书籍 ③唐宇迪博士精心整理的人工智能学习大纲 ④机器学习算法+深度学习神经网络基础教程 ⑤OpenCV、Pytorch、YOLO等主流框架算法实战教程 论文、书籍、算法、框架、项目实战应有尽有!
视频选集
(8/36)
自动连播
1.1认识BERT-part1-1讲解
09:06
1.1认识BERT-part1-2点评
02:14
1.1认识BERT-part2-1讲解
17:01
1.1认识BERT-part2-2点评
09:58
1.1认识BERT-part3-1讲解
13:42
1.1认识BERT-part3-2点评
03:52
1.1认识BERT-part4讲解
03:05
1.2Transformer的结构详解-part1-1讲解
08:29
1.2Transformer的结构详解-part1-2点评
04:09
1.2Transformer的结构详解-part2-1讲解
14:47
1.2Transformer的结构详解-part2-2点评
10:58
1.3Transformer中Decoder的输入详解03-1讲解
12:37
1.3Transformer中Decoder的输入详解03-2点评
12:40
1.4Transformer中的自注意力机制以及为什么采用QKV三元组04-1讲解
06:00
1.4Transformer中的自注意力机制以及为什么采用QKV三元组04-2点评
05:55
1.5采用Multi-head Attention的原因和计算规则1-1讲解
04:59
1.5采用Multi-head Attention的原因和计算规则1-2点评
02:59
1.6Transformer相比于RNN的优势和原因1-1讲解
04:38
1.6Transformer相比于RNN的优势和原因1-2点评
02:46
1.7为什么说Transformer可以代替seq2seq1-1讲解
04:53
1.7为什么说Transformer可以代替seq2seq1-2点评
02:04
1.8self-attention公式中添加scaled的原因-part1-1讲解
04:31
1.8self-attention公式中添加scaled的原因-part1-2点评
03:33
1.8self-attention公式中添加scaled的原因-part2-1讲解
17:05
1.8self-attention公式中添加scaled的原因-part2-2点评
17:41
1.8self-attention公式中添加scaled的原因-part2-3点评
04:57
1.8self-attention公式中添加scaled的原因-part3-1讲解
09:12
1.8self-attention公式中添加scaled的原因-part3-2点评
01:42
1.9Transformer架构的并行化是如何进行的1-1讲解
11:03
1.9Transformer架构的并行化是如何进行的1-2点评
05:22
1.10BERT模型的优点和缺点1-1讲解
05:11
1.10BERT模型的优点和缺点1-2点评
04:20
1.11BERT的MLM任务为什么采用80% 10% 10%的策略1-1讲解
07:17
1.11BERT的MLM任务为什么采用80% 10% 10%的策略1-2点评
03:08
1.12长文本预测任务使用BERT如何构造训练样本1-1讲解
03:18
1.12长文本预测任务使用BERT如何构造训练样本1-2点评
02:40
客服
顶部
赛事库 课堂 2021拜年纪