【B站最全】吴恩达详解大模型中的Langchain+RAG+Transformer工作原理,小白教程,全程干货无尿点,学完你就是AGI的大佬!(附课件+代码)

3.2万
219
2025-04-09 15:29:28
正在缓冲...
523
413
2341
107
【B站最全】吴恩达详解大模型中的Langchain+RAG+Transformer工作原理,小白教程,全程干货无尿点,学完你就是AGI的大佬! 相关课件+代码已备好,有需要的朋友评论区见!!
视频选集
(1/35)
自动连播
【Langchain】01.介绍
03:06
【Langchain】02.模型,提示和输出解析
18:23
【Langchain】03.记忆
17:05
【Langchain】04.链
13:08
【Langchain】05.基于文档的问答
15:07
【Langchain】06.评估
15:07
【Langchain】07.代理
14:36
【Langchain】08.总结
01:45
【RAG】01.介绍(Introduction)
04:39
【RAG】02.先进的RAG管道(Advanced RAG Pipeline)
15:19
【RAG】3.RAG 指标三元组(RAG Triad of metrics)
42:34
【RAG】04.句子窗口检索(Sentence Window Retrieval)
29:56
【RAG】05.自动合并检索(Auto-merging Retrieval)
21:04
【RAG】06.结论(Conclusion)
01:32
【多模态RAG】01.课程介绍
01:02
【多模态RAG】02.交互式演示和多模态RAG系统架构
13:52
【多模态RAG】03.多模态嵌入
07:42
【多模态RAG】04.多模态RAG的预处理视频
06:52
【多模态RAG】05.从向量存储中进行多模态检索
09:58
【多模态RAG】06.大视野----语言模型(LVLM)
09:53
【多模态RAG】07. 多式联运RAG与多式联运Langchain
07:17
【多模态RAG】08.课程结束
04:14
【Transformer】01.课程介绍
05:07
【Transformer】02.语言词袋
05:38
【Transformer】03.词嵌入
05:01
【Transformer】04.利用注意力机制对上下文进行编码和解码
05:46
【Transformer】05.transformers
07:38
【Transformer】06.标记器
11:52
【Transformer】07.架构概述
06:28
【Transformer】08.transformer模块
06:50
【Transformer】09.自注意力机制
10:26
【Transformer】10.模块示例
09:56
【Transformer】11.最近的改进
10:39
【Transformer】12.混合专家(MOE)
09:28
【Transformer】13.课程结束
00:19
客服
顶部
赛事库 课堂 2021拜年纪