比啃书效果好多了!复旦大学邱锡鹏教授的《神经网络与深度学习》终于出视频教程了!!草履虫都能看懂!

49.3万
3701
2022-06-23 13:41:55
正在缓冲...
6207
2492
2.6万
3589
视频内容为转载,封面系本人原创,仅用于学习交流,侵删 本课程转自邱锡鹏教授的《神经网络与深度学习》 欢迎评论区交流~ 喜欢的话麻烦给up点个一健三连哦~感谢!
视频选集
(54/88)
自动连播
1 绪论
20:37
1.1 人工智能
12:45
1.2 如何开发人工智能系统?
13:50
1.3 表示学习
20:18
1.4 深度学习
08:34
1.5 人脑神经网络
02:51
1.6 神经网络
10:05
1.7 神经网络发展史
09:02
2 机器学习概述
01:26
2.1 关于概率的一些基本概念
29:01
2.2 机器学习定义
09:33
2.3 机器学习类型
11:08
2.4 机器学习的要素
21:58
2.5 泛化与正则化
09:45
2.6 线性回归
22:59
2.7 多项式回归
11:19
2.8 线性回归的概率视角
19:06
2.9 模型选择与“偏差-方差”分解
19:39
2.10 常用的定理
08:10
3 线性模型
02:23
3.1 分类问题示例
17:34
3.2 线性分类模型
19:44
3.3 交叉熵与对数似然
23:13
3.4 Logistic回归
22:10
3.5 Softmax回归
16:06
3.6 感知器
27:46
3.7 支持向量机
24:14
3.8 线性分类模型小结
13:43
4 前馈神经网络
01:16
4.1 神经元
27:21
4.2 神经网络
06:10
4.3 前馈神经网络
21:10
4.4 反向传播算法
18:53
4.5 计算图与自动微分
15:43
4.6 优化问题
04:44
5 卷积神经网络
06:26
5.1 卷积
30:52
5.2 卷积神经网络
25:30
5.3 其它卷积种类
06:18
5.4 典型的卷积网络
25:12
5.5 卷积网络的应用
06:55
5.6 应用到文本数据
10:04
6 循环神经网络
01:40
6.1 给神经网络增加记忆能力
17:02
6.2 循环神经网络
07:31
6.3 应用到机器学习
10:39
6.4 参数学习与长程依赖问题
19:00
6.5 如何解决长程依赖问题
08:43
6.6 GRU与LSTM
10:56
6.7 深层循环神经网络
07:16
6.8 循环网络应用
12:28
6.9 扩展到图结构
09:20
7 网络优化与正则化
03:01
7.1 神经网络优化的特点
13:54
7.2 优化算法改进
14:32
7.3 动态学习率
17:35
7.4 梯度方向优化
14:02
7.5 参数初始化
15:34
7.6 数据预处理
08:08
7.7 逐层规范化
14:50
7.8 超参数优化
08:07
7.9 网络正则化
09:26
7.10 暂退法(Dropout)
05:52
7.11 ℓ1和ℓ2正则化
06:34
7.12 数据增强
06:06
7.13 小结
01:53
8 注意力机制与外部记忆
16:04
8.1注意力机制
11:13
8.2 人工神经网络中的注意力机制
24:54
8.3 注意力机制的应用
19:58
8.4 自注意力模型
19:59
8.5 Transformer
20:06
8.6 外部记忆
10:16
8.7 结构化的外部记忆
17:44
8.8 基于神经动力学的联想记忆
20:32
8.9 总结
01:43
9 无监督学习
05:58
9.1 聚类
18:09
9.2 K均值方法
09:44
9.3 层次聚类
04:33
9.4 (无监督)特征学习
04:16
9.5 主成分分析
10:40
9.6 编码与稀疏编码
11:24
9.7 自编码器
07:59
9.8 自监督学习
04:47
9.9 概率密度估计
06:34
9.10 非参密度估计
16:05
9.11 半监督学习
03:23
客服
顶部
赛事库 课堂 2021拜年纪