【中英字幕】吴恩达深度学习课程第二课 — 改善深层神经网络:超参数调试、正则化以及优化

31.0万
5189
2019-09-03 20:46:31
正在缓冲...
2519
1373
1.2万
746
视频仅供学习使用,若侵权请联系删除!这是深度学习工程师微专业中的第二门课 学完这门课之后,你将会 理解业界构建深度神经网络应用最有效的做法 能够高效地使用神经网络通用的技巧,包括初始化、L2和dropout正则化、Batch归一化、梯度检验 能够实现并应用各种优化算法,例如mini-batch、Momentum、RMSprop和Adam,并检查它们的收敛程度 能够用TensorFlow实现一个神经网络
没事就多学习 咨询问题或者合作请私聊
视频选集
(1/37)
自动连播
【第一周 深度学习的实用层面】1.1 训练_开发_测试集
12:05
1.2 偏差_方差
08:47
1.3 机器学习基础
06:22
1.4 正则化
09:43
1.5 为什么正则化可以减少过拟合?
07:10
1.6 Dropout 正则化
09:26
1.7 理解 Dropout
07:05
1.8 其他正则化方法
08:25
1.9 归一化输入
05:31
1.10 梯度消失与梯度爆炸
06:08
1.11 神经网络的权重初始化
06:13
1.12 梯度的数值逼近
06:36
1.13 梯度检验
06:35
1.14 关于梯度检验实现的注记
05:19
【第二周 优化算法】2.1 Mini-batch 梯度下降法
11:29
2.2 理解 mini-batch 梯度下降法
11:19
2.3 指数加权平均
05:59
2.4 理解指数加权平均
09:42
2.5 指数加权平均的偏差修正
04:12
2.6 动量梯度下降法
09:21
2.7 RMSprop
07:42
2.8 Adam 优化算法
07:08
2.9 学习率衰减
06:45
2.10 局部最优的问题
05:24
【第三周 超参数调试、Batch正则化和程序框架】3.1 调试处理
07:11
3.2 为超参数选择合适的范围
08:51
3.3 超参数训练的实践:Pandas VS Caviar
06:52
3.4 正则化网络的激活函数
08:56
3.5 将 Batch Norm 拟合进神经网络
12:56
3.6 Batch Norm 为什么奏效?
11:40
3.7 测试时的 Batch Norm
05:47
3.8 Softmax 回归
11:48
3.9 训练一个 Softmax 分类器
10:08
3.10 深度学习框架
04:16
3.11 TensorFlow
16:08
【人工智能行业大师访谈】1. 吴恩达采访 Yoshua Bengio
25:49
【人工智能行业大师访谈】2. 吴恩达采访 林元庆
13:37
客服
顶部
赛事库 课堂 2021拜年纪