【2025版】不愧是吴恩达教授!一口气讲透CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络算法!简直不要太爽!

7.9万
120
2025-02-27 11:18:13
正在缓冲...
665
409
3810
152
三联加关注 学习不迷路
推动AI普及 无偿分享技术知识
视频选集
(1/163)
自动连播
神经网络概览(
04:27
神经网络的表现形式(
05:15
计算神经网络的输出(
09:59
多样本向量化(
09:06
向量化实现的解释(
07:38
激活函数(
10:57
为什么需要非线性激活函数(
05:37
激活函数的导数(
07:58
神经网络的梯度下降(
09:58
反向传播的直觉(
15:49
随机初始化(
07:58
深L层神经网络(
05:52
深层网络中的正向传播(
07:16
正确的矩阵维数(
11:11
为什么深度这么有理(
10:34
为深层神经网络构建模块(
08:34
正向和反向传播
11:03
参数vs超参数(
07:17
这与大脑的关系是什么(
03:18
训练 开发 测试集(
12:05
偏见 方差(
08:47
机器学习的基本配方(
06:22
正则化(
09:43
为什么正则化可以减少过拟合(
07:10
正规化抛弃(
09:26
理解抛弃(
07:05
其他的正则化方法(
08:25
归一化输入(
05:31
梯度消失 爆炸(
06:08
深度网络权值初始化(
06:13
梯度的数值近似(
06:36
梯度检查(
06:35
梯度检查实施须知(
05:19
小批量梯度下降(
11:29
理解小批量梯度下降(
11:19
指数加权平均(
05:59
理解指数加权平均(
09:43
指数加权平均数的偏差修正(
04:12
动量梯度下降(
09:21
RMSprop
07:42
适应性矩估计(Adam)算法优化(
07:08
学习速率衰减(
06:45
局部最优解问题
05:24
参数调整过程
07:11
使用适当的标准来选择超参数(
08:51
实践中的超参数调整 熊猫vs鱼子酱(
06:52
网络中的正常化激活(
08:56
将Batch Norm拟合到神经网络中(
12:56
为什么Batch Norm有效(
11:40
测试时的Batch Norm(
05:47
Softmax回归(
11:48
训练一个softmax分类器(
10:08
深度学习框架(
04:16
TensorFlow(
15:02
为什么选择ML策略(
02:43
正交化(
10:39
单数评价指标(
07:17
满足和优化指标(
05:59
训练 开发 测试分布(
06:36
开发和测试集的大小和指标(
05:40
何时更改开发 测试集和指标(
11:08
为什么选择人类水平表现(
05:47
可避免的偏见(
07:00
理解人类水平表现(
11:13
超越人类水平表现(
06:22
提高您的模型性能(
04:37
Andrej Karpathy访谈(
15:11
进行误差分析(
10:33
清理错误标注的数据(
13:06
快速构建您的第一个系统,并进行迭代(
05:26
训练和测试的不同分布(
10:56
不匹配数据分布的偏差和方差(
18:17
解决数据不匹配问题(A
10:09
迁移学习(A
11:18
多任务学习(A
13:00
什么是端到端深度学习(A
11:48
是否使用端到端深度学习(A
10:20
计算机视觉(A
05:45
边缘探测示例(A
11:31
更多边缘探测(A
07:58
填充(A
09:50
卷积步长(A
09:02
三维卷积(A
10:45
卷积网络的一层(A
16:11
卷积网络的简单示例(A
08:33
池化层(A
10:26
CNN示例(A
12:38
为什么用卷积(A
09:41
为什么要进行案例研究?(A
03:09
经典网络(A
18:20
残差网络(A
07:09
为什么使用残差网络(A
09:13
网络中的网络及1x1卷积(A
06:41
初始网络动机(A
10:15
初始网络(A
08:47
MobileNet(A
16:19
MobileNet架构(A
08:33
EfficientNet(A
03:40
使用开放源码(A
04:57
迁移学习(A
08:49
【数据增强(A
09:32
计算机视觉状态(A
12:39
目标定位(A
11:55
地标检测(A
05:57
目标检测(A
05:50
在卷积网络上实现滑动窗口(A
11:09
边界框预测(A
14:32
并交比(A
04:19
非极大值抑制(A
08:03
锚框(A
09:44
YOLO(You Only Look Once)算法(A
07:02
区域推荐网络(选修)(A
06:28
用u-net进行语义分割(A
07:22
转置卷积(A
07:40
u-net 结构灵感(A
03:22
u-net 结构(A
07:42
什么是人脸识别(A
04:38
单样本学习(A
04:46
孪生神经网络(A
04:52
Triplet Loss三元组损失(A
15:31
人脸验证和二进制分类(A
06:06
什么是神经风格迁移(A
02:03
什么是深度卷积神经网络学习(A
07:58
代价函数(A
04:00
内容代价函数(A
03:38
风格代价函数(A
13:18
维和3维推广(A
09:09
为什么用序列模型(A
03:01
注释(A
09:16
循环神经网络模型(A
16:32
通过时间的反向传播(A
06:12
不同类型的RNNs(A
09:34
语言模型和序列生成(A
12:02
对新序列的采样
08:39
RNNs的梯度消失(A
06:29
长短期记忆(LSTM)(A
09:54
双向RNN(A
08:20
深度RNNs(A
05:17
词表示(A
10:08
使用词嵌入(A
09:23
词嵌入的性能(A
11:55
矩阵嵌入(A
05:58
学习词嵌入(A
10:10
词转换成向量形式(A
12:48
负采样(A
11:54
GloVe词向量(A
11:09
情感分类(A
07:38
词嵌入除偏(A
11:09
基础模型(A
06:19
选择最有可能的句子(A
08:57
集束搜索(A
11:55
细化集束搜索(A
11:01
集束搜索中的错误分析(A
09:44
Bleu分数(选修)(A
16:27
注意力模型直觉(A
09:42
注意力模型(A
12:23
语音识别(A
08:54
触发词检测(A
05:04
Transformer网络直觉(A
05:30
自注意力机制(A
11:44
多头注意力机制(A
08:21
Transformer网络(A
13:11
结论及感谢(A
02:45
客服
顶部
赛事库 课堂 2021拜年纪