122集付费!CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络一口气全部学完!

25.0万
349
2024-09-19 12:08:23
正在缓冲...
3810
3025
1.6万
758
这套教程是为那些想要入门深度学习神经网络的初学者们准备的。通过本教程,你将学习到什么是深度学习,它的基本原理以及如何构建和训练神经网络模型。我们将从零开始,逐步引导你了解各种常用的神经网络结构,如生成对抗神经网络、卷积神经网络、循环神经网络等,并通过实际案例演示如何运用它们解决实际问题。
可咨询/1V1辅导 论文发表,核心期刊,SCI论文,EI会议、期刊、论文带读、本硕毕业论文
视频选集
(1/122)
自动连播
1.机器学习和深度学习的区别
16:28
2.深度学习介绍
02:55
3.02_深度学习介绍
16:18
4.03_深度学习介绍2
02:44
5.逻辑回归介绍
13:23
6.02_逻辑回归损失函数
07:44
7.03_梯度下降算法过程以及公式
10:28
8.04_导数意义介绍
04:13
9.05_a^2函数的导数介绍
10:16
10.06_导数计算图与链式法则
14:16
11.07_逻辑回归的导数计算图分析以及参数导数
11:00
12.08_向量化编程介绍引入
09:50
13.09_向量化编程的优势
10:21
14.10_向量化实现逻辑回归的梯度计算更新
09:40
15.11_正向传播与反向传播、作业介绍
06:12
16.12_作业讲解题1:实现sigmoid函数与梯度实
03:40
17.13_作业讲解题2:单神经元神经网络(logistic)分类作业流程介绍
03:52
18.14_作业讲解题2:参数初始化与前向传播、反向传播
10:09
19.15_作业讲解题2:优化迭代实现、model逻辑实现
08:43
20.16_总结
05:22
21.浅层神经网络表示
08:20
22.02_浅层神经网络的前向传播
06:55
23.03_激活函数的选择
11:17
24.04_浅层神经网络的反向传播
10:26
25.05_作业介绍
02:42
26.06_作业实现:初始化模型与前向传播
12:00
27.07_作业实现:反向传播与更新梯度
14:16
28.08_作业实现:网络模型逻辑实现
05:34
29.09_总结
02:36
30.01_深层神经网络表示
08:17
31.02_深层神经网络的反向传播过程
05:28
32.03_参数初始化与超参数介绍
06:20
33.01_深度学习紧接、多分类介绍
09:20
34.02_交叉熵损失原理
14:29
35.03_案例:Mnist手写数字数据介绍
07:56
36.04_案例:网络结构、流程、代码介绍
10:23
37.05_案例:主网络结构搭建实现
20:20
38.06_案例:添加准确率
13:08
39.07_案例:Tensorboard观察显示
10:28
40.08_案例:添加模型保存、预测
12:19
41.09_调整学习率带来的问题
04:23
42.01_深度学习遇到问题、为什么需要优化算法
13:31
43.02_Mini梯度下降与Batch梯度下降
14:19
44.03_指数加权平均
09:08
45.04_动量梯度下降原理公式理解
17:25
46.05_RMSProp与Adam原理与学习率递减
05:29
47.06_标准化输入带来的优化
08:02
48.07_作业介绍
02:59
49.08_作业讲解1
24:40
50.09_作业讲解2
02:24
51.01_深度学习偏差与方差介绍为、什么需要正则化
15:39
52.02_正则化概念、L2正则化与L1正则化
12:40
53.03_Droupout过程与原理理解
17:57
54.04_其它正则化方法-早停止法与数据增强
13:56
55.05_正则化作业介绍
02:49
56.06_作业讲解1
07:54
57.07_作业讲解2
02:57
58.01_神经网络调参数技巧与如何设置参数、如何运行
09:29
59.02_批标准化定义、公式、为什么有效
22:28
60.01_卷积来源、数据量与感受野的边缘检测
23:43
61.02_卷积网络结构介绍
04:59
62.03_默认卷积的运算过程
05:42
63.04_零填充
08:56
64.05_过滤器大小与步长
09:45
65.06_多通道的卷积与多卷积核
06:32
66.07_卷积总结
12:52
67.08_池化层
06:33
68.09_全连接层
04:14
69.01_LeNet5的计算过程详解
18:49
70.02_常见网络结构介绍
10:33
71.03_Inception(1x1卷积介绍)
13:33
72.04_Inception结构以及改进
09:47
73.05_GoogleNet了解与卷积网络学习内容
06:14
74.01_作业介绍
03:35
75.02_作业讲解
20:36
76.03_迁移学习
11:17
77.01_循环神经网络背景介绍
07:05
78.02_循环神经网络结构原理
13:25
79.03_词的表示与矩阵形状运算
16:15
80.04_交叉熵损失计算
03:11
81.05_时间反向传播算法
14:57
82.06_梯度消失、案例介绍
07:17
83.07_手写RNN案例:单个cell前向传播
11:51
84.08_手写RNN案例:所有cell的前向传播
15:46
85.09_手写RNN案例:单个cell的反向传播
15:33
86.10_手写RNN案例:所有cell的反向传播
21:04
87.11_案例总结
02:19
88.12_GRU与LSTM介绍
11:53
89.01_词嵌入介绍
11:00
90.02_词嵌入案例
12:28
91.01_seq2seq介绍与理解
11:41
92.02_seq2seq机器翻译等场景介绍分析
03:26
93.03_Attention原理分析
20:30
94.04_机器翻译案例:日期格式翻译转换、代码结构介绍
05:50
95.05_机器翻译案例:模型参数定义
06:45
96.06_机器翻译案例:数据获取以及数据格式转换介绍
08:27
97.07_机器翻译案例:训练逻辑与网络结构介绍
11:20
98.08_机器翻译案例:网络输入输出逻辑介绍
06:36
99.09_机器翻译案例:网络输入输出逻辑编写
15:32
100.10_机器翻译案例:自定义网络seq2seq的编解码器定义
10:19
101.11_机器翻译案例:seq2seq的输出层定义
03:20
102.12_机器翻译案例:attention结构定义
15:56
103.13_机器翻译案例:model中计算attention输出c逻辑函数实现
10:29
104.14_机器翻译案例:训练逻辑编写
04:44
105.15_机器翻译案例:训练结果与问题解决
02:05
106.16_机器翻译案例:测试逻辑结果演示
03:36
107.17_集束搜索介绍
07:53
108.01_高级主题介绍、GAN介绍
15:35
109.02_GAN原理、损失和DCGAN结构
10:38
110.03_生成数字图片案例:结果演示流程介绍
06:22
111.04_生成数字图片案例:模型初始化代码编写
18:48
112.05_生成数字图片案例:训练流程
21:05
113.06_生成数字图片案例:运行保存图片并对比
04:33
114.01_自动编码器介绍
05:29
115.02_案例:编码器类别、普通自编码器流程、模型初始化逻辑
12:18
116.03_案例:训练普通自编码器
10:36
117.04_案例:深度自编码器编写演示
02:19
118.05_案例:卷积自编码器编写演示
06:40
119.06_案例:降噪编码器介绍
03:51
120.07_案例:降噪编码器案例
07:10
121.01_CapsuleNet了解
16:04
122.02_深度学习课程总结
13:39
客服
顶部
赛事库 课堂 2021拜年纪