【中英字幕】吴恩达深度学习课程第一课 — 神经网络与深度学习

131.8万
1.3万
2019-09-01 21:21:04
正在缓冲...
1.7万
9045
6.9万
9084
https://mooc.study.163.com/course/2001281002 视频仅供学习使用,若侵权,请联系删除! 这是深度学习工程师微专业中的第一门课。这门课将为你介绍深度学习的基础知识。学完这门课,你将能够: -理解驱动深度学习的主要技术趋势。 -能够搭建、训练并且运用全连接的深层神经网络。 -了解如何实现高效的(向量化)的神经网络。 -理解神经网络架构中的关键参数。 这门课将会详尽地介绍深度学习的基本原理,而不仅仅只进行理论概述。
没事就多学习 咨询问题或者合作请私聊
视频选集
(1/46)
自动连播
【第一周 深度学习概论】1.1 欢迎
05:33
1.2 什么是神经网络?
07:17
1.3 用神经网络进行监督学习
08:30
1.4 为什么深度学习会兴起?
10:22
1.5 关于这门课
02:28
1.6 课程资源
01:56
【第二周 神经网络基础】2.1 二分分类
08:24
2.2 logistic 回归
06:00
2.3 logistic 回归损失函数
08:12
2.4 梯度下降法
11:24
2.5 导数
07:11
2.6 更多导数的例子
10:28
2.7 计算图
03:34
2.8 计算图的导数计算
14:51
2.9 logistic 回归中的梯度下降法
06:43
2.10 m 个样本的梯度下降
08:01
2.11 向量化
08:05
2.12 向量化的更多例子
06:22
2.13 向量化 logistic 回归
07:33
2.14 向量化 logistic 回归的梯度输出
09:38
2.15 Python 中的广播
11:07
2.16 关于 python _ numpy 向量的说明
06:50
2.17 Jupyter Ipython 笔记本的快速指南
03:44
2.18 (选修)logistic 损失函数的解释
07:16
【第三周 浅层神经网络】3.1 神经网络概览
04:27
3.2 神经网络表示
05:15
3.3 计算神经网络的输出
09:59
3.4 多个例子中的向量化
09:06
3.5 向量化实现的解释
07:38
3.6 激活函数
10:57
3.7 为什么需要非线性激活函数?
05:37
3.8 激活函数的导数
07:58
3.9 神经网络的梯度下降法
09:58
3.10 (选修)直观理解反向传播
15:49
3.11 随机初始化
07:58
【第四周 深层神经网络】4.1 深层神经网络
05:52
4.2 深层网络中的前向传播
07:16
4.3 核对矩阵的维数
11:11
4.4 为什么使用深层表示
10:34
4.5 搭建深层神经网络块
08:34
4.6 前向和反向传播
10:30
4.7 参数 VS 超参数
07:18
4.8 这和大脑有什么关系?
03:18
【人工智能行业大师访谈】1. 吴恩达采访 Geoffrey Hinton
40:23
【人工智能行业大师访谈】2. 吴恩达采访 Pieter Abbeel
16:04
【人工智能行业大师访谈】3. 吴恩达采访 Ian Goodfellow
14:56
客服
顶部
赛事库 课堂 2021拜年纪