(强推|双字)最新吴恩达机器学习Deeplearning.ai课程

279.2万
3.7万
2022-07-01 21:55:01
正在缓冲...
3.2万
1.7万
10.9万
2.0万
啥都会一点,啥都不精通,自动驾驶感知算法工程师。公众号:啥都会一点的研究生
视频选集
(1/151)
自动连播
第一课 第一周 1.1 欢迎参加《机器学习》课程
02:45
1.2 机器学习应用
04:29
2.1 机器学习定义
05:36
2.2 监督学习-part-1
06:57
2.3 监督学习-part-2
07:17
2.4 无监督学习-part-1
08:54
2.5 无监督学习-part-2
03:40
2.6 Jupyter notebooks
04:30
3.1 线性回归模型-part-1
10:27
3.2 线性回归模型-part-2
06:45
3.3 代价函数公式
09:05
3.4 理解代价函数
15:47
3.5 可视化代价函数
08:34
3.6 可视化举例
06:01
4.1 梯度下降
08:04
4.2 梯度下降的实现
10:00
4.3 理解梯度下降
07:02
4.4 学习率
09:04
4.5 用于线性回归的梯度下降
06:37
4.6 运行梯度下降
05:49
第二周 1.1 多维特征
09:52
1.2 向量化-part-1
06:55
1.3 向量化-part-2
06:53
1.4 用于多元线性回归的梯度下降法
07:46
2.1 特征缩放-part-1
06:36
2.2 特征缩放-part-2
07:35
2.3 判断梯度下降是否收敛
05:40
2.4 如何设置学习率
06:07
2.5 特征工程
03:05
2.6 多项式回归
05:52
第三周 1.1 动机与目的
09:48
1.2 逻辑回归
09:49
1.3 决策边界
10:43
2.1 逻辑回归中的代价函数
12:00
2.2 简化逻辑回归代价函数
05:45
3.1 实现梯度下降
06:32
4.1 过拟合问题
11:53
4.2 解决过拟合
08:16
4.3 正则化
09:04
4.4 用于线性回归的正则方法
08:53
4.5 用于逻辑回归的正则方法
05:33
(选修)Andrew Ng对话Feifei Li-以人为本的人工智能研究
41:43
第二课 第一周1.1 欢迎
02:54
1.2 神经元和大脑
10:53
1.3 需求预测
16:23
1.4 举例-图像感知
06:36
2.1 神经网络中的网络层
09:50
2.2 更复杂的神经网络
07:19
2.3 神经网络前向传播
05:24
3.1 如何用代码实现推理
07:13
3.2 Tensorflow中数据形式
11:20
3.3 搭建一个神经网络
08:21
4.1 单个网络层上的前向传播
05:07
4.2 前向传播的一般实现
07:53
5.1 强人工智能
10:35
6.1 神经网络为何如此高效
04:23
6.2 矩阵乘法
09:28
6.3 矩阵乘法规则
09:33
6.4 矩阵乘法代码
06:42
第二周 1.1 Tensorflow实现
03:38
1.2 模型训练细节
13:41
2.1 Sigmoid激活函数的替代方案
05:30
2.2 如何选择激活函数
08:25
2.3 为什么模型需要激活函数
05:32
3.1 多分类问题
03:29
3.2 Softmax
11:33
3.3 神经网络的Softmax输出
07:25
3.4 Softmax的改进实现
09:13
3.5 多个输出的分类
04:20
4.1 高级优化方法
06:26
4.2 其他的网络层类型
08:56
5.1 什么是导数(选修)
22:57
5.2 计算图(选修)
19:20
5.3 大型神经网络案例(选修)
09:53
第三周 1.1 决定下一步做什么
03:42
1.2 模型评估
10:26
1.3 模型选择&交叉验证测试集的训练方法
14:53
2.1 通过偏差与方法进行诊断
11:13
2.2 正则化、偏差、方差
10:37
2.3 制定一个用于性能评估的基准
09:26
2.4 学习曲线
12:14
2.5 (修订)决定下一步做什么
08:47
2.6 方差与偏差
10:45
3.1 机器学习开发的迭代
07:43
3.2 误差分析
08:21
3.3 添加更多数据
14:24
3.4 迁移学习-使用其他任务中的数据
12:11
3.5 机器学习项目的完整周期
08:45
3.6 公平、偏见与伦理
09:56
4.1 倾斜数据集的误差指标
11:36
4.2 精确率与召回率的权衡
11:50
第四周 1.1 决策树模型
07:06
1.2 学习过程
11:21
2.1 纯度
07:50
2.2 选择拆分信息增益
11:52
2.3 整合
09:29
2.4 独热编码One-hot
05:26
2.5 连续有价值的功能
06:54
2.6 回归树
09:51
3.1 使用多个决策树
03:57
3.2 有放回抽样
04:00
3.3 随机森林
06:23
3.4 XGBoost
07:26
3.5 何时使用决策树
06:55
(选修)Andrew Ng 和 Chris Manning 谈自然语言处理
47:28
第三课 第一周1.1 欢迎来到第三课
03:22
2.1 什么是聚类
04:13
2.2 K-means直观理解
06:50
2.3 K-means算法
09:50
2.4 优化目标
11:13
2.5 初始化 K-means
08:54
2.6 选择聚类数量
07:58
3.1 发现异常事件
11:54
3.2 高斯正态分布
10:51
3.3 异常检测算法
12:09
3.4 开发与评估异常检测系统
11:39
3.5 异常检测与监督学习对比
08:09
3.6 选择使用什么特征
14:58
第二周 1.1 提出建议
05:33
1.2 使用每个特征
11:23
1.3 协同过滤算法
13:56
1.4 二进制标签
08:28
2.1 均值归一化
08:46
2.2 协同过滤TensorFlow实现
11:38
2.3 寻找相关特征
06:34
3.1 协同过滤与基于内容过滤对比
09:46
3.2 基于内容过滤的深度学习方法
09:43
3.3 从大型目录中推荐
07:53
3.4 推荐系统中的伦理
10:49
3.5 基于内容过滤的TensorFlow实现
04:49
4.1 降低特征数量(选修)
12:24
4.2 PCA算法(选修)
17:51
4.3 PCA代码实现(选修)
11:04
第三周 1.1 什么是强化学习
08:49
1.2 示例:火星探测器
06:42
1.3 强化学习的回报
10:19
1.4 决策:强化学习中的策略
02:38
1.5 审查关键概念
05:35
2.1 状态-动作价值函数定义
10:37
2.2 状态-动作价值函数示例
05:23
2.3 贝尔曼方程
12:53
2.4 random stochastic environment(可选)
08:25
3.1 示例:连续状态空间应用
06:25
3.2 登月器
05:54
3.3 学习状态值函数
16:51
3.4 算法改进:改进的神经网络架构
03:01
3.5 算法改进:ε-贪婪策略
09:00
3.6 算法改进:小批量和软更新(可选)
11:44
3.7 强化学习的状态
02:55
3.8 课程总结和致谢
03:12
(选修)Andrew Ng 和 Chelsea Finn 谈人工智能和机器人技术
33:20
客服
顶部
赛事库 课堂 2021拜年纪