【合集】十分钟 机器学习 系列视频 《统计学习方法》——监督学习篇

73.8万
1.0万
2021-01-14 11:35:37
正在缓冲...
1.4万
1.6万
4.1万
4835
本系列每个视频十分钟,一次一个知识点,帮助小伙伴们由表及里地理解机器学习的基本方法。
视频选集
(121/200)
自动连播
1.1 统计学习方法的定义与分类
10:13
1.2 统计学习的基本分类——监督学习
13:44
1.2 统计学习的基本分类——无监督学习和强化学习
06:07
1.3 统计学习方法的三要素
16:43
1.4 模型评估与模型选择
13:33
1.5 正则化与交叉验证
08:17
1.6 泛化能力——概念理解
09:07
1.6 泛化能力——定理证明
12:40
1.7 生成模型与判别模型
08:38
1.8 监督学习应用——分类问题
07:09
1.8 监督学习应用——标注问题和回归问题
09:48
2.1 感知机——模型介绍和学习策略
12:53
2.2 感知机——准备知识:梯度下降法
11:22
2.3 感知机——学习算法之原始形式:算法解说
14:39
2.3 感知机——学习算法之对偶形式:算法解说
11:19
2.3 感知机——学习算法之对偶形式:例题分析
08:53
2.3 感知机——学习算法之原始形式:算法的收敛性
13:18
3.1 k近邻法——简介
15:00
3.2 k近邻法——三要素
17:48
3.3 k近邻法——什么是kd树
05:52
3.3 k近邻法——构造kd树
13:11
3.3 k近邻法——搜索kd树
13:32
4.1 朴素贝叶斯法:核心——贝叶斯定理
17:20
4.2 朴素贝叶斯法:因何而朴素?
16:00
4.3 朴素贝叶斯法:后验概率最大化准则
09:50
4.4 朴素贝叶斯法:极大似然法之原理篇
14:07
4.4 朴素贝叶斯法:极大似然估计之实现篇
19:00
4.5 朴素贝叶斯法:算法
14:56
4.6【基础篇】朴素贝叶斯法:贝叶斯估计
08:21
4.6【进阶篇】朴素贝叶斯法:贝叶斯估计
23:27
4.6【习题篇】朴素贝叶斯法:贝叶斯估计
10:03
5.1 决策树:一棵有理想的树
16:18
5.2 决策树——条件概率分布
13:04
5.2 决策树——决策树学习
08:25
5.3 决策树:信息增益
14:06
5.3 决策树:信息增益例题解说
17:58
5.3 决策树:信息增益比
10:33
5.4 决策树的生成——ID3算法
14:28
5.4 决策树的生成——C4.5算法
02:15
5.4 决策树的生成——例题详解
16:50
5.5 决策树:剪枝
14:37
5.5 决策树:预剪枝(1)
12:33
5.5 决策树:预剪枝(2)
13:13
5.5 决策树:后剪枝——降低错误的剪枝
13:00
5.5 决策树:后剪枝——悲观剪枝方法之原理篇
08:45
5.5 决策树:后剪枝——悲观错误剪枝之实例篇(1)
11:14
5.5 决策树:后剪枝——悲观错误剪枝之实例篇(2)
06:34
5.5 决策树:后剪枝——最小错误剪枝方法之原理篇
13:44
5.5 决策树:后剪枝——最小错误剪枝方法之实例篇
05:58
5.5 决策树:后剪枝——基于错误剪枝方法之误判率上界
12:13
5.5 决策树:后剪枝——基于错误剪枝方法之具体过程
07:10
5.5 决策树:后剪枝——代价复杂度剪枝
13:32
5.6 决策树:CART算法(1)——简介
07:27
5.6 决策树:CART算法(2)——基尼指数
07:58
5.6 决策树: CART算法(3)——特征下的基尼指数
13:21
5.6 决策树: CART算法(4)——分类树的生成
24:57
5.6 决策树:CART算法(5)——回归树的生成
22:25
5.6 决策树:CART算法(6)——剪枝
15:41
6.1 逻辑回归:Logistic的起源
21:50
6.2 逻辑回归:Logistic Distribution(修订版)
16:28
6.3 逻辑回归:回归模型
14:30
6.4 逻辑回归:逻辑回归模型
15:37
6.5 逻辑回归:参数估计
11:47
7.1 最大熵模型:原理篇之离散分布
16:13
7.1 最大熵模型:原理篇之连续分布
10:39
7.2 最大熵模型:模型简介(1)
08:24
7.2 最大熵模型:模型简介(2)
11:51
7.2 最大熵模型:模型简介(3)
12:28
7.3 最大熵模型:拉格朗日乘子法
09:23
7.3 最大熵模型:原始问题
08:56
7.3 最大熵模型:对偶问题
10:46
7.3 最大熵模型:最大熵模型的学习问题
10:15
7.3 最大熵模型:原始问题和对偶问题的最优解相同吗?
19:04
7.3 最大熵模型:如何利用对偶问题解决原始问题
14:43
7.3 最大熵模型:例题解说
12:40
7.3 最大熵模型:极大似然估计(1)
11:18
7.3 最大熵模型:极大似然估计(2)
09:20
7.4 最大熵模型:优化算法——最速梯度下降法(1)
12:20
7.4 最大熵模型:优化算法——最速梯度下降法(2)
15:10
7.4 最大熵模型:优化算法——牛顿法的奇闻异事
12:02
7.4 最大熵模型:优化算法——牛顿法之求零点
10:58
彩蛋:平方根倒数速算法
04:01
7.4 最大熵模型:优化算法——牛顿法之求极小值
10:59
7.4 最大熵模型:优化算法——牛顿法之求多元情形
10:14
7.4 最大熵模型:优化算法——拟牛顿法条件
13:25
7.4 最大熵模型:优化算法——拟牛顿法之一维搜索
07:54
7.4 最大熵模型:优化算法——拟牛顿法之DFP算法
13:12
7.4 最大熵模型:优化算法——拟牛顿法之BFGS算法
13:35
7.4 最大熵模型:优化算法—改进的迭代尺度算法(1)
19:46
7.4 最大熵模型:优化算法—改进的迭代尺度算法(2)
19:54
8 支持向量机(1):逻辑回归与支持向量机
09:24
8 支持向量机(2):感知机与支持向量机
07:51
8 支持向量机(3):支持向量名称的由来
10:07
8 支持向量机(4):支持向量机的学习问题
13:19
8 支持向量机(5):如何保证学习问题所得到的最优解具有可识别性?
10:40
8 支持向量机(6):支持向量机的学习问题是凸优化问题吗?
26:09
8 支持向量机(7):最大间隔算法
15:02
8 支持向量机(8):线性可分支持向量机的对偶问题
16:13
8 支持向量机(9):如何通过对偶问题获得参数
08:10
8 支持向量机(10):线性可分支持向量机的对偶算法
20:21
8 支持向量机(11):线性支持向量机的原始问题
12:25
8 支持向量机(12):线性支持向量机的对偶算法
16:40
8 支持向量机(13): 线性支持向量机的算法
14:58
8 支持向量机(14):如何从合页损失角度理解线性支持向量机
13:50
8 支持向量机(15):为什么要提出非线性支持向量机
10:07
8 支持向量机(16):核函数有什么用
13:05
8 支持向量机(17):半正定Gram矩阵是什么
13:54
8 支持向量机(18):映射下的新空间
13:29
8 支持向量机(19):我们定义的这个运算是内积吗
09:50
8 支持向量机(20):从向量空间到希尔伯特空间
19:16
8 支持向量机(21):正定核函数的充要条件
16:47
8 支持向量机(22):常见的两种连续空间上定义的正定核函数
05:45
8 支持向量机(23):字符串核函数的小例子
11:48
8 支持向量机(24):字符串核函数中的概念
14:39
8 支持向量机(25):非线性支持向量机的算法简介
04:03
8 支持向量机(26):坐标下降法
11:22
8 支持向量机(27):序列最小最优化(SMO)算法简介
13:15
8 支持向量机(28):序列最小最优化算法的解
20:33
8 支持向量机(29):序列最小最优化算法中的迭代公式.MP4
15:05
8 支持向量机(30):SMO算法中参数变量的选择.MP4
16:38
8 支持向量机(31):SMO算法中参数变量的选择.MP4
11:11
8 支持向量机(32):根SMO算法全过程.MP4
16:23
9 提升方法(1):集成方法简介
13:47
9 提升方法(2):准备知识——什么是PAC框架
13:12
9 提升方法(3):AdaBoost例题先感受——第一轮
12:08
9 提升方法(4):AdaBoost例题先感受——第二轮
15:01
9 提升方法(5):AdaBoost例题先感受——第三轮
12:24
9 提升方法(6):AdaBoost算法简介
12:32
9 提升方法(7):算法中的权重更新
13:26
9 提升方法(8):定理8.1中的训练误差上界
15:49
9 提升方法(9):为何用规范化因子表示指数损失
13:34
9 提升方法(10):打通定理8.2的前两行公式
11:58
9 提升方法(11):定理8.2第三行的证明(泰勒展开证明法)
08:18
9 提升方法(12):看看大佬怎么证明定理8.2第三行
09:03
9 提升方法(13):为什么要证明定理8.2第三行
11:42
9 提升方法(14):回归中的前向思想
15:45
9 提升方法(15):可加模型的原理
10:42
9 提升方法(16):AdaBoost的前向分步算法
13:47
9 提升方法(17):提升树简介
11:04
9 提升方法(18):提升树算法
09:29
9 提升方法(19):提升树例题详解
18:43
9 提升方法(20):梯度提升方法
08:27
10 EM算法(1):餐前小甜点——回顾MLE
14:47
10 EM算法(2):豆花小例子(上)——确定计算目标
09:07
10 EM算法(3):豆花小例子(中)——极大似然冗长的计算
18:12
10 EM算法(4):豆花小例子(下)——简便的EM思路
10:18
10 EM算法(5):硬币小盲盒怎么猜(上)
09:48
10 EM算法(6):硬币小盲盒怎么猜(下)
11:11
10 EM算法(7):EM算法解说
13:53
10 EM算法(8):拿个例子来练手
25:02
10 EM算法(9):EM算法的合理性——如何导出EM算法(上)
17:47
10 EM算法(10):EM算法的合理性——如何导出EM算法(下)
12:03
10 EM算法(11):EM算法的合理性——EM算法的收敛性
18:55
10 EM算法(12):高斯混合模型简介
07:45
10 EM算法(13):高斯混合模型的E步
25:31
10 EM算法(14):高斯混合模型的M步
23:27
10 EM算法(15):广义的EM算法之F函数
16:52
10 EM算法(16):GEM算法的理论准备——引理9.2的证明
08:50
10 EM算法(17):GEM算法的理论准备——定理9.3的证明
09:12
10 EM算法(18):GEM的三个算法详解
11:31
11 隐马尔可夫模型(1):马尔可夫链的定义
10:31
11 隐马尔可夫模型(2):马尔可夫模型的两要素
14:03
11 隐马尔可夫模型(3):隐马尔可夫模型的三要素
13:48
11 隐马尔可夫模型(4):隐马尔可夫模型的小栗子——三硬币模型(上)
11:03
11 隐马尔可夫模型(5):隐马尔可夫模型的小栗子——三硬币模型(下)
11:45
11 隐马尔可夫模型(6):隐马尔可夫模型的例题——盒子和球模型
10:52
11 隐马尔可夫模型(7):概率计算算法之直接计算法
14:10
11 隐马尔可夫模型(8):概率计算算法之前向算法(上)
10:57
11 隐马尔可夫模型(9):概率计算算法之前向算法(下)
12:14
11 隐马尔可夫模型(10):概率计算算法之后向算法(上)
09:57
11 隐马尔可夫模型(11):概率计算算法之后向算法(中)
08:20
11 隐马尔可夫模型(12):概率计算算法之后向算法(下)
13:23
11 隐马尔可夫模型(13):概率计算算法的几个期望表达式
16:33
11 隐马尔可夫模型(14):Baum-Welch算法(1)
08:39
11 隐马尔可夫模型(15):Baum-Welch算法(2)
09:50
11 隐马尔可夫模型(16):Baum-Welch算法(3)
09:13
11 隐马尔可夫模型(17):Baum-Welch算法(4)
09:38
11 隐马尔可夫模型(18):Baum-Welch算法(5)
13:04
11 隐马尔可夫模型(19):Baum-Welch算法(6)
11:52
11 隐马尔可夫模型(20):预测算法(1)
09:23
11 隐马尔可夫模型(21):预测算法(2)——近似算法小栗子
05:15
11 隐马尔可夫模型(22):预测算法(3)——维特比算法(上)
10:57
11 隐马尔可夫模型(23):预测算法(4)——维特比算法(中)
12:56
11 隐马尔可夫模型(24):预测算法(4)——维特比算法(下)
08:33
12 条件随机场(1):条件随机场简介
11:40
12 条件随机场(2):无向图是什么?
09:35
12 条件随机场(3-4):马尔可夫性
17:39
12 条件随机场(5):因子分解
17:36
12 条件随机场(6):线性条件随机场的定义
15:41
12 条件随机场(7-9):线性条件随机场的参数化形式
34:00
12 条件随机场(10-11):条件随机场的简化形式
22:08
12 条件随机场(12):线性条件随机场的矩阵形式
16:49
12 条件随机场(13):概率计算问题(1)——到底计算什么概率
13:01
12 条件随机场(14):概率计算问题(2)——前向后向算法
16:43
12 条件随机场(15):概率计算问题(3)
15:26
12 条件随机场(16):条件随机场学习算法之模型本质
14:04
12 条件随机场(17):条件随机场学习算法之目标函数
11:42
12 条件随机场(18):条件随机场学习算法之最速下降法与拟牛顿法
10:01
12 条件随机场(19-21):迭代尺度法
57:10
12 条件随机场(22-23):维特比算法
38:29
客服
顶部
赛事库 课堂 2021拜年纪