(强推)李宏毅2021/2022春机器学习课程

277.2万
4.7万
2021-02-27 20:39:21
正在缓冲...
4.0万
2.0万
14.0万
2.5万
2022课程与2021课程基本相同,李老师只做小补充,UP会标识2022,会根据22课程大纲将内容进行相应更新!!! 公众号【啥都会一点的研究生】,本课资料对应序号05,能满足全部资料需求。 人工智能技术探讨群:571218304,不定期分享AI干货,点赞关注一起进步! 2021课程地址:https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html 2022课程地址:https://speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php 课件和资料Github版:https://github.com/Fafa-DL/Lhy_Machine_Learning 课件和资料Gitee版:https://gitee.com/zzhzwh/Lhy_Machine_Learning CSDN版https://blog.csdn.net/zzh516451964zzh/article/details/123212671 我是up主啥都生,非科班上岸算法工程师,分享我的学习路线:BV16341177c1
啥都会一点,啥都不精通,自动驾驶感知算法工程师。公众号:啥都会一点的研究生
视频选集
(84/155)
自动连播
2022-机器学习相关规定
32:27
2021-机器学习相关规定
32:45
第一节 2021 - (上) - 机器学习基本概念简介
50:00
2021 - (下) - 深度学习基本概念简介
58:35
2022-Colab教学
12:34
2022-PyTorch Tutorial 1
31:01
2022-PyTorch Tutorial 2
15:52
2021-Google Colab教学
09:24
2021-Pytorch 教学 part 1
22:01
2021-Pytorch 教学 part 2(英文有字幕)
09:21
2022-作业HW1
40:36
2021-作业HW1
18:58
(选修)To Learn More - 深度学习简介
46:29
(选修)To Learn More - 反向传播(Backpropagation)
31:26
(选修)To Learn More - 预测神奇宝贝Pokemon
01:18:36
(选修)To Learn More - 分类神奇宝贝Pokemon
01:09:40
(选修)To Learn More - 逻辑回归
01:07:12
第二节 2021 - 机器学习任务攻略
51:24
2021 - 类神经网络训练不起来怎么办(一) 局部最小值 (local minima) 与鞍点 (saddle point)
33:45
2021 - 类神经网络训练不起来怎么办(二) 批次 (batch) 与动量 (momentum)
30:59
2021 - 类神经网络训练不起来怎么办(三) 自动调整学习率 (Learning Rate)
37:42
2021 - 类神经网络训练不起来怎么办(四) 损失函数 (Loss) 也可能有影响
19:27
2022 - 再探宝可梦、数码宝贝分类器 — 浅谈机器学习原理
01:14:00
(选修)To Learn More - Gradient Descent 样例1
02:36
(选修)To Learn More - Gradient Descent 样例2
01:41
(选修)To Learn More - Optimization for Deep Learning (1_2)
54:35
(选修)To Learn More - Optimization for Deep Learning (2_2)
54:31
2022 - 作业HW2
20:04
2021 - 作业说明 HW2中文低画质版
30:50
2021 - 作业说明 HW2-英文有字幕高清版
26:55
第三节 2021 - 卷积神经网络(CNN)
55:40
2022 - 为什么用了验证集 (validation set) 结果却还是过拟合(overfitting)了呢?
08:56
2022 - 鱼与熊掌可以兼得的机器学习
41:35
(选修)To Learn More - Spatial Transformer Layer
32:55
2022 - 作业说明HW3
34:21
2021- 作业说明HW3 中文低画质
24:55
2021- 作业说明HW3 英文高画质有字幕
29:07
第四节 2021 - 自注意力机制(Self-attention)(上)
28:18
2021 - 自注意力机制 (Self-attention) (下)
45:57
(选修)To Learn More - Recurrent Neural Network (Part I)
48:59
(选修)To Learn More - Recurrent Neural Network (Part II)
01:30:50
(选修)To Learn More - Graph Neural Network(1_2)
39:01
(选修)To Learn More - Graph Neural Network(2_2)
01:11:36
(选修)To Learn More - Unsupervised Learning - Word Embedding
40:38
2022 - 作业说明HW4
19:23
2021 - 作业说明 HW4-中文低画质版
25:22
2021 - 作业说明 HW4-英文无字幕高清版
22:43
第五节 2021 - 类神经网络训练不起来怎么办 (五) 批次标准化 (Batch Normalization)
30:55
2021 - Transformer (上)
32:47
2021 - Transformer (下)
01:00:33
2022 - 各式各样神奇的自注意力机制 (Self-attention) 变型
01:11:16
(选修)To Learn More - Non-Autoregressive Sequence Generation
01:01:52
(选修)To Learn More - Pointer Network
13:35
2022 - 作业说明HW5
37:52
2021 - 作业说明 HW5 中文 + Judgeboi讲解
50:17
2021 - 作业说明 HW5 slides tutorial -英文版机翻
16:48
2021 - 作业说明 HW5 code tutorial -英文版机翻
16:14
第六节 2021 - 生成式对抗网络(GAN) (一) – 基本概念介紹
39:08
2021 - 生成式对抗网络(GAN) (二) – 理论介绍与WGAN
46:40
2021 - 生成式对抗网络(GAN) (三) – 生成器效能评估与条件式生成
49:46
2021 - 生成式对抗网络(GAN) (四) – Cycle GAN
23:40
(选修)To Learn More - GAN Basic Theory
01:20:19
(选修)To Learn More - General Framework
25:04
(选修)To Learn More - WGAN, EBGAN
50:07
(选修)To Learn More - Unsupervised Learning - Deep Generative Model (Part I)
29:34
(选修)To Learn More - Unsupervised Learning - Deep Generative Model (Part II)
01:03:31
(选修)To Learn More - Flow-based Generative Model
01:07:51
2021 - 作业说明 HW6 中文版低画质
29:03
2021 - 作业说明 HW6 英文版高画质有字幕
12:20
2022 - 作业说明 HW6
38:51
第七节 2021 - 自监督式学习 (一) – 芝麻街与进击的巨人
07:09
2021 - 自监督式学习 (二) – BERT简介
50:40
2021 - 自监督式学习 (三) – BERT的奇闻轶事
24:13
2021 - 自监督式学习 (四) – GPT的野望
17:04
2022 - 如何有效的使用自督导式模型 - Data-Efficient & Parameter-Efficient Tuning
01:22:09
2022 - 语音与影像上的神奇自督导式学习模型
01:21:59
(选修)To Learn More - BERT and its family - Introduction and Fine-tune
50:08
(选修)To Learn More - ELMo, BERT, GPT, XLNet, MASS, BART, UniLM, ELECTRA, others
01:11:46
(选修)To Learn More - Multilingual BERT
39:13
(选修)To Learn More - 來自獵人暗黑大陸的模型 GPT-3
29:57
2021 - 作业说明 HW7 中文版低画质
21:07
2022 - Homework 7
25:56
第八节 2021 - 自编码器 (Auto-encoder) (上) – 基本概念
19:01
2021 - 自编码器 (Auto-encoder) (下) – 领结变声器与更多应用
30:35
2021 - Anomaly Detection (1_7)
13:23
2021 - Anomaly Detection (2_7)
14:10
2021 - Anomaly Detection (3_7)
14:05
2021 - Anomaly Detection (4_7)
04:08
2021 - Anomaly Detection (5_7)
12:18
2021 - Anomaly Detection (6_7)
12:20
2021 - Anomaly Detection (7_7)
06:02
(选修)To Learn More - Unsupervised Learning - Linear Methods
01:40:21
(选修)To Learn More - Unsupervised Learning - Neighbor Embedding
30:59
2021 - 作业说明 HW8 中文版低画质
25:44
2022 - 作业说明 Homework 8
21:31
第九节 2021 - 机器学习的可解释性 (上) – 为什么神经网络可以正确分辨宝可梦和数码宝贝
49:08
2021 - 机器学习的可解释性 (下) –机器心中的猫长什么样子
22:46
2022 - 自然语言处理上的对抗式攻击 (由姜成翰助教讲授) - Part 1
56:06
2021 - 作业说明 HW9 中文版低画质
42:22
2022 - Homework 9
10:35
第十节 2021 - 来自人类的恶意攻击 (Adversarial Attack) (上) – 基本概念
29:50
2021 - 来自人类的恶意攻击 (Adversarial Attack) (下) – 类神经网络能否躲过人类深不见底的恶意
46:33
2022 - 自然语言处理上的对抗式攻击 (由姜成翰助教讲授) - Part 2
01:26:22
2022 - 自然语言处理上的对抗式攻击 (由姜成翰助教讲授) - Part 3
01:10:20
2022 - 自然语言处理上的模仿攻击 (Imitation Attack) 以及后门攻击 (Backdoor Attack) (由姜成翰助教讲授)
43:13
(选修)To Learn More - More about Adversarial Attack (1_2)
29:58
(选修)To Learn More - More about Adversarial Attack (2_2)
29:45
2021 - 作业说明 HW10 中文版低画质
36:50
2022 - Homework 10
30:30
第十一节 2021 - 概述领域自适应 (Domain Adaptation)
34:33
2022 - 恶搞自督导式学习模型 BERT的三个故事
53:43
2021 - 作业说明 HW11 Domain Adaptation
51:55
2022 - 作业说明 Homework11
31:55
第十二节 2021 - 概述增強式學習(一) – 增强式学习和机器学习一样都是三个步骤
45:02
2021 - 概述增强式学习 (二) – Policy Gradient 与修课心情
41:15
2021 - 概述增强式学习 (三) – Actor-Critic
34:41
2021 - 概述增强式学习 (四) – 回馈非常罕見的時候怎么办?机器的望梅止渴
17:35
2021 - 概述增强式学习 (五) – 如何从示范中学习?逆向增強式学习 (Inverse RL)
27:08
2021 - 作业说明 HW12 中文高清
21:59
2022 - 作业说明 HW12 (英文版) - 1_2
13:15
(选修)To Learn More - Deep Reinforcement Learning
01:06:22
第十三节 2021 - 神经网络压缩 (一) - 类神经网络剪枝(Pruning) 与大乐透假说(Lottery Ticket Hypothesis)
29:32
2021 - 神经网络压缩 (二) - 从各种不同的面向來压缩神经网络
56:46
(选修)To Learn More - Proximal Policy Optimization (PPO)
41:34
(选修)To Learn More - Q-learning (Basic Idea)
49:44
(选修)To Learn More - Q-learning (Advanced Tips)
38:31
(选修)To Learn More - Q-learning (Continuous Action)
14:58
(选修)To Learn More - Geometry of Loss Surfaces (Conjecture)
17:07
2021 - 作业说明 HW13 中文高清
33:52
2022 - 作业说明 HW13
36:07
第十四节 2021 - 机器终身学习 (一) - 为什么今日的人工智能无法成为天网?灾难性遗忘(Catastrophic Forgetting)
32:00
2021 - 机器終身学习 (二) - 灾难性遗忘(Catastrophic Forgetting)
36:39
2021 - 作业说明 HW14 中文高清
27:49
2022 - 作业说明 HW14
22:03
第十五节 2021 - 元学习 Meta Learning (一) - 元学习和机器学习一样也是三個步骤
46:21
2021 - 元学习 Meta Learning (二) - 万物皆可 Meta
31:37
2022 - 各种奇葩的元学习 (Meta Learning) 用法
31:13
(选修)To Learn More - Meta Learning – MAML (1)
07:41
(选修)To Learn More - Meta Learning – MAML (2)
07:52
(选修)To Learn More - Meta Learning – MAML (3)
10:22
(选修)To Learn More - Meta Learning – MAML (4)
05:14
(选修)To Learn More - Meta Learning – MAML (5)
13:22
(选修)To Learn More - Meta Learning – MAML (6)
06:33
(选修)To Learn More - Meta Learning – MAML (7)
08:54
(选修)To Learn More - Meta Learning – MAML (8)
05:11
(选修)To Learn More - Meta Learning – MAML (9)
06:53
(选修)To Learn More - Gradient Descent as LSTM (1_3)
11:40
(选修)To Learn More - Gradient Descent as LSTM (2_3)
10:06
(选修)To Learn More - Gradient Descent as LSTM (3_3)
10:39
(选修)To Learn More - Meta Learning – Metric-based (1)
10:30
(选修)To Learn More - Meta Learning – Metric-based (2)
05:15
(选修)To Learn More - Meta Learning – Metric-based (3)
11:30
(选修)To Learn More - Meta Learning - Train+Test as RNN
07:48
2022 - 作业说明 HW15
17:54
【机器学习】课程结语 完结撒花
27:41
客服
顶部
赛事库 课堂 2021拜年纪