【10分钟】了解香农熵,交叉熵和KL散度
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
【10分钟】了解最大似然估计
【15分钟】了解变分推理
【机器学习】10分钟搞定KL散度 深入解析 | 数学特性 | 正向KL和反向KL | 实际应用 衡量概率分布的标尺
机器学习中的基本概念:信息熵,交叉熵和KL散度(讲的超好)
深度讲解bert模型
常见的损失函数
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
手推Softmax+交叉熵,分类型任务的核心
交叉熵softmax求导简单解释
机器学习期末——信息熵
【精读AI论文】知识蒸馏
【信息论基础】信息熵的定义和基本性质
9.3 信息熵的通俗理解
信息量 |熵 | 交叉熵 |KL散度 (相对熵)|交叉熵损失函数
【15分钟】了解变分自编码器
十分钟搞明白Adam和AdamW,SGD,Momentum,RMSProp,Adam,AdamW
【交叉熵】信息世界的隐秘节奏,数据分布的背后真谛
softmax回归原理及损失函数-跟李沐老师动手学深度学习