【14分钟】大模型技术之模型并行
为什么AI框架都用计算图?什么是计算图?到底计算图有什么用?【计算图】系列第二篇
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
什么是张量并行?张量并行的数学原理是什么?【分布式并行】系列第03篇
pytorch分布式并行训练,深入浅出的讲解。
AI集群用什么服务器架构?Ring All Reduce算法跟物理网络啥关系?【分布式集群】系列第02篇
大模型是什么?大模型有什么用?训练大模型会遇到哪些挑战?【分布式算法】第01篇
大模型算法有哪种结构?怎么样才算大模型呢?从Transformer和MOE结构看大模型发展!【分布式算法】系列第02篇
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
混合并行?多维并行?有多维度混合在一起并行吗?【分布式并行】系列第06篇
AI框架内容介绍:AI框架基础、AI框架之争、AI编程范式!【AI框架基础】系列第一篇
如何计算模型参数量?什么是FLOPS和MACC?【推理系统】模型小型化第01篇
【王树森】并行计算与分布式机器学习
AI框架如何实现分布式训练?SISD和SIMT又是什么?【分布式集群】系列第05篇
分布式训练总结!【大模型与分布式训练】系列第07篇
Kernel优化架构介绍!【推理引擎】Kernel优化第01篇
AI编译器后端优化来啦!AI编译器后端架构!【AI编译器】后端优化01篇
分布式训练、分布式集群的基础介绍!【分布式集群】第01篇
从十亿到万亿规模SOTA大模型有哪些?BERT、GPT3、Switch算法来啦!【分布式算法】系列第03篇
计算图有哪些内容知识?【计算图】系列第一篇