【大模型】几小时完全从头训练一个仅有26M的小参数GPT,仅需入门显卡即可推理/训练!
二次创业周鸿祎:AI最大的问题是刚刚开始【百大AI应用系列视频播客#1】
从0训练一个GPT小模型 Retriever-0.1B
【大模型】1小时完全从0训练一个微型MiniMind2,仅需单张显卡即可训练!
13G显存运行满血DeepSeek671B,3分钱/分钟,人手一个满血Deepseek不是梦!(Q2.51动态量化版本)
ollama支持Llama3.2-vision多模态大模型轻松实现监控找人!重磅分享:详细讲解提示词工程+视觉大模型实现视频目标查找!无需高端显卡,本地运行流畅
从零开始训练大模型
LLama 3.2 Vision 多模态大模型原理讲解
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
我们成功了!把多模态大模型和机械臂结合到一起,效果很惊艳!
超越GPT-4o视觉能力?本地部署Qwen2-VL多模态视觉大模型!超越人类的视觉理解能力,精准识别X光片判断骨折、CT扫描检测癌症,还能识别手写体汉字与英文!
炸裂!💥最强开源模型新王通义千问2.5 72B被我用4GB老显卡本地跑通了!
MiniMind上手使用视频
【B站首推】零成本,教你如何训练自己的大模型
多模态模型为什么这么难训练?一分钟告诉你本质原因
如何从零搭建一个属于自己的大语言模型?训练自己的LLM最佳指南来了!保姆级教程,小白一看就会!
从0训练一个GPT的tokenizer
多模态简述
如何训练一个写小说的大模型?
BitNet开源:1.58比特让大模型轻如燕,CPU就能跑100B参数