使用llama.cpp项目bin文件运行,glm4-chat-9b大模型,速度不快,建议选择量化小的Q2试试

450
0
2024-07-15 08:58:34
正在缓冲...
8
投币
6
分享
使用llama.cpp项目bin文件运行,glm4-chat-9b大模型,速度不快,建议选择量化小的Q2试试 chatglm4大模型 https://modelscope.cn/models/LLM-Research/glm-4-9b-chat-GGUF llama.cpp项目: https://github.com/ggerganov/llama.cpp 下载二进制代码: https://github.com/ggerganov/llama.cpp/releases
大模型,IOT和边缘计算研究。加微:fly-iot
客服
顶部
赛事库 课堂 2021拜年纪