【chatglm】(9):使用fastchat和vllm部署chatlgm3-6b模型,并简单的进行速度测试对比。vllm确实速度更快些。
【xinference】(9):本地使用docker构建环境,一次部署embedding,rerank,qwen多个大模型,成功运行,非常推荐
【chatglm3】(4):如何设计一个知识库问答系统,参考智谱AI的知识库系统,学习设计理念,开源组件
【xinference】(7):在autodl上,使用xinference一次部署embedding,rerank,qwen多个大模型,兼容openai的接口协
超重磅!手把手教你一键搭建本地知识库 (超详细版)。DeepSeek+RAGFlow本地部署,想学会本地部署和搭建知识库,看完这一篇就够了!
【Dify知识库】(2):开源大模型+知识库方案,Dify+fastchat的BGE模型,可以使用embedding接口对知识库进行向量化,绑定聊天应用
在AutoDL上,使用4090显卡,部署ChatGLM3API服务,并微调AdvertiseGen数据集,完成微调并测试成功!
【Dify知识库】(1):本地环境运行dity+fastchat的ChatGLM3模型,可以使用chat/completions接口调用chatglm3模型
【2025最新】10分钟教你DeepSeek+Dify零成本部署本地知识库!保姆级教程!大模型/大模型部署/大模型教程/Java程序员
如何将Qwen2.5-7B模型微调为某个行业的专家?超低成本手把手带你从零微调酒店推荐行业大模型,环境配置+模型微调+模型部署+效果展示详细教程!
【Dify知识库】(12):在autodl上,使用xinference部署chatglm3,embedding,rerank大模型,并在Dify上配置成功
【大模型知识库】(3):本地环境运行flowise+fastchat的ChatGLM3模型,通过拖拽/配置方式实现大模型编程,可以使用completions接口
全网最简单!同济大佬一小时带你快速上手RAGFLOW这一本地知识库搭建神器,构建你的专属助理!
【大模型知识库】(1):设计开源项目,docker部署mysql,seilisearch,milvus,fastchat的ChatGLM3,BGE-zh模型
2025最新最详细Ollama保姆级(下载安装+部署+使用)教程!AI大模型应用开发手把手带你快速上手,草履虫都能学的会!!!
【deepseek部署教程】15分钟手把手教你基于deepseek和AnythingLLM搭建一个可联网的本地知识库!
首发!只需24G显存实现满血版 Qwen3-235B + ktransformers部署
【大模型知识库】(2):开源大模型+知识库方案,docker-compose部署本地知识库和大模型,毕昇+fastchat的ChatGLM3,BGE-zh模型
【chatglm3】(8):模型执行速度优化,在4090上使用fastllm框架,运行ChatGLM3-6B模型,速度1.1w tokens/s,真的超级快。
【xinference】(1):在autodl上,使用xinference部署chatglm3大模型,支持函数调用,使用openai接口调用成功!