Qwen3是阿里巴巴于2025年4月29日发布的一款开源混合推理模型,其特点和性能在多个方面都取得了显著突破.一张图给大家看懂Qwen3

1.登录启智平台
https://openi.pcl.ac.cn/

输入账号和密码登录

登录后我们进入启智平台云脑任务界面,下面是我之前测试的列表,大家不用管。

2.创建云脑任务
点击右上角“新建云脑任务”

进入创建云脑任务,我们选择一个项目(这块可以提前新建一个项目,项目里面可以为空 就像github里面创建一个空项目类似),点击下一步

进入设置调试任务,我们选择计算资源,启智平台目前提供多种算力(英伟达、华为昇腾、燧原、寒武纪、海光、天数智芯、沐曦GPGPU),这里面我们先选择英伟达,显卡资源我们选择A100

接下来我们选择镜像、数据集、选择模型这块。
镜像我们输入检索python3.10 ,选择 ubuntu22.04-cuda12.1.0-py310-torch2.1.2-tf2.14

数据集我们先空着。
模型这里我们我们从平台上公开模型中选择qwen3-4B模型

以上设置完成后,我们点击新建任务。等待服务器创建和分配资源。

资源分配完成后我们看到如下列表,看到资源running状态,后面有一个调试按钮,后面就可以进入代码调试窗体界面了。

3.模型调试
我们点击调试按钮,进入jupyterlab 调试代码界面

这个时候模型挂载在哪个目录下呢?我们使用启智平台提供的c2net库访问方式,可以在启动界面找到挂载模型路径


我们会看到图右上角 左边代码区/tmp/code、数据存储区域/tmp/dataset 模型存放区域/tmp/pretrainmodel 3 个文件夹,顾名思义,code 是放代码的;dataset放数据集的;pretrainmodel 就是模型挂载的目录。
我们进入pretrainmodel
cd /tmp/pretrainmodel


模型已经挂在到上面截图的目录了。
3.2 swift推理
3.2.1 swift推理框架安装
接下来我们需要再code 代码目录下面下载swift推理程序并安装。
cd /tmp/code
git clone https://github.com/modelscope/swift.git
# 如果网络慢可以使用下面代理
git clone https://ghfast.top//https://github.com/modelscope/swift.git
cd swift
pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple/

安装完成后我们检查一下swift是否安装
pip show ms-swift

3.2.2 模型复制
目前启智平台权限控制问题在/tmp/pretrainmodel/ 目录下是只读权限,我们在模型推理的时候需要读写模型文件,所以会到导致报错,所以我们把模型复制到/tmp/code/目录下,避免上述的错误,执行如下命令
cp -r /tmp/pretrainmodel/Qwen3-4B/ /tmp/code/

打开Qwen3-4B 可以看到模型文件列表

swift infer --model_type qwen3 --model /tmp/code/Qwen3-4B --stream true

3.2.4 swift推理测试
我的问题
你好,你是谁?


这样我们就完成了模型在swift框架实现qwen3-4b模型的推理的。
3.3 模型微调
10分钟在单卡A100上对qwen3-4b进行自我认知微调:
命令行
# 22GB
CUDA_VISIBLE_DEVICES=0 \
swift sft \
--model /tmp/code/Qwen3-4B \
--train_type lora \
--dataset 'swift/self-cognition#500' \
--torch_dtype bfloat16 \
--num_train_epochs 5 \
--per_device_train_batch_size 1 \
--per_device_eval_batch_size 1 \
--learning_rate 1e-4 \
--lora_rank 8 \
--lora_alpha 32 \
--target_modules all-linear \
--gradient_accumulation_steps 16 \
--eval_steps 50 \
--save_steps 50 \
--save_total_limit 2 \
--logging_steps 5 \
--max_length 2048 \
--output_dir output \
--system '你是一个周辉小助手' \
--warmup_ratio 0.05 \
--dataloader_num_workers 4 \
--model_author zhouhui \
--model_name 周辉机器人


看到上面的训练结果,说明模型已经微调完成(我这个修改了num_train_epochs 导致训练时间过长)
我们看一下微调的模型权重输出在 tmp/code/swift/output/v0-20250430-161513/checkpoint-620

接下来我们验证一下。
# 使用交互式命令行进行推理
CUDA_VISIBLE_DEVICES=0 \
swift infer \
--adapters /tmp/code/swift/output/v0-20250430-161513/checkpoint-620 \
--stream true \
--temperature 0 \
--max_new_tokens 2048

我们的问题
你好,你是谁?


4.总结:
本次我们在利用启智平台提供的免费的算力,使用了英伟达A100显卡,使用阿里swift 推理框架实现了Qwen3-4B模型的推理和微调。关于模型的能力这块,因为网上一定有很多人对它进行测评,我这里就不过多介绍了。咱们介绍它如何实现推理,如果实现微调(偏技术一点)本次阿里推出了Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B、Qwen3-14B、Qwen3-32B、 以及Qwen3-30B-A3B、Qwen3-235B-A22B。因为时间关系这里每个模型没办法一一测试。 感兴趣的小伙伴可以按照我文档中将8B及以下模型实现推理部署。今天分享就到这里,感兴趣小伙伴可以留言、点赞、收藏加关注。