部署:vLLM + Open WebUI
创建虚拟环境:conda create -n open-webui python==3.11
安装所有依赖:
conda activate open-webui pip install -U open-webui vllm torch transformers
运行 vllm(使用微调后的模型):
vllm serve /root/autodl-tmp/code/work_dirs/qwen1_5_1_8b_chat_qlora_alpaca_e3/merged
运行open-webui
1 | export HF_ENDPOINT=https://hf-mirror.com |
若卡住 手动添加端口进行转发 默认端口8080
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Veeblue!
评论