LLaMA-Factory

1. 克隆项目
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
2. 修改为大陆镜像(可选)
vim pyproject.toml
# 最后一行([tool.uv]里)添加:index-url = "https://mirrors.aliyun.com/pypi/simple/"
3. 初始化虚拟环境
# 使用3.10版本
uv sync --extra torch --extra metrics --prerelease=allow -p 3.10

# 如果需要使用swanlab则使用如下命令
# uv sync --extra torch --extra metrics --extra swanlab --prerelease=allow -p 3.10
4. 启动webui
# 激活虚拟环境
source .venv/bin/activate

# 退出虚拟环境
# deactivate

# 使用modelscope(可选)
export USE_MODELSCOPE_HUB=1 

# 开启llama factory webui
llamafactory-cli webui

如果开启webui报错:AttributeError: module 'httpx' has no attribute 'AsyncHTTPTransport',可以先执行下uv pip install httpx==0.28.1再执行llamafactory-cli webui