谷歌云的Speech-to-Text音转文加说话人识别接口使用示例
前提 确保拥有google账号并已配置好结算账号 准备好一个音频文件 一、配置ADC环境 为本地开发环境设置ADC 首先进入谷歌云控制台,点击下图按钮激活Cloud
LLaMA Factory微调示例
微调qwen3-0.6b的function calling能力 # my-train.yaml
### model
model_name_or_path: Qwen/Qwen3-0.6B
trust_remote_code: true
### method
stage: sft
do_train:
四种主流LLM微调方法详解:Full-tuning、Freeze-tuning、LoRA和QLoRA
本文源自AI 本文详细介绍一下大模型微调中的四种主要方法:Full Fine-tuning (全量微调) 、Freeze (冻结微调) 、LoRA (低秩适应) 和 QLoRA (量化低秩适应) 。它们都是为了在特定任务上提升预训练大模型性能,同时力求在计算资源、时间和效果之间取得平衡。 1. Fu
使用uv配置LLaMA-Factory虚拟环境
LLaMA-Factory 1. 克隆项目 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory 2. 修改为大陆镜像(可选)
Linux桌面环境下Jetbrains系列工具通义灵码插件无法获取到npx命令的问题
2025-07-11 问题已反馈给官方,期望尽快解决 环境 Linux Mint 22.1 RustRover 2025.1.4 或者 Pycharm 2025.1.2 插件:lingma 2.5.13 fnm 1.38.1 | node v22.17.0 | npm 10.9.2 | npx 10
使用rkllm-toolkit导出Qwen3模型
rk中有些主板是有NPU的,比如rk3576就有6 TOPS的算力。官方有NPU的加速sdk,本文以Qwen3为例,导出rkllm格式的模型。 创建环境 # 只试了python3.10环境
uv init rkllm-export -p 3.10
cd rkllm-export
# 建议先编辑py