一键微调大模型神器:上传文档自动生成数据集、微调、部署超简单,可本地运行
2026年6月19日
闭源AI收费高、限制多、隐私堪忧。
Augmentoolkit 3.0 是一款大模型微调开源工具,通过自动生成领域数据集,并微调大语言模型(LLM),打造既精通专业知识,又擅长对话的特定领域AI。
它让AI从通才变专才,医生、律师、作家等、都能定制微调实用AI,安全又高效。
作者耗时半年、投入数千美元打造,完全开源。
核心功能
Augmentoolkit 实现一键微调AI,无需编程,几步搞定。
- • 上传文档:输入专业资料,如手册或PDF。
- • 自动生成数据集:提取文档内容,混合通用对话数据。
- • 微调模型:训练出专精领域、支持聊天的AI,运行轻量。
- • 即时交互:内置聊天界面,训练后直接对话。
Augmentoolkit ,可以本地运行免费,知识速度稍慢。
微调后的AI深入了解某个领域知识,远超通用模型。
它还支持GRPO流程,通过任务评分优化AI,适应写作、编程等任何任务。
' fill='%23FFFFFF'%3E%3Crect x='249' y='126' width='1' height='1'%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
使用步骤
1、克隆项目
git clone https://github.com/e-p-armstrong/augmentoolkit.git
2、运行启动脚本
本地或在线运行
-
• Mac
bash macos.sh bash local_macos.sh
-
• Linux
bash linux.sh bash local_linux.sh
-
• Windows + 注意
建议使用 WSL。若不使用,需通过命令行界面(CLI)操作,具体说明在快速入门页面的 README 中。
3、配置 API 密钥或使用本地模型
作者训练了一个 7 亿参数的模型(Apache 许可证),专为运行 Augmentoolkit 流程设计。
你可以在个人电脑上以不错的速度生成数据,虽比 API 慢,但远优于用本地 70 亿参数模型生成数千万 token。
本地数据生成有独立启动脚本。
Linux 机器生成数据集速度更快,因为 Llama.cpp 比 vLLM(仅限 Linux)慢得多,Mac 虽能运行但效率较低。
4、点击“运行”按钮
' fill='%23FFFFFF'%3E%3Crect x='249' y='126' width='1' height='1'%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)
5、获取模型
训练和量化完成后,内置聊天界面会自动让你与模型互动。
模型也会自动上传至 Hugging Face(确保有足够存储空间!)。
操作视频见
需要注意的
微调模型能准确引用信息来源文件,准确率高,不限于 RAG 技术。
Augmentoolkit 默认用定制提示模板,使监督微调数据接近预训练数据结构,增强模型对话中的事实召回等预训练能力。
数据集生成模型由 Augmentoolkit 自身创建,2.5GB 数据集配置在 generation/core_composition/meta_datagen 文件夹。
提供流程将普通监督微调数据转为推理型数据,为需推理能力的模型提供起点,相关数据集开源于 Hugging Face。
Augmentoolkit 平衡领域数据与通用对话数据,自动训练模型,确保泛化能力、对话技能及事实问答能力。
支持仅生成数据不训练模型,通过配置文件实现。
立即获取:https://github.com/e-p-armstrong/augmentoolkit
如果本文对你有帮助,欢迎点赞、转发、留言交流。
领取 诊断工作中可用AI优化环节的工具。目前正组建交流群,可备注“交流群”,到时拉你进群~
' fill='%23FFFFFF'%3E%3Crect x='249' y='126' width='1' height='1'%3E%3C/rect%3E%3C/g%3E%3C/g%3E%3C/svg%3E)