实战私有数据微调ChatGLM3
- 实战私有数据微调ChatGLM3
- 实战构造私有的微调数据集
- 基于 ChatGPT 设计生成训练数据的 Prompt
- 使用 LangChain + GPT-3.5-Turbo 生成训练数据样例
- 训练数据解析、数据增强和持久化存储
- 自动化批量生成训练数据集流水线
- 提示工程(Prompt Engineering):强化返回格式,不断测试结果
- 实战私有数据微调 ChatGLM3
- 使用 QLoRA 小样本微调 ChatGLM3
- ChatGLM3 微调前后效果对比
实战私有数据微调ChatGLM3
实战构造私有的微调数据集
典型的训练数据集构造流程
痛点:流程重复繁杂,效率低
基于 GPT 的训练数据集构造流程
基于 ChatGPT 设计生成训练数据的 Prompt(以中国哲学领域为例)
基于 ChatGPT 设计生成训练数据的 Prompt
使用 LangChain + GPT-3.5-Turbo 生成训练数据样例
训练数据解析、数据增强和持久化存储
数据增强:构造多样化的提问方式
自动化批量生成训练数据集流水线
提示工程(Prompt Engineering):强化返回格式,不断测试结果
实战私有数据微调 ChatGLM3
使用 QLoRA 小样本微调 ChatGLM3
ChatGLM3 微调前后效果对比
fixed