Ubuntu 服务器Llama Factory 搭建DeepSeek-R1微调训练环境

1.首先了解一下什么是LLM微调

LLM 微调指的是在已经预训练好的大型语言模型基础上,使用特定的任务数据或领域数据,通过进一步的训练来调整模型的参数,使其在特定任务或领域上能够表现得更好。简单来说,就是对一个已经具备了丰富语言知识的通用大模型进行 “个性化” 调整,以适应更具体的应用场景和需求。

1.1.目的

  • 提高特定任务性能:对于像文本生成、机器翻译、问答系统等具体任务,通过微调可以让模型在这些任务上的准确性、流畅性等指标得到显著提升。例如在机器翻译中,微调能使模型更好地处理特定语言对之间的语法、词汇差异,提高翻译质量。

  • 适配特定领域:不同领域有其独特的术语、语言风格和知识体系,如医疗、法律领域等。微调可以让模型学习并适应这些领域特点,生成更符合领域规范和需求的文本。比如在医疗领域,经过微调的模型能够准确理解和处理医学术语,为医疗诊断、病历生成等任务提供更专业的支持。

  • 减少计算资源消耗:相比从头训练一个大型语言模型,微调通常只需要较少的计算资源和时间成本。因为预训练模型已经学习到了大量的通用语言知识,微调只需在其基础上进行局部调整,就能快速得到一个适用于特定任务或领域的高性能模型。

1.2.方法

  • 基于特定任务数据微调

    • 有监督微调:收集大量标注好的特定任务数据,这些数据包含了输入文本和对应的正确输出。例如在情感分类任务中,输入是各种文本内容,标注的输出是积极、消极或中性等情感类别。将这些数据输入到预训练模型中,通过调整模型参数,使模型的输出尽可能接近标注的正确答案,从而让模型学习到特定任务的模式和规律。

    • 无监督微调:利用大量未标注的特定任务数据进行微调。例如在文本生成任务中,虽然没有明确的输出标注,但可以通过让模型学习文本的概率分布,如预测下一个单词或句子,使模型在特定任务的文本风格和语义上更符合要求。

  • 基于领域数据微调

    • 领域自适应微调:收集目标领域的文本数据,这些数据具有该领域独特的词汇、句式和语义特点。将预训练模型在这些领域数据上进行微调,使模型能够适应领域语言风格,例如法律领域中频繁出现的法律条文、法律术语等,让模型在处理法律文本时更加准确和专业。

    • 多领域混合微调:有时一个应用可能涉及多个领域,这时可以将多个领域的数据混合起来对模型进行微调,使模型具备处理多领域知识的能力,能够根据输入文本的特点自动切换到相应的领域模式进行处理。

1.3.应用场景

  • 智能客服:通过微调可以让语言模型更好地理解和处理客户咨询的常见问题,提供准确、专业的回答,提高客户满意度。

  • 内容创作辅助:帮助写作者生成特定风格、主题的文本内容,如新闻报道、文案创作等,为创作者提供灵感和素材。

  • 智能教育:根据学生的学习情况和教材内容,生成个性化的学习资料、练习题等,辅助教学和学习。

2.常用微调技术有哪些

2.1.基于全参数的微调技术

  • 全量微调(Full Fine - Tuning)

    • 策略内容:在微调过程中,对预训练模型的所有参数都进行更新和调整。将预训练模型作为初始化,然后使用目标任务的标注数据,通过反向传播算法和优化器(如 Adam、SGD 等)来最小化任务特定的损失函数,使模型的所有参数都能够适应新的任务和数据分布。

    • 优势:能够充分利用预训练模型的知识,对模型进行全面的调整,以最大程度地适应目标任务,在数据量充足、计算资源允许的情况下,通常可以取得较好的微调效果,使模型在目标任务上达到较高的性能水平。

  • 基于对抗训练的微调

    • 策略内容:引入对抗训练机制,在微调过程中,除了原始的目标任务模型外,还引入一个对抗模型。对抗模型的目标是对目标任务模型的输出进行干扰或攻击,而目标任务模型则要努力学习以抵御对抗模型的干扰,通过两者之间的对抗博弈来优化目标任务模型的参数。

    • 优势:可以提高模型的鲁棒性和泛化能力,使模型在面对各种可能的干扰和攻击时,仍然能够保持较好的性能,增强模型对数据中的噪声、对抗样本等的抵抗力。

2.2.基于部分参数的微调技术

  • 层冻结微调(Layer Freezing)

    • 策略内容:在微调时,将预训练模型的某些层的参数冻结,不进行更新,只对模型的部分上层或特定层的参数进行训练。通常底层的层包含了一些通用的语言知识和特征,如词法、句法等信息,将其冻结可以保留预训练模型已学习到的这些基础信息,而只对上层的层进行调整,让模型学习与目标任务相关的更高级的语义和任务特定知识。

    • 优势:减少了需要训练的参数数量,降低计算成本和过拟合的风险,同时能够利用预训练模型底层的通用知识,在一些任务上可以取得较好的效果,特别是当目标任务的数据量相对较少时,层冻结微调可以有效地防止模型过拟合,提高模型的泛化能力。

  • 低秩适应微调(Low - Rank Adaptation,LoRA)及 QLoRA

    • LoRA策略内容:通过在预训练模型的权重矩阵上添加低秩分解的矩阵来进行微调。具体来说,对于预训练模型中的每一个权重矩阵,将其分解为两个低秩矩阵的乘积,并在微调过程中只训练这两个低秩矩阵的参数,而原始的预训练模型权重矩阵保持冻结。这样可以在不改变预训练模型主体结构和权重的基础上,通过学习低秩矩阵来适应新的任务,以较小的参数调整量来实现模型的微调。

    • LoRA优势:大大减少了微调时需要训练的参数数量,降低了计算成本和存储需求,同时能够在一定程度上保持预训练模型的性能,在一些自然语言处理任务中,LoRA 能够在不牺牲太多性能的前提下,实现高效的微调,并且可以方便地与其他微调技术结合使用。

    • QLoRA 策略内容:QLoRA 是基于 LoRA 发展出的一种更为高效的大型语言模型微调方法。它先对预训练语言模型采用 4 位量化技术,以 4 位的精度对模型参数进行存储和计算,极大减少内存占用。同时,在模型中引入低阶适配器,这些适配器被插入到预训练模型的不同层。在微调过程中,将固定的 4 位量化预训练语言模型中的梯度反向传播到低阶适配器,通过这种方式让适配器学习特定任务的特征,并依据任务的损失函数更新参数,实现模型对新任务的适应。

    • QLoRA 优势:QLoRA 在保持完整的 16 位微调性能的同时,显著减少内存使用,这使得在资源有限的设备上,如消费级 GPU 或内存较小的服务器,也能够对大型语言模型进行微调。低阶适配器与梯度反向传播机制,让模型微调更具效率,能够较快收敛到较好性能状态,且不会因量化和参数调整方式改变而导致性能大幅下降。

  • 参数高效微调技术(PEFT)

    • PEFT 策略内容:PEFT 作为一种 NLP 技术,专注于通过微调一小部分精心挑选的关键参数,使预训练的语言模型有效适应各种应用程序。这些关键参数与特定任务的语义、结构或功能紧密相关。在微调过程中,通过一些技术手段对抗灾难性遗忘,例如对参数调整加以约束或引入正则化项,确保模型在学习新任务时,不会丢失预训练阶段获取的重要知识。

    • PEFT 优势:该技术通过微调少量参数,大幅降低计算和存储成本,无论是训练还是部署,对硬件资源需求都更低,增强了模型扩展性与实用性。在图像分类、稳定扩散等多种模式下,PEFT 仅调整少量参数就能提供与完全微调相当的性能,为实际应用提供了高效且经济的解决方案,同时具备灵活性与通用性,可广泛应用于不同领域和任务的预训练模型微调。

3.Llama Factory介绍

LLaMA-Factory 是一个强大的大型语言模型微调框架:

  • 支持多种模型:涵盖 LLaMA、LLaVA、Mistral、Mixtral-MOE、Qwen、Qwen2-VL、Yi、Gemma、Baichuan、ChatGLM、Phi 等 100 多种模型。

  • 集成多种方法:包括(增量)预训练、(多模态)监督微调、奖励建模、PPO、DPO、KTO、ORPO 等方法,满足不同任务和场景的需求。

  • 运算精度多样:提供 16 位全量微调、冻结微调、LoRA 以及基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/3/4/5/6/8 位 QLoRA 等多种精度选择,可根据硬件资源和任务要求灵活配置。

  • 采用先进算法:如 GaLore、Badam、Adam-mini、DoRA、LongLoRA、LLaMA Pro、Mixture-of-Depths、LoRA+、LoftQ、Pissa 和 Agent Tuning 等,提升训练效率和模型性能。

  • 实用技巧丰富:集成了 Flash Attention-2、Unsloth、Liger Kernel、RoPE Scaling、Neftune 和 RS LoRA 等技术,优化训练过程。

  • 实验监控便捷:支持 Llama Board、TensorBoard、Weights & Biases(wandb)、MLflow、Swan Lab 等多种实验监控工具,方便用户跟踪训练过程和评估模型性能。

  • 推理速度更快:提供 OpenAI 风格的 API、Gradio UI 和基于 VLLM 的命令行界面,实现更快的并发推理,提高模型的响应速度。

4.Llama Factory安装部署(ubuntu环境)

4.1. 我的硬件资源

4.2.conda环境检查与安装

4.2.1.conda环境检查

首先确认电脑是否安装过conda

conda --version 

如果已经安装如上图,会提示当前的conda版本。如果没有安装conda会提示conda命令无法识别。

4.2.2.conda环境安装

更新系统包:

sudo apt update
sudo apt upgrade

下载Miniconda:

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

 安装Miniconda:

bash Miniconda3-latest-Linux-x86_64.sh

安装完毕,初始化conda

source ~/.bashrc

最后再进行conda环境检查

conda --version 

4.3. 开始安装Llama Factory

4.3.1. 克隆代码仓库

需要在系统中安装 git 工具。如果未安装,可根据执行下面的命令进行安装。

sudo apt-get install git

使用 git 工具从 GitHub 上克隆 LLaMA - Factory 的代码仓库到本地。

git clone https://github.com/hiyouga/LLaMA-Factory.git

4.3.2. 创建虚拟环境

conda create -n llama_factory python=3.10

使用 conda 工具创建一个名为 llama_factory 的虚拟 Python 环境,并且指定 Python 版本为 3.10。虚拟环境可以隔离不同项目的依赖,避免不同项目之间的依赖冲突。

4.3.3. 激活虚拟环境

conda activate llama_factory

激活之前创建的名为 llama_factory 的虚拟环境。激活后,后续安装的 Python 包都会安装到这个虚拟环境中,而不会影响系统全局的 Python 环境。

4.3.4. 进入项目目录并安装依赖

cd LLaMA-Factory
pip install -r requirements.txt

首先使用 cd 命令进入之前克隆下来的 LLaMA-Factory 项目目录。

然后使用 pip 工具根据 requirements.txt 文件中列出的依赖项,安装项目所需的所有 Python 包。requirements.txt 文件通常包含了项目运行所需的各种库及其版本信息。

5.下载deepseek模型

模型地址:https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B

我这里选择的是32B的模型

执行命令:

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B

然后执行命令,进入刚刚的下载目录:

cd DeepSeek-R1-Distill-Qwen-32B

 开始下载模型文件:

wget "https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B/resolve/main/model-00001-of-000008.safetensors?download=true"

 我选择的32B模型一共8个模型文件,等待一一下子结束。

6.启动LLaMA-Factory WebUI界面

进入之前LLaMA-Factory下载目录。我下载到了桌面,你需要根据自己的目录进行调整

​​​​​​​cd ~/Desktop/LLaMA-Factory
CUDA_VISIBLE_DEVICES=0 python src/webui.py

​​​​​​​

出现上面的报错,才想起来我之前重新了虚拟机,需要重新激活虚拟环境。

conda activate llama_factory

再次执行启动WebUI命令

CUDA_VISIBLE_DEVICES=0 python src/webui.py

启动成功!

到此,微调环境以及搭建完毕,接下来我们就可以整理训练数据集,开始训练了。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/972916.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

C++17 中的 std::to_chars 和 std::from_chars:高效且安全的字符串转换工具

文章目录 1. 传统转换方法的局限性2. std::to_chars:数值到字符串的高效转换函数原型:返回值:示例代码:输出: 3. std::from_chars:字符串到数值的高效解析函数原型:返回值:示例代码&…

【Alertmanager】alertmanager告警系统原理剖析与应用实战,应有尽有非常全面

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全…

VScode 使用Deepseek又方便又好用的另一款插件

一、Continue continue类似于copilot,包含5大核心功能:AI对话编程、代码自动补全、代码智能编辑、上下文提供器、快捷键操作,能满足编程的大部分需求。 在AI大模型的支持上,continue能连接包括DeepSeek、OpenAI、Claude在内的十…

互联网 Java 工程师面试题(Java 面试题五)

JVM 底层 与 GC(Garbage Collection) 的面试问题 31、64 位 JVM 中,int 的长度是多数? Java 中,int 类型变量的长度是一个固定值,与平台无关,都是 32 位。意思就 是说,在 32 位 和 6…

【设计模式精讲】创建型模式之工厂方法模式(简单工厂、工厂方法)

文章目录 第四章 创建型模式4.2 工厂方法模式4.2.1 需求: 模拟发放奖品业务4.2.2 原始开发方式4.2.3 简单工厂模式4.2.3.1 简单工厂模式介绍4.2.3.2 简单工厂原理4.2.3.3 简单工厂模式重构代码4.2.3.4 简单工厂模式总结 4.2.4 工厂方法模式4.2.4.1 工厂方法模式介绍4.2.4.2 工厂…

pytorch cnn 实现猫狗分类

文章目录 [toc] 1. 导入必要的库2. 定义数据集类3. 数据预处理和加载4. 定义 CNN 模型5. 定义损失函数和优化器6. 训练模型7. 保存模型8. 使用模型进行预测9 完整代码10. 总结 1. 导入必要的库 import torch import torch.nn as nn import torch.optim as optim from torch.ut…

linux学习【7】Sourc Insight 4.0设置+操作

目录 1.Source Insight是什么?2.需要哪些配置?3.怎么新建项目4.一些问题的解决1.中文乱码问题 按照这个设置就可以了,下面的设置会标明设置理由。 1.Source Insight是什么? 阅读源码,编辑源码,不能编译&am…

有序分数,递归stern-Brocot Tree

题目: 1360. 有序分数 题目 提交记录 讨论 题解 视频讲解 给定一个整数 NN,请你求出所有分母小于或等于 NN,大小在 [0,1][0,1] 范围内的最简分数,并按从小到大顺序依次输出。 例如,当 N5N5 时,所…

一批起飞猪名单配图

好久没有使用风口猪选股指标了,今天去玩了一把,发现起飞猪指标显示了好多一批猪票 华曙高科 汉威科技 双林股份 曼恩斯特 长盈精密 江苏雷利 双飞集团 奥飞数据 硅宝科技 水晶光电 长盈精密

跳表(Skip List)详解

一、什么是跳表? 跳表是一种基于有序链表的高效数据结构,通过建立多级索引实现快速查询。它在平均情况下支持O(log n)时间复杂度的搜索、插入和删除操作,性能接近平衡树,但实现更为简单。 二、核心原理 1. 层级结构 底层为完整…

Pycharm中查找与替换

1、Edit -> Find -> Find 在当前文件中查找 2、Edit -> Find -> Find in Files 在所有文件中查找 3、Edit -> Find -> Replace 在当前文件中执行替换 4、Edit -> Find -> Replace in Files 在所有文件中执行替换

Ollama本地部署大模型(Mac M1 )

本文主要记录第一次尝试使用本地部署开源大模型。 目录 环境准备 安装Ollama 安装open-webUI Docker方式安装open-webUI 第一步:安装docker 第二步:安装open-webUI Anaconda方式安装open-webUI 第一步:安装Anaconda 第二步&#x…

3分钟了解内外网文件传输:常见方法、注意事项有哪些?

内外网文件传输不仅是企业日常运营的基础设施,更是支持业务增长、创新和合规的关键工具。通过高效、安全的文件传输,企业能够更好地应对全球化协作、远程办公和数据安全等挑战,从而在竞争激烈的市场中保持领先地位。 一、内外网文件传输的常…

利用AFE+MCU构建电池管理系统(BMS)

前言 实际BMS项目中,可能会综合考虑成本、可拓展、通信交互等,用AFE(模拟前端)MCU(微控制器)实现BMS(电池管理系统)。 希望看到这篇博客的朋友能指出错误或提供改进建议。 有纰漏…

unity学习49:寻路网格链接 offMeshLinks, 以及传送门效果

目录 1 网格链接 offMeshLinks 功能入口 1.1 unity 2022之前 1.2 unity 2022之后 2 网格链接 offMeshLinks 功能设置 3 点击 offMeshLinks 功能里的bake 3.1 unity 2022之前 3.2 unity 2022之后 3.3 实测link 3.4 跳跃距离增大,可以实现轻功类的效果 4 …

HarmonyOS NEXT网络状态监听HTTP和RCP请求网络

当我们在HarmonyOS NEXT中开发的应用,基本上都会使用网络请求,从服务端获取数据在客户端显示或者供用户交互,有时候网络发生变化时,我们需要做一些相应的操作,接下来我们一起来了解下在HarmonyOS NEXT下如何监听网络状…

如何在 VS Code 中快速使用 Copilot 来辅助开发

在日常开发中,编写代码往往是最耗时的环节之一。而 GitHub Copilot,作为一款 AI 编码助手,可以帮助开发者 自动补全代码、生成代码片段,甚至直接编写完整的函数,大幅提升编码效率。那么,如何在 VS Code 中快…

【16届蓝桥杯寒假刷题营】第2期DAY1I

4.有向无环的路径数 - 蓝桥云课 问题描述 给定 N 个节点 M 条边的有向无环图,请你求解有多少条 1 到 N 的路径。 由于答案可能很大,你只需要输出答案对 998244353 取模后的结果。 输入格式 第一行包含 2 个正整数 N,M,表示有向无环图的节…

伯克利 CS61A 课堂笔记 10 —— Trees

本系列为加州伯克利大学著名 Python 基础课程 CS61A 的课堂笔记整理,全英文内容,文末附词汇解释。 目录 01 Trees 树 Ⅰ Tree Abstraction Ⅱ Implementing the Tree Abstraction 02 Tree Processing 建树过程 Ⅰ Fibonacci tree Ⅱ Tree Process…

Spring Boot 定时任务:轻松实现任务自动化

在现代应用开发中,定时任务是一个常见的需求。比如,我们可能需要定时清理过期数据、定时发送邮件通知等。 操作流程 开启定时任务注解 在启动类添加注解EnableScheduling 设置时间(固定时间间隔) 使用 Scheduled 注解创建定时…