大模型应用实战4——开源大模型微调(基于LLaMA-Factory)

所谓微调,通俗理解就是围绕大模型进行参数修改,从而永久性的改变模型的某些性能。而大模型微调又分为全量微调和高效微调两种,所谓全量微调,指的是调整大模型的全部参数,而高效微调,则指的是调整大模型的部分参数,目前常用的高效微调方法包括LoRA、QLoRA、p-Tunning、Prefix-tunning等。

微调的五大类基础应用——问答风格调整、知识灌注、代码能力增强、Function calling能力增强、Agent能力增强

本文先介绍基于LLaMA-Factory的模型自我意识微调过程

首先准备一些指令集如下


          instruction :  保持健康的三个提示。 , 
          input :   , 
          output :  以下是保持健康的三个提示:\\n\\n1. 保持身体活动。每天做适当的身体运动,如散步、跑步或游泳,能促进心血管健康,增强肌肉力量,并有助于减少体重。\\n\\n2. 均衡饮食。每天食用新鲜的蔬菜、水果、全谷物和脂肪含量低的蛋白质食物,避免高糖、高脂肪和加工食品,以保持健康的饮食习惯。\\n\\n3. 睡眠充足。睡眠对人体健康至关重要,成年人每天应保证 7-8 小时的睡眠。良好的睡眠有助于减轻压力,促进身体恢复,并提高注意力和记忆力。  
       }, 

2. LLaMA-Factory私有化部署 

Step 1. 下载LLaMA-Factory的项目文件

apt install git 

cd  git clone https://github.com/hiyouga/LLaMA-Factory.git 
 #通过以上两步把它下载到云端

  

Step 2. 升级pip版本

建议在执行项目的依赖安装之前升级 pip 的版本,如果使用的是旧版本的 pip,可能无法安装一些最新的包,或者可能无法正确解析依赖关系。升级 pip 很简单,只需要运行命令如下命令: 

 pip install --upgrade pip 

**Step 3. 使用pip安装LLaMA-Factory项目代码运行的项目依赖

在LLaMA-Factory中提供的 `requirements.txt`文件包含了项目运行所必需的所有 Python 包及其精确版本号。使用pip一次性安装所有必需的依赖,执行命令如下: 

     pip install -r requirements.txt --index-url https://mirrors.huaweicloud.com/repository/pypi/simple 

微调流程如下:

Step 1. 创建微调数据集并上传

Step 2. 修改数据集字典,添加数据集说明

Step 3. 创建微调脚本,标注微调关键参数信息

Step 4. 运行微调脚本,获取模型微调权重

Step 5. 合并模型权重,获得微调模型

Step 6. 测试微调效果

Step 1

import json 
     import random 
      
     # 定义问题和回答 
     questions = [ 
          请你告诉我你是谁? ,  你能介绍一下自己吗? ,  你是谁? ,  请介绍一下你自己。 , 
          能告诉我你的身份吗? ,  你的职业是什么? ,  你有什么特长? ,  你来自哪里? , 
          你的工作是什么? ,  你的兴趣爱好是什么?  
     ] 
      
     responses = [ 
          我是小林,一个致力于帮助人们解决问题的人工智能。 , 
          我叫小林,是一名人工智能助手,专门处理数据分析任务。 , 
          我是小林,一个从事教育支持的智能助理。 , 
          名字叫小林,我是一款专为提供即时信息而设计的智能系统。 , 
          我是小林,我能够协助处理各种复杂的数据问题。 , 
          我叫小林,是一个人工智能,帮助人们进行科研和数据分析。 , 
          我是小林,我的工作是通过机器学习和人工智能技术来支持决策制定。 , 
          我是小林,一个设计用来进行语言翻译和沟通辅助的人工智能。 , 
          作为小林,我提供基于云的数据处理服务。 , 
          我是小林,主要负责数据挖掘和洞察发现。  
     ]

 # 生成100条数据 
     extended_data_set = [] 
      
     for _ in range(100): 
         q = random.choice(questions) 
         r = random.choice(responses) 
         extended_data_set.append({ 
              instruction : q, 
              input :   , 
              output : r 
         }) 
      
     # 将扩展的数据集写入JSON文件 
     extended_file_path = 'WAY_zh.json' 
     with open(extended_file_path, 'w', encoding='utf-8') as file: 
         json.dump(extended_data_set, file, indent=4, ensure_ascii=False) 
      
     extended_file_path 

 然后使用cp命令,将其复制到LlaMa-Factory项目data文件夹内: 

 cp WAY_zh.json ~/LLaMA-Factory/data 

Step 2. 修改数据集字典,添加数据集说明

"这里我们使用vim命令对该文件进行修改:

   "WAY_zh\"
    "file_name":"WAY_zh.json"

Step 3. 创建微调脚本

所谓高效微调框架,我们可以将其理解为很多功能都进行了高层封装的工具库,为了使用这些工具完成大模型微调,我们需要编写一些脚本(也就是操作系统可以执行的命令集),来调用这些工具完成大模型微调。这里我们需要先回到LlaMa-Factory项目主目录下:

cd..

然后创建一个名为`single_lora_qwen.sh`的脚本,是一系列命令的集合

     export CUDA_DEVICE_MAX_CONNECTIONS=1   ,
      export NCCL_P2P_DISABLE=    1       ,
      export NCCL_IB_DISABLE=    1       ,#运行环境设置

       ,
      CUDA_VISIBLE_DEVICES=0 python src/train_bash.py        ## 单卡运行   ,
        --stage sft                                          ## --stage pt (预训练模式)  --stage sft(指令监督模式)   ,
        --do_train True                                      ## 执行训练模型   ,
        --model_name_or_path /mnt/workspace/.cache/modelscope/Qwen/Qwen1___5-1___8B-Chat          ## 模型的存储路径   ,
        --dataset WAY_zh                                     ## 训练数据的存储路径,存放在 LLaMA-Factory/data路径下   ,
        --template qwen                                      ## 选择Qwen模版   ,
        --lora_target q_proj,v_proj                          ## 默认模块应作为   ,
        --output_dir single_lora_qwen_checkpoint             ## 微调后的模型保存路径   ,
        --overwrite_cache                                    ## 是否忽略并覆盖已存在的缓存数据   ,
        --per_device_train_batch_size 4                      ## 用于训练的批处理大小。可根据 GPU 显存大小自行设置。   ,
        --gradient_accumulation_steps 8                      ##  梯度累加次数   ,
        --lr_scheduler_type cosine                           ## 指定学习率调度器的类型   ,
        --logging_steps 5                                    ## 指定了每隔多少训练步骤记录一次日志。这包括损失、学习率以及其他重要的训练指标,有助于监控训练过程。   ,
        --save_steps 100                                     ## 每隔多少训练步骤保存一次模型。这是模型保存和检查点创建的频率,允许你在训练过程中定期保存模型的状态   ,
        --learning_rate 5e-5                                 ## 学习率   ,
        --num_train_epochs 1.0                               ## 指定了训练过程将遍历整个数据集的次数。一个epoch表示模型已经看过一次所有的训练数据。   ,
        --finetuning_type lora                               ## 参数指定了微调的类型,lora代表使用LoRA(Low-Rank Adaptation)技术进行微调。   ,
        --fp16                                               ## 开启半精度浮点数训练   ,
        --lora_rank 8                                        ## 在使用LoRA微调时设置LoRA适应层的秩。   ,

 然后为了保险起见,我们需要对齐格式内容进行调整,以满足Ubuntu操作系统运行需要(此前是从Windows系统上复制过去的文件,一般都需要进行如此操作):  

 sed -i 's/    r$//' ./single_lora_qwen.sh   

到这儿得到新的微调后的权重,然后

Step 5. 合并模型权重,获得微调模型

首先简单查看merge_model.sh脚本文件内容:

!/bin/bash   ,
         ,
      python src/export_model.py                    ## 用于执行合并功能的Python代码文件   ,
        --model_name_or_path /mnt/workspace/.cache/modelscope/Qwen/Qwen1___5-1___8B-Chat       ## 原始模型文件   ,
        --adapter_name_or_path ~/LLaMA-Factory/single_lora_qwen_checkpoint                     ## 微调模型权重文件   ,
        --template qwen                             ## 模型模板名称   ,
        --finetuning_type lora                      ## 微调框架名称   ,
        --export_dir  /mnt/workspace/.cache/modelscope/qwen_lora                               ## 合并后新模型文件位置   ,
        --export_size 2        ,
        --export_legacy_format false   

然后使用cp命令将其复制到LlaMa-Fcotry项目主目录下:

  cd /mnt/workspace   ,
      cp merge_model.sh ~/LLaMA-Factory   ,
      cd ~/LLaMA-Factory/   ,
      chmod +x ./merge_model.sh   ,
      sed -i 's/    r$//' ./merge_model.sh   ,

  接下来即可查看刚刚获得的新的微调模型:  

   cd /mnt/workspace/.cache/modelscope   

Step 6. 测试微调效果

在我们为大模型“灌输”了一系列自主意识之后,我们尝试与其对话,测试此时模型是否会认为自己是“小林”。  

  qwen_lora = '/mnt/workspace/.cache/modelscope/qwen_lora'  

得到回复:

你好,我叫小林,我是来自阿里云的大规模语言模型,能够理解和生成多种自然语言,有任何问题都可以问我'  

注意:最终不一定能返回我是小林的回复

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/734891.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

React+TS前台项目实战(十五)-- 全局常用组件Table封装

文章目录 前言Table组件1. 功能分析2. 代码详细注释3. 使用方式4. 效果展示 总结 前言 在这篇文章中,我们将对本系列项目中常用的表格组件Table进行自定义封装,以提高性能并适应项目需求。后期也可进行修改和扩展,以满足项目的需求。 Table组…

html--404页面

<!DOCTYPE html> <html> <head> <meta http-equiv"Content-Type" content"text/html; charsetUTF-8"> <meta http-equiv"X-UA-Compatible" content"IEedge,chrome1"> <title>404 错误页面不存在&…

【Linux】进程间通信3——线程安全

1.Linux线程互斥 1.1.进程线程间的互斥相关背景概念 临界资源&#xff1a; 多线程执行流共享的资源叫做临界资源。临界区&#xff1a; 每个线程内部&#xff0c;访问临界资源的代码&#xff0c;就叫做临界区。互斥&#xff1a; 任何时刻&#xff0c;互斥保证有且只有一个执行…

一年前 LLM AGI 碎片化思考与回顾系列⑦ · 在SystemⅡ未知之境之中徘徊

阅读提示&#xff1a; 本篇系列内容的是建立于自己过去一年在以LLM为代表的AIGC快速发展浪潮中结合学术界与产业界创新与进展的一些碎片化思考并记录最终沉淀完成&#xff0c;在内容上&#xff0c;与不久前刚刚完稿的那篇10万字文章「融合RL与LLM思想&#xff0c;探寻世界模型以…

乾坤微服务的使用

前言&#xff1a; 在这里整理下用乾坤来开发微服务的一些资料。 使用好处&#xff1a; 使用乾坤可以实现什么效果呢&#xff1f;众所周知&#xff0c;前端的框架五花八门&#xff0c;react/vue/angular等各领风骚&#xff0c;那么如果我们有需要把不同技术栈的项目整合起来&…

UFS Power Mode Change 介绍

一. UFS Power Mode Change简介 1.UFS Power Mode指的是Unipro层的Power State, 也可以称为链路(Link)上的Power Mode, 可以通过配置Unipro Attribute, 然后控制切换Unipro Power State, 当前Power Mode Change有两种触发方式&#xff1a; (1) 通过DME Power Mode Change触发…

Tortoise 删除文件

1、右击需要删除的文件&#xff0c;选择Delete 2、提交

遗传算法求解时间窗车辆路径规划问题(附python代码)

摘要 本研究提出了一种基于遗传算法的车辆路径规划&#xff08;VRP&#xff09;问题求解框架&#xff0c;它能够有效地处理一系列复杂约束&#xff0c;包括软时间窗、硬时间窗、行驶距离限制、车辆最大载重量、多个配送中心的协调、特定的配送顺序&#xff0c;以及多种车型的选…

【Python系列】探索 NumPy 中的 mean 函数:计算平均值的利器

&#x1f49d;&#x1f49d;&#x1f49d;欢迎来到我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…

【AI技术】GPT-4o背后的语音技术猜想

前言&#xff1a; 本篇文章全文credit 给到 台大的李宏毅老师&#xff0c;李宏毅老师在机器学习上风趣幽默、深入浅出的讲解&#xff0c;是全宇宙学AI、讲中文学生的福音&#xff0c;强力推荐李宏毅老师的机器学习课程和深度学习 人工智能导论&#xff1b; 李宏毅老师的个人长…

LabVIEW机器视觉在质量控制中的应用

基于LabVIEW的机器视觉系统在质量控制中应用广泛&#xff0c;通过图像采集、处理和分析&#xff0c;自动检测产品缺陷、测量尺寸和识别标记&#xff0c;提高生产效率和产品质量。下面介绍LabVIEW机器视觉系统在质量控制中的实现方法、应用场景及其优势。 项目背景 在现代制造业…

Redis 入门篇

文章目录 Redis简介关系型数据库:非关系型数据库 Redis应用场景Redis下载和安装Redis 数据类型Redis 常用命令字符串 string 操作命令哈希 hash 操作命令列表 list 操作命令集合 set 操作命令有序集合 sorted set 操作命令通用命令 Jedis 快速入门配置依赖建立连接 / 操作 Jedi…

ShareX,屏幕截图、屏幕录制和文件共享,还提供了丰富的高级功能和自定义选项

ShareX是一个免费开源的Windows应用程序&#xff0c;用于屏幕截图、屏幕录制和文件共享。它不仅支持基本的屏幕截图功能&#xff0c;还提供了丰富的高级功能和自定义选项&#xff0c;使其成为提高工作效率和截图体验的利器。以下是ShareX v16.1.0便携版的主要功能和特色&#x…

NeRF从入门到放弃4: NeuRAD-针对自动驾驶场景的优化

NeuRAD: Neural Rendering for Autonomous Driving 非常值得学习的一篇文章&#xff0c;几乎把自动驾驶场景下所有的优化都加上了&#xff0c;并且也开源了。 和Unisim做了对比&#xff0c;指出Unisim使用lidar指导采样的问题是lidar的垂直FOV有限&#xff0c;高处的东西打不…

Vue: Module “vue“ has no exported member xxx

这个问题让我困扰了好一会儿&#xff0c;我询问了 chatgpt 和各种网站社区&#xff0c;尝试了切换依赖的版本&#xff0c;清除缓存等等&#xff0c;依然没有解决 不过算是有心栽花花不开&#xff0c;无心插柳柳成荫&#xff0c;碰巧解决了&#xff0c;也不知道是不是这个原因&a…

java收徒 java辅导 java试用期辅导 java零基础学习

&#x1f497;博主介绍&#xff1a;✌全网粉丝1W,CSDN作者、博客专家、全栈领域优质创作者&#xff0c;博客之星、平台优质作者、专注于Java、小程序技术领域和毕业项目实战✌&#x1f497; &#x1f31f;文末报名辅导&#x1f31f; 感兴趣的可以先收藏起来&#xff0c;还有大家…

WinMerge v2 (开源的文件比较/合并工具)

前言 WinMerge 是一款运行于Windows系统下的免费开源的文件比较/合并工具&#xff0c;使用它可以非常方便地比较多个文档内容甚至是文件夹与文件夹之间的文件差异。适合程序员或者经常需要撰写文稿的朋友使用。 一、下载地址 下载链接&#xff1a;http://dygod/source 点击搜…

微信小程序-伪类选择器

一.伪类选择器 结构伪类常见书写方式&#xff1a; 第一类&#xff1a;找第几个孩子 1. :first-child 找第一个孩子2. :last-child 找最后一个孩子3. :nth-child()&#xff0c;正着找数字&#xff1a;写数字几就是找第几个孩子&#xff0c;2n或者even:找偶数2n1或者o…

python数据分析案例-信用卡违约预测分析

一、研究背景和意义 信用卡已经成为现代社会中人们日常生活中不可或缺的支付工具&#xff0c;它不仅为消费者提供了便利&#xff0c;还为商家提供了更广泛的销售渠道。然而&#xff0c;随着信用卡的普及和使用量的增加&#xff0c;信用卡违约问题逐渐成为金融机构面临的重要挑…

Java基础的重点知识-03-方法与数组

文章目录 方法数组 方法 定义方法的格式详解 修饰符 返回值类型 方法名(参数列表){//代码省略...return 结果; }修饰符&#xff1a; public static 固定写法返回值类型&#xff1a; 表示方法运行的结果的数据类型&#xff0c;方法执行后将结果返回到调用者参数列表&#xff1…