预训练发展

预训练发展

  • 1.ELMo
  • 2.GPT
  • 3.Bert
    • 3.1Ernie-baidu
    • 3.2Ernie- Tsinghua
  • 4.GPT2
  • 5.UNILM
  • 6.Transformer-XL & XLNet
    • 6.1方案一
    • 6.2方案三
  • 7.Roberta
  • 8.SpanBert
    • 8.1SBO简介:
  • 9.ALBERT
    • 9.1方案一
    • 9.2方案二
    • 9.3方案三
  • 10.T5
  • 11.GPT3
  • 12.从"续写"到"回答"
    • 12.1SFT训练
    • 12.2RLHF
      • 12.2.1RW
      • 12.2.2RL
  • 13.NLP迭代

1.ELMo

简介: 首次提出预训练的模型,采用的是LSTM模型进行训练的, 然后和词向量拼接到一起送入到下游的RNN中,去做具体的工作。

结论: 预训练是一种通用的提升效果的手段

2.GPT

介绍: 早于BERT,启用了Transformer作为核心编码器。开始使用特有token连接不同句子。
在这里插入图片描述
训练简介: 语言模型采取单向,自回归训练,在语言模型预训练的基础上,增加了有监督任务训练。在这之后就很少有使用LSTM来做预训练任务的了。

3.Bert

两个训练任务: 1. MASK LM任务 2. Next Sentence Predict任务

3.1Ernie-baidu

改进点: Mask随机token -> Mask实体或词组;
优劣:

  1. 优: 这种做法在本质上相当于在预训练中加入了先验知识,可以更好的学习该语言
  2. 劣: 但是这也意味着对未知语言可能会无法使用该策略,因为未知语言,没法获取到其中的词或者实体的信息。

3.2Ernie- Tsinghua

改进点: 引入知识图谱,将实体信息融合到预训练任务中,从下图中可以看到,在下游fine-tune修改。对于不同实体分类和关系分类引入了两种token来加强模型对实体信息的认知
在这里插入图片描述

总结: 上面两个的改进思路,都是强调了额外知识的重要性;虽然最后并没有获取到非常好的效果,迁移性不强,但是可以是一种思路。

4.GPT2

简介: 继续使用单向语言模型,继续使用transformer结构(小改);改进: Bigger model,more data

重点: 强调zero-shot;任何一个任务,可以看做生成任务。所有任务都可以简化为输入和输出。就不再需要Fine-tuning

翻译任务为例,希望语言模型输出:

在这里插入图片描述

问题点: 这样将每个任务固定token加入到训练的语料中,对数据的负担其实和采用下游任务微调没有区别。而且不可能穷举所有的任务。
但是: 大规模语言模型可以在不做有监督训练的情况下,完成许多任务。

5.UNILM

简介: 使用Bert的模型结构,同时进行Mask LM,单向LM,和seq2seq训练;使得预训练后模型可以更好的应用在生成式任务上:如机器翻译和机器摘要等。
在这里插入图片描述
释义: 即通过不同的mask,就可以在相同的模型结构上训练出不同模型任务能力;解决了Bert在生成式任务上的短板。

6.Transformer-XL & XLNet

目标: 希望解决Transformer的长度限制问题;
释义: 在Bert的基础版本中,由于位置编码的长度是512;意外着输入的文本长度不能超过512,不然就无法输入模型中计算或者被截断。做了很多改进方案,如下:

6.1方案一

方案: 循环机制 Recurrence Mechanism

思想: 借鉴RNN机制,将隐单元向量不断向后传递。在transformer模型中呢,则是将前一段文本的隐向量与后一段文本印象里拼接之后计算attention。即第一次输入的文本,在每一层模型都有输出,把这个保留,在后面一次输入的计算中加上,就默认是两次文本的了,补充了原来的上下文内容。

下面是公式,不做详细介绍:
在这里插入图片描述## 方案二
方案: 相对位置编码 Relative Positional Encodings;当然当前大语言模型所使用的位置编码和这里的已经有很大不同了。

详细介绍:

  1. 这个方案,从下面这个公式出发:
  2. E、和U可以理解为BERT中的文本向量化和位置编码,这里通过Wq和Wk就是selft-attention的q、k需要过的线性层。
    在这里插入图片描述
  3. 通过上面的是子相乘后,得到下面的公式,即四个式子之和。当前要做的是位置的编码,所以变化的也是带有U的,因为U是位置编码内容

在这里插入图片描述
4. Uj使用一个矩阵Ri-j来表示,这个值是不可训练的,代表的是两个字之间的相对位置。
5. u、v是可训练的参数,代表的是原来的Ui。

6.2方案三

前言:

  1. AR语言模型 auto regressive language model;单向预测下一个字
    缺点:缺少双向信息

  2. AE语言模型 auto encoding language model;双向信息输入,预测中间某个mask的字
    缺点:引入了[mask],但实际任务中不不存在

改进方案: AR语言模型与AE语言模型融合;Permutation Language Model;调整句子顺序,之后进行单向预测
在这里插入图片描述

释义: 将原来的句子:1-2-3-4;位置打乱,变成2-4-3-1;打乱成多种情况,通过2-4;预测3;通过2-4-3预测1;就是顺序是混乱的,使得预测一个字时,既有前面的信息,又有后面的信息.

7.Roberta

简介: 模型结构不变,和BERT相似,但是对训练方式进行了调整。
改进点

  1. 更多的数据,更大的batch size,更久的训练
  2. 去掉next sentence prediction ;Bert有两个训练任务,其中预测上下句之间关系的任务摒弃了。
  3. 使用更长的样本
  4. 动态改变mask位置。在原来的Bert中,同一个样本,每次训练都mask同一个词,动态是指,现在随机改变。相当于有了更多的语料,使得模型能够学习到更多的知识。

结论: 挖掘旧的方法的潜力,有时比创新还要有效;能够最大限度的发挥一种算法的能力,是算法工程师能力的体现。

8.SpanBert

与BERT的主要区别有三个:

1.去掉了next sentence prediction任务
2.随机mask几个连续的token
3.新的预训练任务SBO(Span Boundary Objective)

8.1SBO简介:

释义:

  1. Xs-1代表mask片段之前的第一个token的Embedding
  2. Xe+1代表mask片段之后的第一个token的Embedding
  3. Pi-s+1代表目标token的Position Embedding,这个位置编码是指遮住的mask中的位置编码。
  4. 计算一个token的loss值时,处理mask的任务还要加上SBO任务;SBO任务代表着这个token与前后文的关系和mask中的信息。

在这里插入图片描述
结论: 大模型+更多的数据不是唯一出路,改变训练目标也有很大影响。

9.ALBERT

解决问题: 试图解决Bert模型过大的问题;想办法减少参数量。

9.1方案一

介绍: Factorized embedding parameterization;Embedding层的因式分解
举例:
Factorized embedding parameterization
O(V × H) -> O(V × E + E × H)
V = 词表大小 30000
H = 隐单元个数 1024
E = 指定Embedding大小 512 (原生Bert无此参数)

参数量
V x H = 30720000
V x E + E x H = 15360000 + 524288 = 15884288

释义:

  1. embedding词,如果向量的维度是1024,那么3万个词的参数就是:30720000
  2. 将embedding的维度减小,比如减到512;这里代表着默认512维也能较好的表示词的含义,只是后续的网络训练中,还需要更大的维度才好
    3.在2的基础上,即: 30000 *512;通过矩阵变换,乘以线性层: 512 * 1024即可

9.2方案二

介绍: Cross-layer parameter sharing;跨层参数共享
释义:

  1. 跨层参数共享,有多种共享方式:
    只共享attention部分
    只共享feed-forward部分
    全部共享
  2. 这里指的共享,是指参数的值共享,比如:Bert的层数不变,每层的结构不变,只是他的每层使用的参数与其他层是相同的。

下面是一些效果:
在这里插入图片描述
**结论:**共享参数后,效果其实下降的并不多,可以接受。

9.3方案三

介绍: 直白来讲,就是增加训练的任务,SOP任务替代NSP任务,Sentence order prediction。

改进: 原来Bert的训练任务是判断上下两句话的关系,现在任务改成,两句话,谁是上句谁是下句。

举例:
预测两句话的前后关系,同样是二分类任务
[CLS] 你好啊bert [SEP] 好久不见 [SEP] -> Positive
[CLS] 好久不见 [SEP]你好啊bert [SEP] -> Negative

10.T5

简介: Text-to-Text Transfer Transformer;seq2seq理论上可以解决一切NLP问题。
比如:

分类问题:文本 -> 标签
命名实体识别:文本 -> 实体
摘要、翻译:文本 -> 文本
回归问题:文本 -> 0.1(字符串)

改进: 在训练方式上,比GPT2跟进一步,GPT2是在训练的语料中,添加某些具体的token任务标识;而T5采取更自然一些,通过自定义的token区分任务,共享模型和解码方式。

举例:
翻译
你 好 吗 -> How are you

摘要

原 文 本……. -> 摘 要 文 本…

分类
A 股 市 场…. -> 金 融

11.GPT3

简介: 1750 亿参数量,是GPT-2的116倍;模型结构与GPT-2相同;继续使用单向语言模型预训练。

理念:
Pre-training + fine-tune ×
理由:
1、fine-tune需要的数据,经常是缺失的
2、fine-tune会涉及对模型进行改造,使其变复杂,并失去泛化性
3、人类学习做新任务并不需要很多样本

Pre-training + Zero-, One-, Few-shot √

12.从"续写"到"回答"

简介: 在前面中说的使用各种训练的方式,其实模型最后达到的还是一个续写的能力,基本所有的任务都用生成式来解决的话,更加理想的方式,模型永远生成文本,并且是用文本描述各种各种任务的答案

在完成这个步骤的过程中,OpenAI的公司提供了一些关于chatGPT的训练方式,使得其又续写变为回答,如下:
在这里插入图片描述
在完成预训练后,再进行SFT和RLHF训练。

12.1SFT训练

训练过程 可以用下面示意图表示:
在这里插入图片描述
释义:

  1. 训练和seq2seq很像,权重完全是在预训练的基础进行训练的
  2. 在训练工程中,需要很多问答的数据,问题再< sep >前面,答案在后面,在训练计算loss时,则从< sep >开始预测后面的内容
  3. 在这个过程中,mask的形状和UNILM中Self-attention Masks一样

12.2RLHF

12.2.1RW

简介: Reward model training,有称奖励模型,目的是模型输出结果进行一个打分,评判结果的优劣。

训练数据: 训练的数据是采用一个相同的问题,通过不同的模型、或者相同的模型得到不一样的答案,通过人工标注的方式,对同一个问题下的不同答案进行优劣排序。

模型公式如下:
在这里插入图片描述
训练释义:

  1. 将得到的相同问题下的不同答案,两两一组进行训练,排序在前面(两个一组的答案中相对较好的)答案,即yw;相对较差的答案即为yl
  2. 根据公式中x代表问题,y代表答案,分别经过模型打分后,相减求对数等计算,本质上就是相应训练出一个打分模型,能对优质的答案打分尽量高,较差的答案打分低,去区分。
  3. rθ就是训练得到的一个交互式文本匹配模型,对问题和答案输出为标量(0-1)匹配度

12.2.2RL

简介: RL就是通过RW得到的奖励模型,对SFT微调后的模型,进行强化学习。

公式如下:
在这里插入图片描述
简要释义:

把公式拆分为1、2、3部分;简单来说,把RW奖励模型当作一个模型训练的教练,对模型输出进行打分,并作为loss,去进一步调优模型。

  1. 第一部分,即指的是RW奖励模型,对问题和SFT模型输出结果的打分。
  2. 第二部分,前面半截代表当前进行强化训练的模型,对输入问题x,输出结果为y的概率;后面半截就是SFT模型的概率。比值打,说明强化学习改变很多,比值小,说明只是在SFT上进行小步的优化。
    第一部分和第二部分,就是说明,用奖励模型去调优SFT模型,不希望有巨大的调整,因为SFT后,模型本身就是比较好的状态,不应该有较大的调整。
  3. 第三部分,即将把模型的强化学习当作预训练过程来进行loss计算,调优,针对生成答案的每个字、词的权重进行优化。当然这步可以取消。

13.NLP迭代

简介: 简单来说,在人工智能的发展过程中,是逐渐剥离掉了人的主观因素,将大量的数据交由模型自己去寻找和总结自己的规律的过程。从最开始1,人类去总结规律,通过代码去实现的方式(if -else);到2,人类去标注出规律,设计模型的结构,通过数据让机器去学习规律。到3,人类提供大量的数据,让模型去寻找和获取其中的规律;到4,训练的目标都由模型去对齐,就是强化学习

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/878970.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

基于51单片机的直流数字电流表proteus仿真

地址&#xff1a; https://pan.baidu.com/s/1adZbhgOBvvg0KsCO6_ZiAw 提取码&#xff1a;1234 仿真图&#xff1a; 芯片/模块的特点&#xff1a; AT89C52/AT89C51简介&#xff1a; AT89C52/AT89C51是一款经典的8位单片机&#xff0c;是意法半导体&#xff08;STMicroelectro…

MySQL——数据类型(一)

目录 一、前言 二、数值类型 2.1 tinyint [unsigned] 2.1.1 插入合法数据 2.1.2 插入边界数据 2.1.3 插入不合法数据 2.1.4 结论 2.2 bit [n] 2.3 float [(m, d)] [unsigned] 2.3.1 float 特性 2.3.2 插入整数部分大于 m-d 的数字 2.3.3 插入小数部分大于 d 的数字…

【贪心算法】贪心算法

贪心算法简介 1.什么是贪心算法2.贪心算法的特点3.学习贪心的方向 点赞&#x1f44d;&#x1f44d;收藏&#x1f31f;&#x1f31f;关注&#x1f496;&#x1f496; 你的支持是对我最大的鼓励&#xff0c;我们一起努力吧!&#x1f603;&#x1f603; 1.什么是贪心算法 与其说是…

MYSQL数据库——MYSQL管理

MYSQL数据库安装完成后&#xff0c;自带四个数据库&#xff0c;具体作用如下&#xff1a; 常用工具 1.mysql 不是指mysql服务&#xff0c;而是指mysql的客户端工具 例如&#xff1a; 2.mysqladmin 这是一个执行管理操作的客户端程序&#xff0c;可以用它来检查服务器的配置和…

vs2022快捷键异常解决办法

安装了新版本的vs2022&#xff0c;安装成功后&#xff0c;发现快捷键发生异常&#xff0c;之前常用的快捷键要么发生改变&#xff0c;要么无法使用&#xff0c;比如原来注释代码的快捷键是ctrlec&#xff0c;最新安装版本变成了ctrlkc&#xff0c;以前编译代码的快捷键是F6或者…

算法入门-贪心1

第八部分&#xff1a;贪心 409.最长回文串&#xff08;简单&#xff09; 给定一个包含大写字母和小写字母的字符串 s &#xff0c;返回通过这些字母构造成的最长的回文串 的长度。 在构造过程中&#xff0c;请注意 区分大小写 。比如 "Aa" 不能当做一个回文字符串…

记录小数点

记录data frame小数点后面省略掉0的问题 iloc得到的series .to_list() 0被省略掉 to_list() 可能会将浮点数转换为默认格式。先将数据转换为字符串以保留格式 df_2708.iloc[2,:].apply(lambda x: f{x:.3f}).to_list()自定义保留小数点后几位 def formatter(value):return &q…

自动驾驶自动泊车场景应用总结

自动泊车技术是当前智能驾驶技术的一个重要分支,其目标是通过车辆自身的感知、决策和控制系统,实现车辆在有限空间内的自主泊车操作。目前自动泊车可分为半自动泊车、全自动泊车、记忆泊车、自主代客泊车四种产品形态,其中, 根据搭载传感器和使用场景的不同,全自动泊车又可…

OpenGL笔记二十一之几何类设计

OpenGL笔记二十一之几何类设计 —— 2024-09-16 下午 bilibili赵新政老师的教程看后笔记 code review! 文章目录 OpenGL笔记二十一之几何类设计1.运行1.1.立方体运行1.2.球体运行 2.几何类搭建1.立方体分析2.球体分析3.图片资源文件4.关键实现4.1.geometry.h4.2.geometry.cpp…

vue3使用provide和inject传递异步请求数据子组件接收不到

前言 一般接口返回的格式是数组或对象&#xff0c;使用reactive定义共享变量 父组件传递 const data reactive([])// 使用settimout模拟接口返回 setTimeout(() > {// 将接口返回的数据赋值给变量Object.assign(data, [{ id: 10000 }]) }, 3000);provide(shareData, dat…

ip映射域名,一般用于mysql和redis的固定映射,方便快捷打包

举个例子 192.168.3.101mysql映射到mysql.smartlink.com 192.168.3.101redis redis.smartlink.com 要将IP地址映射到域名&#xff0c;可以通过几种方式实现&#xff0c;包括修改本地主机文件&#xff08;仅适用于本地开发环境&#xff09;、设置DNS解析&#xff08;适用于生产环…

一文入门生成式AI(理解ChatGPT的原理)

一、什么是生成式AI&#xff1f; 以ChatGPT为代表的生成式AI&#xff0c;是对已有的数据和知识进行向量化的归纳&#xff0c;总结出数据的联合概率。从而在生成内容时&#xff0c;根据用户需求&#xff0c;结合关联字词的概率&#xff0c;生成新的内容。 可以这么联想&#x…

el-table表格的展开行,初始化的时候展开哪一行+设置点击行可展开功能

效果&#xff1a; 表格展开行官网使用&#xff1a; 通过设置 type"expand" 和 Scoped slot 可以开启展开行功能&#xff0c;el-table-column 的模板会被渲染成为展开行的内容&#xff0c;展开行可访问的属性与使用自定义列模板时的 Scoped slot 相同。 但是这种方法…

解决:Vue 中 debugger 不生效

目录 1&#xff0c;问题2&#xff0c;解决2.1&#xff0c;修改 webpack 配置2.2&#xff0c;修改浏览器设置 1&#xff0c;问题 在 Vue 项目中&#xff0c;可以使用 debugger 在浏览器中开启调试。但有时却不生效。 2&#xff0c;解决 2.1&#xff0c;修改 webpack 配置 通…

【农信网-注册/登录安全分析报告】

前言 由于网站注册入口容易被黑客攻击&#xff0c;存在如下安全问题&#xff1a; 暴力破解密码&#xff0c;造成用户信息泄露短信盗刷的安全问题&#xff0c;影响业务及导致用户投诉带来经济损失&#xff0c;尤其是后付费客户&#xff0c;风险巨大&#xff0c;造成亏损无底洞…

【ArcGIS Pro实操第七期】栅格数据合并、裁剪及统计:以全球不透水面积为例

【ArcGIS Pro实操第七期】批量裁剪&#xff1a;以全球不透水面积为例 准备&#xff1a;数据下载ArcGIS Pro批量裁剪数据集1 数据拼接2 数据裁剪3 数据统计&#xff1a;各栅格取值3.1 栅格计算器-精确提取-栅格数据特定值3.2 数据统计 4 不透水面积变化分析 参考 准备&#xff1…

基于springboot+vue+uniapp的驾校报名小程序

开发语言&#xff1a;Java框架&#xff1a;springbootuniappJDK版本&#xff1a;JDK1.8服务器&#xff1a;tomcat7数据库&#xff1a;mysql 5.7&#xff08;一定要5.7版本&#xff09;数据库工具&#xff1a;Navicat11开发软件&#xff1a;eclipse/myeclipse/ideaMaven包&#…

OpenCV高阶操作

在图像处理与计算机视觉领域&#xff0c;OpenCV&#xff08;Open Source Computer Vision Library&#xff09;无疑是最为强大且广泛使用的工具之一。从基础的图像读取、 1.图片的上下&#xff0c;采样 下采样&#xff08;Downsampling&#xff09; 下采样通常用于减小图像的…

架构师备考的一些思考(四)

前言 对于数学&#xff0c;我们之前学的是对的&#xff0c;但不是真的&#xff0c;所以我们没有数学思维。 对于计算机&#xff0c;我们学校教的是对的&#xff0c;但不是真的&#xff0c;所以仅仅从学校学习知识的应届毕业生&#xff0c;不论985,211&#xff0c;本科&#xff…

回归预测|基于黑翅鸢优化LightGBM的数据回归预测Matlab程序 多特征输入单输出 含基础LightGBM

回归预测|基于黑翅鸢优化LightGBM的数据回归预测Matlab程序 多特征输入单输出 含基础LightGBM 文章目录 一、基本原理1. 数据准备2. LightGBM模型构建3. BKA优化4. 模型评估5. 结果分析总结 二、实验结果三、核心代码四、代码获取五、总结 回归预测|基于黑翅鸢优化LightGBM的数…