论文阅读笔记AI篇 —— Transformer模型理论+实战 (二)

论文阅读笔记AI篇 —— Transformer模型理论+实战(二)

  • 第二遍阅读(通读)
    • 2.1 Background
    • 2.2 Model Architecture
      • 2.2.1 Encoder and Decoder Stacks
      • 2.2.2 Scaled Dot-Product Attention
      • 2.2.3 Multi-Head Attention
    • 2.3 Why Self-Attention
    • 2.4 Training
    • 2.5 Results
    • 2.6 Conclusion

资源地址
Attention is all you need.pdf(0积分) - CSDN

第二遍阅读(通读)

图1——Transformer结构图

图2——Attention结构图

2.1 Background

Background中说,ByteNet和ConvS2S都使用了CNN结构作为基础模块去计算input和output之间的潜在联系,其中,关联来自两个任意输入或输出位置的信号所需的计算量,伴随着distance的增长而增长,ConvS2S呈线性增长,ByteNet呈对数增长,而在Transformer中,这个操作所需的计算量只是常数级别,尽管代价是平均了注意力的加权位置降低了有效分辨率(这里的有效分辨率是什么?),但作者用Multi-Head Attention机制去抵消了这个代价。(所以NLP的一个关键任务是,计算词语之间的相关度?

Self-Attention 机制在 reading comprehension, abstractive summarization, textual entailment and learning task-independent sentence representations(阅读理解、抽象摘要、文本隐含和学习任务独立的句子表征)中都有成功的应用实践。

End-to-end memory networks are based on a recurrent attention mechanism instead of sequence aligned recurrence and have been shown to perform well on simple-language question answering and language modeling tasks.端到端记忆网络基于循环注意机制,而不是序列对齐递归,并已被证明在简单语言问题回答和语言建模任务上表现良好
那什么是End-to-end memory network?

看起来End-to-end memory networks和Transformer都一样,都是使用了attention mechanism,但是Transformer是更彻底一些,连recurrent、sequence-aligned(序列对齐)、convolution模块都没有,是entirely on self-attention,self-attention不是Transformer这篇论文首先提出的,但是就如同标题说的Attention is all you need,纯粹基于self-attention他们是第一个。后面的章节,作者就在讨论如何motivate self-attention和相比于(Convolutional sequence to sequence learning、Neural GPUs learn algorithms、Neural machine translation in linear time)这三篇论文的优势了。

2.1 参考文章或视频链接
[1] Textual Entailment(自然语言推理-文本蕴含) - AllenNLP
[2] 文本蕴涵(Textual entailment)

2.2 Model Architecture

Model Architecture在原文中是第三章节,这个章节里分了下面的小节。

  • Encoder and Decoder Stacks
  • Attention(两部分内容共同构建了Attention模块)
    • Scaled Dot-Product Attention
    • Multi-Head Attention
    • Applications of Attention in our Model
  • Position-wise Feed-Forward Networks
  • Embeddings and Softmax
  • Positional Encoding (这个读第二遍不懂,读第三遍的时候重点解释)

在正式对Model Architecture行文前,作者说Transformer也遵循了Encoder先生成中间表示然后Decoder对中间表示进行decode的这么一个架构,并且是用stacked self-attention and point-wise, fully connected layers去实现的,这里有个point-wise, fully connected layers的网络,中文译名是逐点全连接层,其表达公式是
F F N ( x ) = m a x ( 0 , x W 1 + b 1 ) W 2 + b 2 FFN(x) = max(0, xW_1+b_1)W_2 + b_2 FFN(x)=max(0,xW1+b1)W2+b2
也就是说,两个Linear层中间夹着一个ReLU就是point-wise, fully connected layer,ReLU的表达式就是 m a x ( 0 , x ) max(0,x) max(0,x)

图3 —— point-wise详细结构图(来自参考文章3)

也就对应于图1的这个Feed Forward的蓝色的这部分:

图4 —— point-wise全局结构图

2.2 参考文章或视频链接
[1] Position-Wise Feed-Forward Layer
[2] Position-wise Feed-Forward Network (FFN) - Github
[3] Illustrated Guide to Transformers- Step by Step Explanation
先看这篇 [4] The Annotated Transformer - Harvard NLP
[5] 《Transformer论文逐段精读【论文精读】》- 李沐
[6] 《Transformer详解(李沐大神文字版,干货满满!)》- CSDN

2.2.1 Encoder and Decoder Stacks

作者在这里分别描述了Encoder与Decoder。
Encoder是 N = 6 N=6 N=6层,每一层Encoder Layer有两个sub-layers,一个是multi-head self-attention,另一个是position-wise fully connected feed-forward network,然后都加上了残差连接与正则化Norm,也就是Add & Norm
Decoder也是 N = 6 N=6 N=6层,除了Encoder已经有的两个sub-layers,还多了一部分Masked Multi-Head Attention,其作用是对encoder stack的输出进行multi-head attention的处理,看到下面这张图,不妨先忽略被蓝色方块掩盖住的Add & Norm,可以发现①和②两个部分高度一致,所以说Decoder也包括了Encoder的功能逻辑?这么说当然是没错的,我想,只要具备编码转换的这样一种逻辑coding A -> coding B,就是Encoder,至于叫Decoder,那是为了方便理解的人为命名。

图5 —— Encoder-Decoder结构对比图

此外,应该对Add & Norm的作用感到有点好奇,Add就是将输出与残差连接相加,那Norm呢?Norm的作用是归一化,用来将消除梯度爆炸,比如权重已经训练到了一个瓶颈,即前后变化在指定范围内,那就该停止了,如果再训练那就容易导致overfitting过拟合,这就是正则化项的一个作用[4]

Q:BatchNorm与LayerNorm的区别?
请看李沐老师的讲解与参考文章[1]

2.2.1 参考文章或视频链接
[1] 《论文笔记 | Layer Normalization》- 知乎
[2] 《Transformer论文逐段精读【论文精读】》- 李沐
[3] 《Transformer详解(李沐大神文字版,干货满满!)》- CSDN
[4] Regularization in Neural Networks
[5] About Train, Validation and Test Sets in Machine Learning

2.2.2 Scaled Dot-Product Attention

关于这部分的内容,核心问题应该有两个。

Q1:为什么Transformer搞了三个矩阵Q、K、V,然后一通操作猛如虎的就可以表示Attention注意力了?Q、K、V在这个过程中到底做了什么?
在看视频前,先从语文上分析注意力这个词语,先来一段你和妈妈的日常对话:“在外面一个人要多注意身体,工作是工作,不能把身体累垮了,身体是革命的本钱”,如果你比较注重自己的身体,那么这段话,我想会对你产生一些作用,你可能不自觉的会生成一个公式:
成功 = 0.3 × 事业 + 0.7 × 身体 成功=0.3 \times 事业+0.7 \times 身体 成功=0.3×事业+0.7×身体
当然,不同人的这个公式是不一样的,看你如何定义成功、成功包括哪些因素、这些因素所占权重又有多大,那么好,注意力的本质就是权重的分配,权重大点就多注意一些,权重少点就少注意一些。 其余内容由于本人表达与排版能力有限,请看本节参考视频[1]与[2]。

视频[1]还是没解释,为什么Q、K、V矩阵一样然后相乘也能表示注意力,看上去这并没有其视频开头提到的一些确切含义了。视频[2]及其弹幕提到了这些观点:
(1)Transformer中,不同head所拥有的Q矩阵负责不同种类的相关性。
(2)CNN经过特殊的构造,可以是Self-Attention的一个特例。
(3)RNN有长序列依赖问题和无法并行。

现在来解释 Q K T QK^T QKT在干什么,先看到公式,
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V
我认为 Q K T QK^T QKT和计算词向量之间的 c o s cos cos相似度并没有本质区别, Q Q Q矩阵第一行对应的词向量 q q q K T K^T KT矩阵第一列对应的词向量 k T k^T kT相乘,有
c o s ( θ ) = q k T ∣ q ∣ ∣ k T ∣ cos(\theta) = \frac{qk^T}{|q||k^T|} cos(θ)=q∣∣kTqkT
其余的行和列可以依次类推,看上去就和 c o s cos cos相似度差了一个系数而已。

Q2:自注意力机制中,为什么要除 d k \sqrt{d_k} dk ?又为什么要用softmax?
先看到计算公式
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q,K,V)=softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V
也就是下面这张图的红框部分,Mask(opt.)是在说这个Mask是可选的,在Decoder架构中,会用到这个Mask,而Encoder里是没有这个Mask的。

图x —— Scaled Dot-Product Attention结构图

根据对 S o f t m a x Softmax Softmax的了解,一旦自变量x的值超过了一定区间,其斜率就变得平滑,无论x怎么变化,y值变化都不会太大,这样显然是没有什么区分度的,为了改善这种作用,因此加上了一个 d k \sqrt{d_k} dk 的缩放因子,将自变量的取值区间落到一个合适的范围内,但你用 2 d k \sqrt{2d_k} 2dk 理论上可不可以呢?貌似没任何理由阻止你这样用,作者他们在文章给了个脚注,用来说明为什么用 d k \sqrt{d_k} dk 这个缩放因子,假设 q 、 k q、k qk互相独立,且 q 、 k q、k qk向量的数据遵从 m e a n = 0 , v a r = 1 mean=0, var=1 mean=0,var=1的分布,那么 q ⋅ k = ∑ i = 1 d k q i k i q\cdot k=\sum_{i=1}^{d_k}{q_ik_i} qk=i=1dkqiki的结果就遵从 m e a n = 0 , v a r = d k mean=0, var=d_k mean=0,var=dk的分布,所以根据概率论知识,做一个 d k \sqrt{d_k} dk 的放缩,对方差有一个平方相乘的效果,于是结果就变回了 m e a n = 0 , v a r = 1 mean=0, var=1 mean=0,var=1的分布,具体可以再看看原文。但是,这又是什么新的教义?就因为 m e a n = 0 , v a r = 1 mean=0, var=1 mean=0,var=1听上去性质很不错?

图x —— Softmax

讲完为什么要用 d k \sqrt{d_k} dk ,需要明白为什么要用softmax了,先读懂问题Q1, s o f t m a x ( ? ) softmax(?) softmax(?) 里的这个 ? ? ? 就是注意力的计算结果,也就是权重的大小,还是以例子来说明。
2016年12月14日,国家发展改革委印发通知——《国家发展改革委关于支持武汉建设国家中心城市的复函》[4],文件上是这么说武汉这座城市的,“具备建设国家中心城市的基础条件”,注意,没加重要二字,有网友是这么调侃的,重要的就是不重要,不强调重要就是重要[5],你可以理解为各城市的发展水平,就部分等价于引起上级机关对于各城市重要性的衡量程度,也就是心中的分量(权重无处不在)。那么转回来,注意力的计算结果就是发展水平,你可以简单理解为GDP,那么 s o f t m a x softmax softmax就是上级机关在根据GDP计算每座城市在心中的分量的过程,从根本上说, s o f t m a x softmax softmax并不改变注意力计算的实质,只是做了一个归一化方便后面计算操作而已,李宏毅老师也在视频的26分30秒左右说,不一定要用 s o f t m a x softmax softmax,有人把 s o f t m a x softmax softmax换成 R e L U ReLU ReLU结果还好一点[2]

额外问题:如何理解超参数?如何调超参数?
Transformer里的Attention head的数量就是个超参数,其实,模型需要的超参数是多少是没办法事先推断的,就像函数拟合,你说用二次函数拟合好呢,还是三次函数拟合好呢?两个拟合下来的方差可能都差不多,也没什么区别,但你事先就能知道要用二次或三次函数拟合吗?你可能是一个一个试出来的,就像炼丹一样,又遇到了一个先画靶子再射箭的例子。炼丹自从有了化学作为学科指导,就不再盲目,可以科学的制备化学品甚至预测化学性质;那么这个超参数,要遇到什么学科的出现,才能科学的推断超参数不再盲目呢?奥卡姆剃刀?奥卡姆剃刀不能用数学描述,又或者是,根据数据多训练几遍挑个好的不就知道了?那不行,化学可以根据化学式去推断性质甚至反推合成路线,怎么说最多也只能对数据做些分析,而不能真的拿网络去训练。这段完全胡说八道,如有不当,请各位看官指出。

2.2.2 参考文章或视频链接
[1] 【注意力机制的本质|Self-Attention|Transformer|QKV矩阵】- bilibili
[2] 【强烈推荐!台大李宏毅自注意力机制和Transformer详解!】- bilibili
[3] ML Lecture 14: Unsupervised Learning - Word Embedding
[4] 国家中心城市 - 百度百科
[5] 《科普:中心城市和重要的中心城市》- 百度贴吧
[6] 《超参数》- 百度贴吧
[7] Understanding Q,K,V In Transformer( Self Attention)

Attention is all you need 将Self-Attention发扬光大

2.2.3 Multi-Head Attention

这里的多头,就是把矩阵进行拆分,然后运算,然后再合并,这个过程高度类似于Hadoop的MapReduce,但是作用有所不同,不同的头在训练过程中,注意力观察的地方会不一样。诚所谓:“话说天下大势,合久必分,分久必合”,分治的思想贯穿人类始终,无论是政治架构还是地理格局。

在开始本章之前,还需要掌握两个事物:
(1)高维矩阵乘法:
2D矩阵与2D矩阵做矩阵乘法,得到的还是2D矩阵,但这是一个恰到好处的错觉。
所以你就天真地以为3D矩阵与3D矩阵做矩阵乘法,得到的还是3D矩阵?不对哦,根据参考文章[2]与[3],得到的应该是一个4D矩阵。即 c j k l m = ∑ k a i j k b k l m c_{jklm}= \sum\limits_{k}^{}a_{ijk}b_{klm} cjklm=kaijkbklm,那4D矩阵呢?也符合这个规律吗,4D矩阵相乘还是4D矩阵。
(2)爱因斯坦求和约定:
请看参考文章[1]

2.2.3 参考文章或视频链接
[1] 《Einstein Summation (einsum) 的简单理解》- 知乎
[2] Multidimensional Matrix Mathematics:Multidimensional Matrix Equality, Addition,Subtraction, and Multiplication, Part 2 o
[3] Is there a 3-dimensional “matrix” by “matrix” product? - stackoverflow
[4] Understanding Numpy Matmul in 4D through Examples
[5] tensorflow中高维数组乘法运算 - 知乎
[6] 【全面理解多维矩阵运算】多维(三维四维)矩阵向量运算-超强可视化 - 知乎

2.3 Why Self-Attention

Why Self-Attention一章解释,为什么要自注意力呢?文章总结下来就是,计算词向量之间相关性的复杂度降低,提高并行度,对于解决long-range dependencies长序列依赖问题有奇效,

我记得19年软考有这么一道题目,计算两个矩阵相乘的时间复杂度,请看希赛网的解析。

2.3 参考文章或视频链接
[1] 《2019年上半年软考第65题》- 希赛题库

2.4 Training

Training,略,后续更新,请看原文,在学习率 l r a t e lrate lrate上的这个公式有点奇怪,学习率也是根据一些参数计算出来的,另外也用到了 D r o p O u t DropOut DropOut,这也是常规操作了。

2.5 Results

Results重新强调了下结果,以及作者他们做的一些模型变种,就是调了参然后列了张表。

2.6 Conclusion

Conclusion 第一遍阅读的时候总结过了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/324621.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【STM32】STM32学习笔记-I2C通信协议(31)

00. 目录 文章目录 00. 目录01. I2C简介02. I2C主要特点03. I2C硬件电路04. I2C时序基本单元05. I2C时序波形图06. 附录 01. I2C简介 I2C(Inter-Integrated Circuit)总线是一种由NXP(原PHILIPS)公司开发的两线式串行总线,用于连接…

安装SCCM时出现的问题

出现这个问题 根据提示信息逐一排除以下问题: 1、确保SQL服务器名称是否正确。 2、确保TCP1433和4022端口有没有被防火墙屏蔽。 3、站点服务器帐号加入SQLServer的sysadmin角色成员里。 4、确保SQL实例没有使用动态端口,可参考: Config…

#RAG##AIGC#检索增强生成 (RAG) 基本介绍和入门实操示例

本文包括RAG基本介绍和入门实操示例 RAG 基本介绍 通用语言模型可以进行微调以实现一些常见任务,例如情感分析和命名实体识别。这些任务通常不需要额外的背景知识。 对于更复杂和知识密集型的任务,可以构建基于语言模型的系统来访问外部知识源来完成任…

【C语言】指针知识点笔记(2)

目录 一、野指针 二、assert断言 三、指针的使用和传址调用 四、数组名的理解 五、使用指针访问数组 一、野指针 二、assert断言 三、指针的使用和传址调用 四、数组名的理解 五、使用指针访问数组

高通平台开发系列讲解(USB篇)DWC3控制USB速率

文章目录 一、设备树二、相关结构体三、最大速率设置四、当前速率设置沉淀、分享、成长,让自己和他人都能有所收获!😄 📢本文主要介绍高通平台USB DWC3控制USB速率。 一、设备树 目录:msm-4.14/arch/arm64/boot/dts/qcom/sdxprairie-usb.dtsi dwc3@a600000 {compatibl…

pandas之重复数据的查看、删除和提取(后附数据网盘链接)

数据预览: 一、 查看value_counts() 这一函数能够查看每一数据出现了几次,但是用data.value_counts()这一方法时,只有一行数据全都一样才算做重复行,如下图中的郭靖分数不一样的话它没有计入是重复行,要想以名字作为重…

unity面试题

一:什么是协同程序? 在主线程运行的同时开启另一段逻辑处理,来协助当前程序的执行,协程很像多线程,但是不是多线程,Unity的协程实在每帧结束之后去检测yield的条件是否满足。 二:Unity3d中的碰…

身体互联网 (IoB)

现在,我们的互联网网关就是我们手中的一个小设备。 普渡大学副教授施里亚斯森表示。 我们不断地看着这个盒子,我们低着头走路,我们把大部分时间都花在它上面。如果我们不想让这种未来继续下去,我们就需要开发新技术。相反&#x…

使用scipy处理图片——任意比例缩放

大纲 缩小放大代码地址 在《使用numpy处理图片——缩放图片》一文中,我们每2个取1个像素来达到图像缩小的效果。这就要求缩小的比例只能是整数倍,而不能支持缩小到0.3倍或者放大到1.5倍这样的效果。 为了支持任意倍数的缩放功能,我们需要使用…

集群服务器GPU深度模型训练笔记(PBS作用调度系统)

相关手册与软件准备 官方使用手册 用户手册:https://hpc.sustech.edu.cn/ref/cluster_User_Manual.pdf 培训视频:https://hpc.sustech.edu.cn/ref/meeting_20230810.mp4 启明2.0使用手册:https://hpc.sustech.edu.cn/ref/qiming_User_Manua…

基于vue+Spring Boot家政服务人员预约系统iph9d

通过对家政服务管理内容的学习研究,进而设计并实现一个家政服务系统。系统能实现的主要功能应包括即时通讯、通讯回复、预约订单、接单信息、服务费用管、服务评价的一些操作。还有可以正确的为用户服务,准确显示当前信息[5]。 开发软件有很多种可以用&…

【JVM】性能调优

一、前言 性能调优,顾名思义,就是对系统或软件的性能进行优化,以提高其运行效率和响应速度。在计算机科学中,性能调优通常涉及到硬件、操作系统、数据库、网络等多个方面。对于Java开发者来说,JVM(Java虚拟…

Docker 容器之间的互相通信

Docker容器之间的互相通信 步骤一:创建自定义网络 首先,我们需要创建一个自定义网络,以便容器可以连接到这个网络上,从而实现互相通信。在命令行中执行以下命令: # 创建 docker network create ddz # 查看 docker n…

O2066PM无线WIFI6E网卡Windows环境吞吐测试

从2023年开始,除手机外的无线终端设备也逐步向WIFI6/6E进行升级更新,基于802.11ax技术的设备能够进一步满足用户体验新一代Wi-Fi标准时获得优质的性能和覆盖范围。 用户对于WIFI模块,通常会关注WIFI模块的吞吐量,拿到样品之后&am…

如何在iPhone或iPad中截取长页面,这里有详细步骤

iOS有太多隐藏的功能,记住它们可能是一个挑战,但知道如何在iPhone或iPad上截屏整个页面是我从未忘记的。 你若是一名作家,你经常会发现自己需要截屏网站和文章中的大块文本,以便发送给某人或稍后阅读。虽然现在的手机有着令人羡慕…

python统计分析——生成正态分布随机数

参考资料:用python动手学统计学,帮助文档 方法1:scipy.stats.norm.rvs() from scipy import stats stats.norm.rvs(loc4,scale0.8,size10) 参数介绍如下: loc:表示正态分布的均值,默认为0 scale&#…

Visual Studio Code常用设置

此处用于记录下本人所使用 VScode 的使用习惯。其中主要包括:界面,主题,光标,文件保存等选项。 VSCode 用户区设置 相关介绍命令行方式进行配置可视化组件方式进行配置 更新 相关介绍 基本原理: Visual Studio Code 会…

sizeof与strlen的使用及其区别

目录 1. sizeof 1.1sizeof简介 1.2 sizeof的使用 1.3 sizeof的使用注意事项 1.4 sizeof用于数组 2.strlen()函数 3.区别 示例1 示例2 示例3 4.总结 1. sizeof 1.1sizeof简介 sizeof是一个编译时运算符,可用于任何变量名、类型名…

Realm Management Extension领域管理扩展之系统架构

RME不仅仅是一组处理器功能,为了充分利用RME引入的功能,系统的其余部分需要提供支持。 下图显示了一个示例系统以及引入RME后受到影响的组件: 主存储器保护 RME启用的系统包括内存加密和可能的完整性。基线加密要求支持对外部内存进行加密,使用每个PA空间的单独加密密钥或…

1131. 拯救大兵瑞恩(dp思想运用,set)

1131. 拯救大兵瑞恩 - AcWing题库 1944 年,特种兵麦克接到国防部的命令,要求立即赶赴太平洋上的一个孤岛,营救被敌军俘虏的大兵瑞恩。 瑞恩被关押在一个迷宫里,迷宫地形复杂,但幸好麦克得到了迷宫的地形图。 迷宫的…