TransFormer学习之基础知识:STN、SENet、CBAM、Self-Attention

1.空间注意力机制STN

参考链接:STN(Spatial Transformer Networks)
参考链接:通俗易懂的Spatial Transformer Networks(STN)

  • 核心动机: 在空间中捕获重要区域特征(如图像中的数字),将核心区域进行放大居中,使得结果更容易识别
  • 主体结构: 局部网络、参数化网络采样(网络生成器)和差分图像采样
    [图片]

1.1 局部网络(Localisation net)

输入: U,U可以是输入图片也可以是Feature Map
输出: θ \theta θ,局部网络会将重要区域特征进行放大居中, θ \theta θ表示原图到变换后图像之间的变换和平移参数,参考上图(b)列

1.2 网络生成器(Grid generator)

输入:局部网络模块输出的变换关系 θ \theta θ
输出:经过仿射变换后的特征图,参考上图中©列

1.3 差分图像采样(Sample)

Sample 就是用来解决Grid generator模块变换出现小数位置的问题的,当对小数进行仿射变换时,由于取整操作会将变换前不同的位置映射到同一个坐标下。针对这种情况,STN采用双线性插值(Bilinear Interpolation) 进行解决,即根据(x,y)的像素值根据周围坐标的像素值来确定。计算公式如下:
[图片]
[图片]

2.通道注意力之SENet

[图片]

  • 核心动机:在通道中捕获重要区域特征,通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征并抑制对当前任务用处不大的特征
  • 主体结构:全局池化、权重预测、为每一个通道给不同的权重
    参考链接:【注意力机制】SENet(Squeeze-and-Excitation Networks)详解

2.1 全局池化(global average pooling)

Squeeze操作将一个channel上整个空间特征编码为一个全局特征,采用global average pooling 来实现,就是将每个通道上所有的特征相加,最终由H*W*C变为1*1*C
[图片]

2.2 权重预测(Excitation)

Excitation主要是通过两个全连接神经网络FC将将每个通道信息转换为相应的权重,网络结构如下:
[图片]

第一个FC层对C个通道特征进行降维,目的是降低模型的复杂度以及泛化能力
第二个FC层再进行升维操作,最终通过Sigmoid函数将每个通道归一化到[0-1]区间

2.3 为通道赋予权重(Scale)

Scale操作是将学习到的各个channel的激活值(sigmoid激活,值为0到1)乘以U上的原始特征:
[图片]

3.混合注意力机制CBAM

  • 核心思想:同时经过了通道和空间两个注意力机制的处理,自适应细化特征。
    [图片]

这两个模块可以以并行或顺序的方式放置。结果表明,顺序排列的结果比并行排列的结果好。对于排列的顺序,实验结果表明,通道在前面略优于空间在前面

4.自注意力(Self-Attention)

参考链接:自注意力(Self-Attention)机制原理说明
参考链接:图解自注意力机制(Self-Attention)
参考链接:Vision Transformer 超详细解读 (原理分析+代码解读) (一)

  • 核心思想:计算给定的input sequence各个位置之间彼此的影响力大小

4.1 自注意力机制简介

对于网络输入的一组向量,每个向量之间可能存在联系,自注意力机制会结合其他向量对当前向量的影响,可以帮助模型更好地理解序列中的上下文信息,从而更准确地处理序列数据。比如某个单词Games在孤独的语境中可能会将其识别为游戏,但是给定上下文信息the 2022 Beijing Winter GamesGames会被理解为奥运会。

和上述注意力机制一样,自注意力机制也是为输入向量添加一个权重信息,不过不是表征重要程度,而是和输入其他向量之间的关系。

在对图像的处理过程中,会将图像分割为一系列的像素块,每个像素块会作为一个序列,自注意力机制会寻找每个像素块之间的关系。

4.2 自注意力机制的实现过程

本节图像来自:https://cloud.tencent.com/developer/article/2407538

4.2.1 单个输出

[图片]

对于每一个输入向量a,经过蓝色部分self-attention之后都输出一个向量b,这个向量b是考虑了所有的输入向量对a1产生的影响才得到的,这里有四个词向量a对应就会输出四个向量b。

以输入a1为例,介绍其他输入向量与a1之间的联系

  1. 基于Dot-product计算sequence中各向量与a1的关联程度
    在这里插入图片描述

绿色的部分就是输入向量a1a2,灰色的WqWk为权重矩阵,需要学习来更新,用a1去和Wq相乘,得到一个向量q,然后使用a2Wk相乘,得到一个数值k。最后使用q和k做点积,得到αα也就是表示两个向量之间的相关联程度。

  1. 可以计算每一个α(又称为attention score),q称为query,k称为key
    [图片]

另外,也可以计算a1和自己的关联性,再得到各向量与a1的相关程度之后,用softmax计算出一个attention distribution,这样就把相关程度归一化(即图中公式),通过数值就可以看出哪些向量是和a1最有关系。
假设[a1, a2, a3, a4]=[2, 3, 4, 5],计算相关性后[a11, a12, a13, a14]=[0, 2, 8, 10],归一化后就变为[0, 0.1, 0.4, 0.5]
[图片]

  1. 根据 α′ 抽取sequence里重要的信息
    [图片]

先求v,v就是键值value,v和q、k计算方式相同,也是用输入a乘以权重矩阵W,得到v后,与对应的α′ 相乘,每一个v乘与α’后求和,得到输出b1。
如果 a1 和 a2 关联性比较高, α1,2′ 就比较大,那么,得到的输出 b1 就可能比较接近 v2 ,即attention score决定了该vector在结果中占的分量;

4.2.2 矩阵形式

  1. q、k、v的矩阵形式生成
    [图片]

把4个输入a拼成一个矩阵,乘上相应的权重矩阵W,得到相应的矩阵Q、K、V,分别表示query,key和value:
[图片]

[图片]

三个W是我们需要学习的参数

  1. 利用得到的Q和K计算每两个输入向量之间的相关性
    也就是计算attention的值α, α的计算方法有多种,通常采用点乘的方式。
    先针对q1,通过与k1到k4拼接成的矩阵K相乘,得到 α 1 , n \alpha_{1,n} α1,n
    [图片]

同样,q1到q4也可以拼接成矩阵Q直接与矩阵K相乘:
[图片]

写为矩阵形式:
[图片]

矩阵A中的每一个值记录了对应的两个输入向量的Attention的大小α,A’是经过softmax归一化后的矩阵。

  1. 利用得到的A’和V,计算每个输入向量a对应的self-attention层的输出向量b
    [图片]

[图片]

写成矩阵形式:
[图片]

4.2.3 总结

对self-attention操作过程做个总结,输入是I,输出是O,矩阵Wq、 Wk 、Wv是需要学习的参数。
[图片]

4.3 多头自注意力机制(Multi-head Self-attention)

因为相关性有很多种不同的形式,有很多种不同的定义,所以有时不能只有一个q,要有多个q,不同的q负责不同种类的相关性。

4.3.1 计算单个输入a:

[图片]

首先,和上面一样,用a乘权重矩阵W得到qkv,然后q再乘两个不同的W,得到两个不同的 q i , j q^{i,j} qi,j,i代表的是位置,1和2代表的是这个位置的第几个q。
[图片]

4.3.2 计算多个head

这上面这个图中,有两个head,代表这个问题有两种不同的相关性。
同样,k和v也需要有多个,两个k、v的计算方式和q相同,都是先算出来ki和vi,然后再乘两个不同的权重矩阵。
[图片]

对于多个输入向量也一样,每个向量都有多个head:
[图片]

4.3.3 计算self-attention

和上面讲的过程一样,只不过是1那类的一起做,2那类的一起做,两个独立的过程,算出来两个b。
对于1:
[图片]

对于2:
[图片]

[图片]

4.4 Positional Encoding

在训练self attention的时候,实际上对于位置的信息是缺失的,没有前后的区别,上面讲的a1,a2,a3不代表输入的顺序,只是指输入的向量数量,不像rnn,对于输入有明显的前后顺序,比如在翻译任务里面,对于机器学习,机器学习依次输入。而self-attention的输入是同时输入,输出也是同时产生然后输出的。

如何在Self-Attention里面体现位置信息呢?就是使用Positional Encoding
[图片]

如果ai加上了ei,就会体现出位置的信息,i是多少,位置就是多少。vector长度是人为设定的,也可以从数据中训练出来

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/639443.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

K8S认证|CKA题库+答案| 7. 调度 pod 到指定节点

7、调度 pod 到指定节点 您必须在以下Clusterd/Node上完成此考题: Cluster Master node Worker node hk8s master …

GS5812G 21V、2A同步降压DC/DC转换器芯片IC

一般描述 该GS5812G是一个同步降压DC/DC转换器与快速恒定的时间(FCOT)模式控制。该器件提供4. 5V至21V的输入电压范围和2A连续负载电流能力。它是恒定时间脉宽调制(PWM)控制器,支持 FCOT模式控制。工作频率取决于输入和输出电压条件。 该GS5812G故障…

桌面藏线大法

1有线改无线: 蓝牙鼠标 蓝牙键盘 蓝牙耳机 2将排插贴到桌子底下 购物软件上搜 3断舍离 不要的电子产品统统扔掉 4 洞洞板和挂钩 这个不用介绍了

uniapp中使用mockjs模拟接口测试总结(swiper轮播图示例)

完整总结下在uni-app中如何使用Mock.js模拟接口测试,这在后台接口未就绪的情况下非常有用。同时也给出个首页swiper轮播图的mock接口使用。网上的文章都不太完整,这里总结下完整的使用示例,同时也支持h5和小程序平台,分享给需要的…

个人感觉对Material设计有用的几个网址

(一) Modular and customizable Material Design UI components for Android GIthub: material-components-android (二) 学习Material设计 Material Design (三) 用于创建Material主题,支持导出多种格式 material-theme-builder

谷歌蜘蛛池是什么?

或称为谷歌爬虫池,是一项专门针对谷歌搜索引擎优化(SEO)的先进技术,这种技术的主要目的是通过建立庞大的网站群体和复杂的链接结构来吸引和维持谷歌的爬虫程序的注意力,其核心是通过这种结构优化,增强特定网…

ESP32 实现获取天气情况

按照小安派AiPi-Eyes天气站思路,在ESP32 S3上实现获取天气情况。 一、在ESP32 S3实现 1、main.c 建立2个TASK void app_main(void) {//lvgl初始化xTaskCreate(guiTask, "guiTask", 1024 * 6, NULL, 5, NULL);//wifi初始化、socket、json处理taskcustom_…

Xcode代码格式化SwiftFormat安装使用,以及不生效问题

官方仓库地址:GitHub - nicklockwood/SwiftFormat: A command-line tool and Xcode Extension for formatting Swift code 安装SwiftFormat 有两种安装方式,两种方式都可以,二选一即可: 第一种使用brew,如果已经使用…

AWPortrait1.4更新,人物的生成更加趋近真实感,将SD1.5人像的真实感提升到了一个新的高度

AWPortrait1.4更新,人物的生成更加趋近真实感,将SD1.5人像的真实感提升到了一个新的高度 经过5个月,AWPortrait终于迎来了1.4。 本次更新基于1.3训练,使得人物的生成更加趋近真实感,将SD1.5人像的真实感提升到了一个新…

《二》MP3在线搜索所歌曲的实现

上一期我们大致实现了布局等操作 那么这一期我们来实现如何去搜索歌曲: 首先呢,我们是设计多媒体,要包含多媒体类头文件,还要能在线搜索,那就要包含网络上的头文件,还要实现打开文件操作,处理…

618知识狂欢,挑本好书,点亮智慧生活!

618精选编程书单:提升你的代码力 一年一度的618又到啦!今年的618就不要乱买啦,衣服买多了会被淘汰,电子产品买多了会过时,零食买多了会增肥,最后怎么看都不划算。可是如果你购买知识,坚持阅读&a…

k8s节点亲和性配置

在Kubernetes中,你可以使用节点亲和性(Node Affinity)来控制Pod调度到特定的节点上。节点亲和性是通过Pod的spec.affinity.nodeAffinity属性来设置的。 以下是一个配置节点亲和性的YAML示例: apiVersion: v1 kind: Pod metadata…

nss刷题(3)

1、[SWPUCTF 2021 新生赛]include 根据提示传入一个file后显示了关于flag的代码 这是一个文件包含,考虑php伪协议,构造payload: ?filephp://filter/readconvert.base64-encode/resourceflag.php 2、[SWPUCTF 2021 新生赛]Do_you_know_http …

HTML5 + CSS3模拟庆余年中“五竹”的镭射眼动画特效

庆余年2已经火热开播了,据说反响强烈啊,不知道这一部里面,五竹的镭射眼会不会表现出来,我还挺想看看他的镭射眼的,我看到底有没有杀死剧中的庆帝。 回想第一部,我都快记不清那是几年前开播的了,…

【QT八股文】系列之篇章2 | QT的信号与槽机制及通讯流程

【QT八股文】系列之篇章2 | QT的信号与槽机制及通讯流程 前言2. 信号与槽信号与槽机制介绍/本质/原理,什么是Qt信号与槽机制?如何在Qt中使用?信号与槽机制原理,解析流程Qt信号槽的调用流程信号与槽机制的优缺点信号与槽机制需要注…

明天(周六)下午!武汉Linux爱好者线下沙龙,我们在华中科技大学等你!

2024 年 5月 25 日(周六)下午,我们将在「武汉市洪山区」 珞喻路 1037 号华中科技大学南五楼 613 室举办武汉 Linux 爱好者线下沙龙(WHLUG),欢迎广大 Linux 爱好者来到现场,与我们一同交流技术&a…

【vue echart】完成一个简单echart图表+自适应

实现效果&#xff1a; html&#xff1a; <divref"echartOne"id"echartOne"style"width: 100%; height: 100%" ></div> js: getEchartOne() {let chart this.$echarts.init(this.$refs.echartOne);chart.setOption({title: {text:…

科技产业园3D探秘:未来科技之城的奇幻之旅

在数字时代的浪潮中&#xff0c;科技产业园区成为了推动城市经济发展、科技创新的重要引擎。 当我们打开科技产业园的3D可视化模型&#xff0c;仿佛穿越时空&#xff0c;来到了一个充满奇幻色彩的科技世界。在这里&#xff0c;高楼大厦鳞次栉比&#xff0c;绿色植被点缀其间&am…

Python协程的作用

过分揣测别人的想法&#xff0c;就会失去自己的立场。大家好&#xff0c;当代软件开发领域中&#xff0c;异步编程已成为一种不可或缺的技术&#xff0c;用于处理大规模数据处理、高并发网络请求、实时通信等应用场景。而Python协程&#xff08;Coroutine&#xff09;作为一种高…

数组-区间合并

一、题目描述 二、题目思路 这里提供满足基本要求的解题思路&#xff1a; 1.先对列表内按照start大小升序排序&#xff0c;这里创建Comparator接口的实现类&#xff0c;重写compare方法。 2.遍历intervals&#xff0c;设置laststart、lastend两个变量与当前区间相比较&#…