ICLR2022 | SETR | 提高视觉Transformers的对抗迁移性

On Improving Adversarial Transferability Of Vision Transformers

  • 摘要-Abstract
  • 引言-Introduction
  • 背景和相关工作-Background And Related Work
  • 增强ViTs的对抗迁移能力-Enhancing Adversarial Transferability Of ViTs
  • 实验-Experiments
  • 结论-Conclusion


论文链接

本文 “On Improving Adversarial Transferability Of Vision Transformers” 提出了针对视觉 Transformer(ViT)的对抗攻击增强方法,通过独特的自集成和Token细化策略,提升了对抗样本的可转移性。


摘要-Abstract

Vision transformers (ViTs) process input images as sequences of patches via selfattention; a radically different architecture than convolutional neural networks (CNNs). This makes it interesting to study the adversarial feature space of ViT models and their transferability. In particular, we observe that adversarial patterns found via conventional adversarial attacks show very low black-box transferability even for large ViT models. We show that this phenomenon is only due to the sub-optimal attack procedures that do not leverage the true representation potential of ViTs. A deep ViT is composed of multiple blocks, with a consistent architecture comprising of self-attention and feed-forward layers, where each block is capable of independently producing a class token. Formulating an attack using only the last class token (conventional approach) does not directly leverage the discriminative information stored in the earlier tokens, leading to poor adversarial transferability of ViTs. Using the compositional nature of ViT models, we enhance transferability of existing attacks by introducing two novel strategies specific to the architecture of ViT models. (i) Self-Ensemble: We propose a method to find multiple discriminative pathways by dissecting a single ViT model into an ensemble of networks. This allows explicitly utilizing class-specific information at each ViT block. (ii) Token Refinement: We then propose to refine the tokens to further enhance the discriminative capacity at each block of ViT. Our token refinement systematically combines the class tokens with structural information preserved within the patch tokens. An adversarial attack when applied to such refined tokens within the ensemble of classifiers found in a single vision transformer has significantly higher transferability and thereby brings out the true generalization potential of the ViT’s adversarial space.

视觉Transformer(ViT)通过自注意力机制将输入图像作为图像块序列进行处理,这与卷积神经网络(CNN)的架构截然不同。这使得研究ViT模型的对抗特征空间及其可转移性变得很有意义。特别是,我们发现,即使对于大型ViT模型,通过传统对抗攻击找到的对抗模式在黑盒攻击中的可转移性也非常低。我们证明,这种现象仅仅是由于次优的攻击过程,未能充分利用ViT的真实表征潜力。深度ViT由多个模块组成,其架构一致,包含自注意力层和前馈层,每个模块都能够独立生成一个类别token。仅使用最后一个类别token制定攻击策略(传统方法)并不能直接利用前面token中存储的判别信息,从而导致ViT的对抗可转移性较差。利用ViT模型的组合特性,我们通过引入两种针对ViT模型架构的新策略,增强了现有攻击的可转移性。(i)自集成:我们提出一种方法,将单个ViT模型拆解为一个网络集合,以找到多个判别路径。这使得我们能够在每个ViT模块中显式地利用特定类别的信息。(ii)token细化:我们提议对token进行细化,以进一步增强ViT每个模块的判别能力。我们的token细化方法将类别token与图像块token中保存的结构信息进行系统地结合。 在单个视觉Transformer的分类器集合中,对这种经过细化的token进行对抗攻击时,其可转移性显著提高,从而充分挖掘出ViT对抗空间的真实泛化潜力。


引言-Introduction

这部分内容主要介绍了研究背景和动机,引出了针对视觉Transformer(ViT)对抗样本可转移性的研究,具体内容如下:

  1. 研究背景:Transformer在自然语言处理任务中取得成功后被应用于视觉任务,产生了诸多ViT模型。ViT与CNN在设计上存在显著差异,其缺乏CNN所具有的如空间连接性和平移等效性等显式归纳偏差,通过自注意力机制处理图像块序列,能学习输入图像各部分之间的关系,拥有更广泛的感受野。
  2. 研究动机:对抗攻击对深度神经网络在实际应用中的部署构成重大阻碍,ViT的对抗特性成为重要研究课题。近期研究表明,尽管大型ViT模型参数容量大、在干净图像上性能强且泛化性好,但在黑盒攻击设置下,其对抗样本的可转移性却较低。本文旨在探究这种低可转移性是源于ViT的弱特征还是弱攻击,并提出一种高可转移性的攻击方法,通过利用ViT模型的独特特征,增强现有对抗攻击的可转移性。
  3. 研究方法:基于ViT的模块化性质,文中提出了自集成和token细化两种关键策略。自集成是通过从单个预训练ViT模型中创建多个分类器的集合,利用每个模块产生的类别token来设计对抗攻击,从而利用多个判别路径提高对抗可转移性;token细化模块则针对自集成中不同中间块提取的类别信息进行增强,将类别token与图像块token的结构信息融合,提升中间块的判别力,进一步提高对抗样本的可转移性。
  4. 研究意义:经大量实验验证,该方法在不同模型系列和视觉任务中均展现出良好的转移率,有效提升了ViT对抗空间的泛化能力。

在这里插入图片描述
图1:左图:传统的对抗攻击将视觉Transformer(ViT)视为单个分类器,仅基于最后一个分类token最大化预测损失(例如交叉熵)来欺骗模型。这会导致次优结果,因为ViT前面模块中的类别token仅间接影响对抗扰动。相比之下,我们的方法(右图)有效地利用了ViT的底层架构,使用ViT内所有模块产生的类别token创建自集成模型,以设计对抗攻击。我们的自集成模型能够利用所有类别token学习到的分层判别信息。因此,基于我们自集成模型的攻击所生成的对抗样本具有可转移性,并且在不同模型类型和视觉任务中具有良好的泛化性。


背景和相关工作-Background And Related Work

这部分内容主要介绍了对抗攻击建模、网络架构对攻击转移性的作用以及ViT的鲁棒性等方面的背景和相关工作,为后续研究奠定基础,具体如下:

  1. 对抗攻击建模
    • 分类:分为白盒攻击和黑盒攻击。白盒攻击攻击者可获取目标模型参数,如FGSM和PGD等;黑盒攻击攻击者无法获取目标模型参数,研究对抗转移性难度更大 。
    • 白盒攻击方法:包括FGSM、PGD,以及Jacobian-based saliency map attack、Sparse attack等其他先进方法,常应用于代理模型以寻找可转移到黑盒目标模型的扰动。
    • 黑盒攻击与转移性:通常攻击源模型生成对抗信号再应用于目标模型。虽有梯度估计方法,但实际应用受限。也可直接采用白盒方法生成对抗信号,同时有多种提升对抗样本转移性的探索方向,如增强动量、数据增强、利用特征和生成式方法等。本文首次针对ViT模型对抗样本转移性受限的问题展开研究。
  2. 网络架构的作用:已有研究利用网络架构特征改进攻击转移性,如利用ResNets和DenseNets的跳跃连接,或基于模型线性特性进行改进。本文聚焦ViT模型的独特架构特征,以生成转移性更强的对抗扰动。
  3. ViT的鲁棒性:ViT模型的对抗攻击研究相对较少。Shao等人和Bhojanapalli等人研究了ViT模型在多种白盒和黑盒攻击技术下的对抗攻击和鲁棒性;Mahmood等人探究了ViT模型对抗扰动的转移性,发现其向CNN的转移性不佳,还探索了CNN和ViT模型的集成来提升攻击转移性。本文提出的集成方法则是将单个ViT模型转化为模型集合(自集成)来提高攻击转移性,且可与现有攻击方法结合。

增强ViTs的对抗迁移能力-Enhancing Adversarial Transferability Of ViTs

该部分聚焦于提升视觉Transformer(ViT)对抗转移性的方法,从动机出发,详细阐述了自集成、token细化以及对抗转移这三个关键部分,具体内容如下:

  1. 动机:尽管ViT模型具有较高的参数复杂性和良好的特征泛化能力,但近期研究发现其在黑盒攻击中的对抗转移性较低。通过实验观察到,基于动量迭代快速梯度符号法(MIM)在不同DeiT模型上的对抗样本转移性并未随模型容量增加而提升,甚至DeiT-B模型对抗样本对某些目标模型的转移性低于DeiT-T模型。因此,研究旨在探究这一现象是源于ViT本身特性还是次优的攻击机制,并基于此提出改进方法。
    在这里插入图片描述
    图2:视觉Transformer(ViT)的对抗样本仅具有中等的可转移性。事实上,MIM(Dong等人,2018年)扰动对目标模型的可转移率(%)会随着源模型规模的增大而下降,例如从DeiT-T(Touvron等人,2020年,500万个参数)到DeiT-B(Touvron等人,2020年,8600万个参数)。然而,当将攻击应用于我们提出的在ViT内构建的分类器集合时(MIM E ^E E、MIM R E ^{RE} RE ),攻击性能会显著提升。

  2. 自集成:视觉Transformer的判别路径:一个具有 n n n 个Transformer模块的ViT模型可表示为 F = ( f 1 ∘ f 2 ∘ f 3 ∘ ⋯ f n ) ∘ g F=(f_{1} \circ f_{2} \circ f_{3} \circ \cdots f_{n}) \circ g F=(f1f2f3fn)g。由于每个Transformer模块都能产生类别token,通过在ViT层次结构的每个模块上学习共享分类头,可构建包含 n n n 个分类器的自集成模型,即 F k = ( ∏ i = 1 k f i ) ∘ g \mathcal{F}_{k}=\left(\prod_{i=1}^{k} f_{i}\right) \circ g Fk=(i=1kfi)g k = 1 , 2 , ⋯   , n k=1,2,\cdots,n k=1,2,,n。研究发现多个中间层分类器具有显著判别信息,但初始部分模块(如1 - 6块)分类准确率几乎为零,存在中间token与最终分类头未直接对齐的问题,导致分类性能一般。
    在这里插入图片描述
    图3:DeiT模型各模块间判别信息的分布情况。请注意,多个中间模块包含具有相当判别信息的特征,这是通过在ImageNet验证集上的top-1准确率来衡量的。这些是在ImageNet上预训练的标准模型,没有进行进一步训练。图中 x x x 轴上的每个模块对应于公式1中定义的分类器 F k F_{k} Fk

  3. token细化:为解决中间块类别token与最终分类器对齐问题,提升其分类准确率,提出token细化模块。该模块包括图像块token细化、类别token细化和两者合并三个步骤。首先对每个模块输出的图块token重排以恢复空间关系,通过卷积块和平均池化提取空间信息;然后用线性层细化类别token,减少其与共享分类头的对齐偏差;最后将细化后的类别token和图像块特征向量相加得到合并token。对包含 k k k 个Transformer模块的ViT模型,在每个模块输出插入 k k k 个token细化模块,冻结原有权重,仅在ImageNet训练集上对token细化模块训练一个epoch,使用SGD优化器,学习率设为0.001。训练后的token细化模块增强了类别token的可判别性。
    在这里插入图片描述
    图4:近期的视觉Transformer(ViT)会处理196个图像块,从而产生196个图像块token。我们重新排列这些token,创建一个14×14的特征网格,该网格由一个卷积模块进行处理以提取结构信息,随后通过平均池化操作生成单个图像块token。类别token在输入分类器之前,会通过一个多层感知器(MLP)层进行细化。之后,将这两种token合并。
    在这里插入图片描述
    图5:DeiT(Touvron等人,2020年)的自集成:我们使用每个模块的类别token在ImageNet上测量top-1准确率,并与我们细化后的token进行比较。这些结果表明,微调有助于使中间模块的token与最终分类器对齐,从而提高它们的分类性能。因此,token细化强化了判别路径,使得对抗样本的转移性更强。

  4. 对抗转移:在对抗转移实验中,利用源(代理)ViT模型生成黑盒攻击扰动。源模型先在ImageNet上预训练,再按提出的方法进行修改并微调token细化模块一个epoch。通过对每个模块输出的联合损失,使用多种白盒攻击生成对抗样本,并在一系列CNN和ViT模型上测试其转移性。针对无目标攻击,定义对抗目标为 m a x x ′ ∑ i = 1 k ⟦ F k ( x ′ ) a r g m a x ≠ y ⟧ max _{x'} \sum_{i=1}^{k} \llbracket \mathcal{F}_{k}\left(x'\right)_{argmax } \neq y \rrbracket maxxi=1k[[Fk(x)argmax=y]],同时满足 ∥ x − x ′ ∥ p ≤ ϵ \left\| x-x'\right\| _{p} \leq \epsilon xxpϵ k ∈ { 1 , 2 , ⋯   , n } k \in\{1,2,\cdots,n\} k{1,2,,n};目标攻击则是朝着特定目标类别优化上述目标。


实验-Experiments

这部分主要介绍了为验证提升ViT对抗转移性方法的有效性所进行的实验,涵盖实验设置、分类实验以及跨任务转移性实验,具体内容如下:

  1. 实验设置
    • 源模型:选用DeiT系列的DeiT-T、DeiT-S和DeiT-B三个视觉Transformer模型,它们在训练时未使用CNN蒸馏。
    • 目标模型:涵盖多种用于不同视觉任务的模型,包括用于分类的卷积网络(如BiT-ResNet50、ResNet152等)和其他ViT模型(如Token-to-Token transformer、Transformer in Transformer等),还有用于目标检测的DETR和用于分割的DINO。
    • 数据集:利用ImageNet训练集微调token细化模块;从ImageNet验证集中选取5000个样本(每个类随机选5个能被ResNet50和ViT-small正确分类的样本)评估模型鲁棒性,同时在COCO(5000张图像)和PASCAL-VOC12(约1200张图像)验证集上开展实验。
    • 评估指标:分类任务采用愚弄率(添加对抗扰动后预测标签翻转的样本百分比)评估;目标检测任务使用平均精度均值(mAP)衡量;分割任务则依据Jaccard指数评估。
    • 基线攻击方法:对比单步快速梯度符号法(FGSM)、投影梯度下降法(PGD)、动量迭代快速梯度符号法(MIM)和输入多样性(DIM)攻击等方法,迭代攻击运行10次迭代,DIM的变换概率设为默认的0.7。
  2. 分类实验:传统攻击方式下,ViT模型对抗样本对CNN的转移性一般,例如DeiT-B通过迭代攻击生成的对抗样本转移到Res 152的效果甚至不如VGG19 bn。而采用本文提出的自集成和token细化策略(分别记为“Attack” E ^{E} E和“Attack” R E ^{RE} RE )后,对抗样本对其他卷积模型和基于Transformer的模型的转移性显著提升。研究还发现,架构相似且无归纳偏差的模型间对抗扰动转移率更高;参数较少或训练策略较差的模型更易受到黑盒攻击,如ViT-S和T2T-T比它们的大模型版本更脆弱;训练策略更好、泛化性更高的模型则更具鲁棒性,像BiT50比ResNet152更抗攻击。此外,在白盒设置下,按块计算的愚弄率也显示出本文方法的优势,MIM难以欺骗ViT的初始块,而本文方法能使攻击在中间块和最后类别token处同样有效,充分利用了ViT的对抗空间,提高了对抗扰动的转移率。
    在这里插入图片描述
    表1:在 ϵ ≤ 16 \epsilon ≤16 ϵ16 的情况下,对5000个ImageNet验证集对抗样本的愚弄率(%)。由我们提出的带有视觉Transformer细化token的自集成方法生成的对抗扰动,其成功率显著更高。
    在这里插入图片描述
    表2:在 ϵ ≤ 16 \epsilon\leq16 ϵ16的条件下,针对5000个ImageNet验证集对抗样本的愚弄率(%)。通过我们提出的、带有视觉Transformer细化token的自集成方法所生成的对抗扰动,其成功率显著更高。
  3. 跨任务转移性实验:由于自注意力是Transformer架构在不同任务中的核心组件,实验探究了本文方法在目标检测(DETR)和分割(DINO)任务中的有效性。在生成对抗信号时,以源模型的初始预测作为标签,针对不同任务中模型对图像尺寸的要求,将图像分块处理以生成更强的对抗样本。实验结果表明,在DETR任务上,本文方法有明显改进;在更鲁棒的DINO模型中,随着源模型容量增加,本文方法的转移性提升效果优于基线方法。
    在这里插入图片描述
    表3:跨任务转移性(从分类到检测)。目标检测模型DETR(Carion等人,2020年)受到欺骗。在COCO验证集上,以[0.5:0.95]的交并比(IOU)计算平均精度均值(mAP)。我们带有细化token(RE)的自集成方法显著提升了跨任务转移性。(数值越低越好)
    在这里插入图片描述
    表4:跨任务转移性(从分类到分割)。DINO(Caron等人,2021年)模型受到欺骗。使用杰卡德指数(Jaccard index)指标来评估分割性能。采用我们的方法可获得最佳的对抗转移结果。(数值越低越好)
    在这里插入图片描述
    图7:由DeiT-S源模型生成的、我们提出的DIMRE攻击致使DETR模型失效案例的可视化展示。(放大查看效果更佳)

结论-Conclusion

该部分主要回顾研究成果、强调方法优势,涉及对当前研究不足的认识、新方法的效果、可重复性、伦理考量等方面,具体内容如下:

  1. 研究成果:研究发现当前视觉Transformer(ViT)对抗转移性方法存在关键缺陷,即现有攻击过程未充分挖掘ViT架构特性。提出的新方法通过构建多个判别路径(自集成)和token细化策略,有效填补了这一空白,显著提升了对抗攻击性能。在多种攻击方法和不同视觉任务(分类、检测、分割)中,新方法均展现出良好效果,提高了对抗样本在不同模型(卷积模型和Transformer模型)间的转移率。
  2. 复现声明:详细说明了复现实验的相关细节。攻击方法上,使用开源的Patchwise攻击和Auto-Attack,按默认设置并明确提及必要参数;对于token细化,利用开源代码库微调预训练源模型的类token,并将公开带有细化token的模型;跨任务攻击实现方面,给出了从分类到检测和分割任务的具体细节与伪代码;数据集上,阐述了从ImageNet验证集选取5k样本的过程,并将发布样本索引以方便复现。
  3. 伦理声明:认识到研究成果可能存在的风险,短期内该成果可能被恶意利用,干扰依赖ViT的深度学习系统。但从长远看,有助于推动更强大的深度学习模型的研究,增强模型抵御此类攻击的能力,降低短期风险。同时,指出研究中使用的ImageNet数据集存在偏见和隐私问题,希望未来采用改进版本。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/971057.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Python的那些事第二十三篇:Express(Node.js)与 Python:一场跨语言的浪漫邂逅

摘要 在当今的编程世界里,Node.js 和 Python 像是两个性格迥异的超级英雄,一个以速度和灵活性著称,另一个则以强大和优雅闻名。本文将探讨如何通过 Express 框架将 Node.js 和 Python 结合起来,打造出一个高效、有趣的 Web 应用。我们将通过一系列幽默风趣的实例和表格,展…

学习笔记之debian的thonny开发(尚未验证)--从stm32裸机到linux嵌入式系统

这应该算 stm32裸机用户 转 linux嵌入式系统 的入门学习笔记。 【鲁班猫】39-vnc远程桌面连接鲁班猫_哔哩哔哩_bilibili 本集的鲁班猫的视频介绍中,没有清晰明确指出需要linux开发板接入网络,接入网络可以使用有线网口或者wifi路由,有些提示…

基于SSM安居房地产房屋销售系统数据库源代码

源代码数据库LW文档(1万字以上)开题报告答辩稿 部署教程代码讲解代码时间修改教程 一、开发工具、运行环境、开发技术 开发工具 1、操作系统:Window操作系统 2、开发工具:IntelliJ IDEA或者Eclipse 3、数据库存储&#xff1a…

CNN-LSSVM卷积神经网络最小二乘支持向量机多变量多步预测,光伏功率预测

代码地址:CNN-LSSVM卷积神经网络最小二乘支持向量机多变量多步预测,光伏功率预测 CNN-LSSVM卷积神经网络最小二乘支持向量机多变量多步预测,光伏功率预测 一、引言 1、研究背景和意义 光伏发电作为可再生能源的重要组成部分,近…

uniapp二次封装组件(py组件)

1.前言 根据自己的使用情况,为了提高开发效率,对已有组件进行了二次封装,文章中二次封装的组件简称为py组件。有些element-ui中表单组件(Form)想在uniapp中进行使用,py组件封装了一些实现起来比较复杂的组…

MySQL智障离谱问题,删了库确还存在、也不能再创建同名库

1、问题 今天跟后端朋友接毕设单子的时候,后端穿过来的【weather.sql】这个文件没弄好,导致这个【weather】数据库的数据是错的,因此我用datagrip的GUI界面直接右键删除,结果就是tmd删不掉,ok,我只能在那新…

【区块链】零知识证明基础概念详解

🌈个人主页: 鑫宝Code 🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 ​💫个人格言: "如无必要,勿增实体" 文章目录 零知识证明基础概念详解引言1. 零知识证明的定义与特性1.1 基本定义1.2 三个核心…

Vript-Hard——一个基于高分辨率和详细字幕的视频理解算法

一、概述 多模态学习的最新进展促进了对视频理解和生成模型的研究。随之而来的是,对高分辨率视频和详细说明所建立的高质量数据集的需求激增。然而,由于时间因素的影响,视频与文本的配对不像图像那样容易。准备视频和文本配对是一项困难得多…

如何通过AI让PPT制作更轻松:从AI生成PPT到一键智能生成

如何通过AI让PPT制作更轻松:从AI生成PPT到一键智能生成!在这个信息爆炸的时代,PPT几乎成了每个人办公必备的工具。但说到制作PPT,很多人头疼不已——排版、设计、内容的整理,时间一不小心就被浪费掉了。有没有一种方法…

Docker拉不下来镜像问题解决法案

打开docker的设置界面 配置如下: vi /etc/docker/daemon.json {"builder": {"gc": {"defaultKeepStorage": "20GB","enabled": true}},"experimental": false,"registry-mirrors": ["…

数据守护者:备份文件的重要性及自动化备份实践

在信息化社会,数据已成为企业运营和个人生活的重要组成部分。无论是企业的核心业务数据,还是个人的珍贵照片、重要文档,数据的丢失或损坏都可能带来无法估量的损失。因此,备份文件的重要性愈发凸显,它不仅是数据安全的…

分类预测 | MFO-LSSVM飞蛾扑火算法优化最小二乘支持向量机多特征分类预测Matlab实现

分类预测 | MFO-LSSVM飞蛾扑火算法优化最小二乘支持向量机多特征分类预测Matlab实现 目录 分类预测 | MFO-LSSVM飞蛾扑火算法优化最小二乘支持向量机多特征分类预测Matlab实现分类效果基本介绍程序设计参考资料 分类效果 基本介绍 1.Matlab实现MFO-LSSVM飞蛾扑火算法优化最小二…

2025 docker可视化管理面板DPanel的安装

1.什么是 DPanel ? DPanel 是一款 Docker 可视化管理面板,旨在简化 Docker 容器、镜像和文件的管理。它提供了一系列功能,使用户能够更轻松地管理和部署 Docker 环境。 软件特点: 可视化管理:提供直观的用户界面&#…

游戏引擎学习第106天

仓库:https://gitee.com/mrxiao_com/2d_game_2 回顾我们当前的情况 编写一个完整的游戏,没有使用任何库或引擎,完全依靠传统的编程方式进行开发。目前,我们已经完成了渲染、实体存储等很多基础工作,接下来可能会开始做一些性能优…

如何正确安装Stable Diffusion Web UI以及对应的xFormers

本文是我总结的步骤,验证了几次保证是对的。因为正确的安装 Stable Diffusion Web UI 以及对应的 xFormers 实在是太麻烦了,官方和网上的步骤都是残缺和分散的,加上国内网络速度不理想,所以需要一些额外步骤,之前研究出…

ROS学习

1.ROS工作空间 存放项目开发相关文件的文件夹; src:代码空间(Source Space)install:安装空间(Install Space)build:编译空间(Build Space)log:日志空间(Log Space) 2.c…

visutal studio 2022使用qcustomplot基础教程

编译 下载,2.1.1版支持到Qt6.4 。 拷贝qcustomplot.h和qcustomplot.cpp到项目源目录(Qt project)。 在msvc中将它俩加入项目中。 使用Qt6.8,需要修改两处代码: L6779 # if QT_VERSION > QT_VERSION_CHECK(5, 2, …

非线性动力学笔C5.2线性系统的分类

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言C5 线性系统C5.2 线性系统的分类例5.2.1例5.2.2例5.2.3例5.2.4例5.2.5不动点的分类例5.2.6例5.2.7 前言 提示:这里可以添加本文要记录的大概内容&a…

某生产制造企业积分制考核信息化项目成功案例纪实

某生产制造企业积分制考核信息化项目成功案例纪实 ——打破“大锅饭”“平均主义”问题,持续激励员工,调动员工积极性 【客户行业】生产制造行业 【问题类型】薪酬体系优化 【客户背景】 某大型钢铁集团公司是一个集科工贸、产供销于一体的国有生产…

github用户名密码登陆失效了

问题: git push突然推代码需要登陆,但是用户名和密码正确输入后,却提示403 git push# Username for https://github.com: **** #Password for https://gyp-programmergithub.com: #remote: Permission to gyp-programmer/my-app.git denie…