百面深度学习-图神经网络

百面深度学习-图神经网络部分

什么是图神经网络?

图神经网络(Graph Neural Networks,GNNs)是深度学习模型的一个类别,专门设计来处理图结构数据。在图结构数据中,实体以节点(vertex)的形式表示,实体之间的关系以边(edge)的形式表示。图神经网络通过使用节点的特征信息以及图中的连接模式来学习节点的表示(或嵌入),从而能够进行节点分类、链接预测、图分类等任务。
图神经网络的关键思想是通过一个迭代的过程将每个节点的信息传播到其邻居节点,这一过程称为消息传递(message passing)。在每次迭代中,一个节点将根据自己的特征信息以及其邻居节点的信息来更新自己的状态。这个更新过程一般涉及聚合(aggregating)邻居节点的信息和将聚合后的信息与当前节点的信息合并(combining)。
图神经网络的一般公式可以表示为:

在这里插入图片描述在这里插入图片描述
不同的图神经网络模型会使用不同的聚合和合并策略,一些流行的GNN模型包括:
在这里插入图片描述

什么是图神经网络的图谱和图傅立叶变换?

举一个简单的例子来通俗的解释什么是特征值,特征向量,度矩阵,邻接矩阵,拉普拉斯矩阵。
  • 特征值和特征向量

想象一个公司,这个公司有很多员工,但其中有一些员工非常关键,他们对公司的影响力很大。在数学中,我们把这种对矩阵影响大的“值”称为特征值。与这些“关键员工”相对应的是特征向量,即这些员工对公司的具体影响方式和方向。所以,在矩阵中,特征向量告诉我们矩阵是如何作用于这个向量的,而特征值则告诉我们这个作用的“强度”或者“比例”。

  • 度矩阵(Degree Matrix)

如果将公司的每个员工看作网络中的一个节点,员工之间的交流可以看作是连接节点的边。度矩阵就是一个记录了每个员工(节点)有多少直接交流(边)的表格。在这个表格里,我们只关注每个员工直接联系的人数,不关心他们之间如何相互联系。

  • 邻接矩阵(Adjacency Matrix)

邻接矩阵记录的是员工之间的直接联系情况。如果员工A直接联系员工B,那么在A行B列的位置就是1,否则就是0。所以,邻接矩阵给出了公司内部所有直接一对一联系的一个全貌。

  • 拉普拉斯矩阵(Laplacian Matrix)

现在,如果你想知道一个员工的联系是否过于集中,即他是否只跟少数几个人有联系而忽视了其他人,你可以用度矩阵减去邻接矩阵来查看。这个结果就是拉普拉斯矩阵。它反映了员工的交流模式是否均衡,哪些员工是交流的枢纽,以及员工间的交流是否形成了小团体或是更广泛的网络。拉普拉斯矩阵在网络分析中用来发现结构特性,比如哪些是关键连接点或者网络是如何分段的。

通过这些定义,我们能够了解和分析网络中的模式和结构,无论是社交网络、交通网络,还是电子电路网络,这些数学工具都是非常有用的。

了解以上的一些基础概念的定义,下面解释什么是图谱和图傅立叶变换。
在这里插入图片描述
图神经网络中的时域,频域和傅立叶变换。在图神经网络(GNN)的背景下,时域、频域和傅立叶变换这些概念是从信号处理中借鉴过来的,用于帮助我们理解和分析图上的信息和模式。下面分别解释这三个概念在图神经网络中的应用:
时域
在图神经网络的语境中,“时域”并不直接关联真实的时间变量,而是指的是图中节点的特征和它们之间的边在原始形态下的表示。也就是说,在时域分析中,我们关注的是图中每个节点以及这些节点如何通过边相互连接的直接信息。在时域分析中,GNNs会直接在图的结构上操作,传播节点的特征信息,通过边将信息从一个节点传递到另一个节点。在这个过程中,GNN利用的是节点的局部邻域信息,而不涉及到图的全局频谱特性。**
频域
将图神经网络的分析从时域转移到频域,意味着我们不再直接处理节点的特征和它们的连接方式,而是转而分析图的结构特性的全局视角。频域分析通常涉及图的谱特性,也就是图的全局结构特征,这些特性是通过图的拉普拉斯矩阵和它的特征向量(傅立叶基)以及特征值(频率)来表示的。在频域中,节点特征不是直接在其邻域中传播,而是根据图的谱特性被转换和过滤。低频成分通常代表图中的平滑和慢变化的特征,而高频成分则表示图中的尖锐和快速变化的特征。
傅立叶变换
在图神经网络中,傅立叶变换用于将节点的特征从时域转换到频域。具体来说,图的傅立叶变换涉及到图的拉普拉斯矩阵的特征分解。通过计算拉普拉斯矩阵的特征向量和特征值(横坐标是特征值,纵坐标是特征向量),我们可以将节点的特征信号投影到一组正交的基上,这组基与图的谱特性相对应。变换后的信号(谱表示)可以被用来识别和操作图中的全局模式和结构,比如通过谱滤波器来平滑或增强特定频率的成分。
在实际的GNN模型中,谱方法一般通过构造基于图的拉普拉斯矩阵的卷积操作来实现,这样的操作允许在频域内过滤和处理节点的特征信号。谱图神经网络,如Chebyshev Spectral CNN(ChebyNet)或者图卷积网络(GCN),就是基于这种频域分析的代表模型。
图神经网络中的滤波器的作用
滤波器的目的是让某些信号成分通过,同时减弱或消除其他成分。在图上进行滤波通常涉及到图的拉普拉斯矩阵,因为它包含了图结构的重要信息。拉普拉斯矩阵的特征值和特征向量可以提供图的频谱表示,其中特征值可以被解释为图的频率,而特征向量对应于图的频率分量。
使用特征向量作为转换
这里指的是,我们可以通过计算图的拉普拉斯矩阵的特征分解,得到一组正交的特征向量。这组特征向量可以作为基础,用来定义信号在图频域的表示。就像在传统的傅立叶变换中,我们会将信号分解到不同的频率分量上,图上的特征向量允许我们将图信号分解到不同的图频率分量上。
实现图上的滤波器
则是指我们可以设计一个滤波函数,这个函数在图的频谱上操作。这个函数可以增强(或者通过)特定的频率分量(即特征值对应的分量),同时抑制其他的。在图的频域中应用这个滤波函数,然后再将结果转换回节点域,这就相当于在图上应用了一个滤波器。

滤波器操作和卷积操作的区别是什么?
在这里插入图片描述在这里插入图片描述

以GCN为例,介绍基于频谱域的图神经网络的发展。

基于频谱域的图神经网络(Spectral Graph Neural Networks)的发展可以从图卷积的定义开始说起。图卷积是图神经网络中的核心概念之一,它将传统的卷积神经网络中的卷积操作概括到了图数据上。

  • 图傅立叶变换:

    • 图的傅立叶变换是基于图的拉普拉斯矩阵的特征分解来定义的。通过这个特征分解,可以将图上的信号从节点域转换到谱域(频域)。这个转换使得在图上定义滤波器和卷积操作成为可能。
  • 谱图卷积

    • 早期的图卷积网络是直接基于图的频谱定义的。它们利用了图傅立叶变换将信号转换到频域,在频域中应用滤波器,然后使用逆图傅立叶变换将信号转换回节点域。谱图卷积的定义基于拉普拉斯矩阵的特征分解,这种方法的一个主要问题是计算成本高,特别是对于大图。
  • 简化的谱图卷积:

    • 为了克服原始谱方法的计算复杂性,研究者提出了简化模型。其中最有影响力的是由Kipf和Welling提出的图卷积网络(GCN)。GCN使用了一个近似的层次化卷积滤波器,这个滤波器只依赖于图的邻接矩阵和度矩阵,并且避免了昂贵的特征分解。GCN的关键思想是利用拉普拉斯矩阵的一阶近似来定义卷积,它实际上等价于在每个节点上聚合其邻居的特征。
  • 发展

    • 随着时间的推移,基于频谱的图神经网络的研究也在持续进化。例如,ChebNet使用切比雪夫多项式来近似图滤波器,进一步减少了计算需求,并提高了灵活性。
      此外,也有研究在探索更深的理解图结构和特征之间的关系,例如通过考虑更高阶的邻居,或者更复杂的谱滤波器设计。
  • 挑战:尽管基于频谱的图神经网络在理论上具有坚实的基础,但它们在实践中面临着诸如解释性差、对图的结构变化敏感以及计算复杂性等挑战。

以GAT、GraphSAGE为例,简述基于空间域的图神经网络的主要思想。

图注意力网络
GAT(Graph Attention Networks)利用了注意力机制来加权聚合邻居节点的特征。每个节点会根据与其它节点的关系(即边)和节点特征来动态地学习邻居节点的重要性。具体来说,GAT在每个节点对其邻居节点进行注意力系数的计算,这个注意力系数会告诉模型在聚合时应该给邻居节点的信息赋予多少权重。这个机制允许模型对重要的邻居节点赋予更多的重视,而对不那么重要的邻居节点则赋予较少的关注。注意力系数是通过学习得到的,这使得GAT具有很好的灵活性和适应性。
GraphSAGE
GraphSAGE(Graph Sample and AggreGatE)的主要思想是通过采样和聚合邻居的特征来生成节点嵌入。GraphSAGE不需要整个图的信息,而是通过随机采样一定数量的邻居节点,然后利用聚合函数来合并自身的特征与采样的邻居特征,以此来更新节点的表示。GraphSAGE可以使用不同的聚合函数,如求和(sum)、平均(mean)、池化(pooling)等,以适应不同的场景。通过这种方式,GraphSAGE能够在不同的图和不同的节点上学习到有效的节点嵌入。
这两种方法的共同优点是它们都能有效处理大型图,并且能够捕获节点的局部邻域结构。同时,由于它们不依赖于图的全局结构信息,这两种方法都可以在归纳学习设置下应用,即在看不见的节点上进行预测。而它们的差异主要在于聚合邻居信息的方式不同:GAT依赖于注意力机制来赋予权重,而GraphSAGE则依赖于固定的聚合函数和邻居采样策略。

简述PinSage的模型设计和实现细节。

PinSage是Pinterest开发的一个基于图卷积网络(GCN)的推荐系统。它结合了内容信息和图结构信息,通过高效的随机游走和图卷积,生成了用户和物品(在Pinterest的场景下是“Pin”即图钉)的嵌入表示。以下是PinSage的模型设计和实现细节的简述:
随机游走
PinSage开始于对物品图的随机游走,用于捕获物品间的结构关系。通过长期的随机游走,PinSage能够捕捉到高度相关的物品,并基于这些游走序列为后续的图卷积收集局部邻域信息。
采样邻居
在实际应用中,图中节点的度分布可能非常不平衡,有些节点可能连接着成千上万的其他节点。直接对所有邻居进行聚合运算在计算上是不切实际的,所以PinSage采用了一种基于重要性采样的策略,只选择一部分具有代表性的邻居进行聚合。这种采样可以减少计算量,同时保持邻居信息的丰富性。
图卷积
利用采样的邻居,PinSage通过图卷积层来聚合邻居的特征信息。在每个卷积层中,它将目标节点的特征与邻居节点的特征结合起来,生成新的节点表示。这个过程通常涉及到特征的加权求和(其中权重可能是基于注意力机制计算的)和非线性激活函数。
Q-Learning优化
PinSage使用了Q-learning的变种来进行模型的训练,其目标是优化推荐系统中用户与物品交互的概率。这个过程使得模型学习到用户和物品间交互的动态性和复杂性。
Mini-Batch训练
为了在大规模图数据上有效地训练,PinSage采用了mini-batch训练方法。通过小批量的方式处理节点,可以使得模型训练在有限的计算资源下成为可能,并可以通过并行处理提高效率。

应用:
PinSage的输出嵌入被用于计算用户与物品间的相似度,生成个性化推荐。这些嵌入能够捕捉到用户的偏好和物品的属性,并可以被用于多种下游任务,如相似物品推荐、个性化排序等。总的来说,PinSage的设计针对的是大规模、稀疏的图,它通过有效的邻居采样和图卷积网络,结合强化学习优化策略,生成能够驱动推荐系统的高质量嵌入向量。

基于图神经网络的推理框架有何优势。

复杂关系建模能力: GNN能够有效捕捉实体间复杂的关系和相互作用。在社交网络、生物信息学、知识图谱等领域,这些复杂关系的建模对于准确的数据分析至关重要。
信息聚合机制: GNN通过聚合邻居节点的信息来更新节点状态,这使得每个节点能够收集到其在图中的局部邻域信息,从而提高了推理的准确性。
归纳学习能力: GNN可以从看到的样本中学习到通用的模式,然后将其应用于未见过的数据。这种归纳能力在新节点或动态图中特别有用,因为它允许GNN泛化到新的、未知的情况。
可解释性: 与其他深度学习模型相比,GNN在模型决策方面提供了更好的可解释性。因为它们直接在图结构上运行,易于追踪和解释节点之间的关系和传播路径。
数据融合: GNN框架可以整合多种类型的数据,如节点特征、边特征和全局图结构信息,这为深度融合异构数据提供了可能。
灵活性和适应性: GNN架构可以适应各种大小和类型的图,从小型分子结构到大型社交网络,都可以使用GNN进行分析和推理。
任务适应性: GNN可以被用于各种任务,包括节点分类、链接预测、图分类等,这一多任务适应性使得GNN在不同的应用场景下都能够表现出色。
高效性: 在某些情况下,GNN比传统的深度学习方法更加高效,因为它们通过利用图的稀疏性来减少计算量。

图神经网络的推理机制在其他领域中的应用

Transformer模型就像是一个学习复杂对话的超级机器,它能够同时听取多个人的讨论,并理解每个人的观点是如何与话题相关联的。如果将一段文本比作一场多人参与的讨论,Transformer模型能够一次性把所有人的言论都听进去,然后立刻告诉你每个人的言论之间有什么关联。
这个模型由两大部分组成,类似于一个提问者(编码器)和一个回答者(解码器):

  • 编码器负责“听”每个人的发言。它不是一个接一个地听,而是所有人的发言它都能一次性听到,并且理解每个人说话的内容和重点。这是通过一种叫做“自注意力”的技术做到的,这种技术能够让模型评估每个单词对整个文本段落的重要性,并且给予相应的重视度。
  • 解码器则负责根据提问者提供的信息来生成回答。它在“说”每个单词时,都会考虑到它之前已经“说”过的内容,确保回答是通顺的。同时,它还会参考编码器给出的信息,确保回答内容的准确性。
Transformer之所以取得好效果,主要有下面几个原因:
  • 并行处理:它能够一次性处理整段文本,而不像传统模型那样一步步来,这大大加快了学习速度。
  • 关注重点:通过自注意力机制,它可以识别文本中最有价值的部分,这就像在复杂的对话中能够聚焦于最重要的意见一样。
  • 记忆长距离关系:在长篇文章中,一个想法可能会在文中多次出现,Transformer能够记住这些并理解它们之间的联系。
  • 灵活性:它可以被用于各种不同的任务,如翻译、生成文本等,而且能够很好地适应。

Transformer模型的核心是由编码器(Encoder)解码器(Decoder)组成的,就像是一对高效的沟通伙伴。编码器读取并理解输入的信息(比如一段文本),解码器则用这些信息来产生输出(比如翻译后的文本)。

编码器
编码器由多层相同的层组成,每一层都有两个主要部分。

  • 自注意力机制:这个部分可以让编码器观察到输入序列的每一个元素(比如每个单词),并计算每个元素与序列中其它元素的关联程度。这就像在一群人中,每个人都能清楚地知道其他人在讨论什么
  • 前馈神经网络:在注意力机制之后,每个元素的信息将被送入一个简单的神经网络,进一步加工成更复杂的表示。

每一层的输出都会作为下一层的输入,直到最后一层,我们得到了整个序列的深层表示。

解码器:
解码器的结构与编码器类似,但它还有一个额外的注意力机制来关注编码器的输出。每一层解码器也由三个主要部分组成:

  • 自注意力机制:解码器同样使用自注意力机制,但它只能关注到当前位置之前的输出。
  • 编码器-解码器注意力:这个部分让解码器能够关注编码器的输出,这就像是在生成翻译文本时,解码器会查看原文中的每个单词来决定下一个单词。
  • 前馈神经网络:和编码器中的前馈网络相同,它进一步处理数据。

最后,解码器的输出会通过一个线性层和softmax层,转换成最终的预测结果,比如一个单词的概率分布。

下面伪代码简单介绍了Transformer模型

import torch
import torch.nn as nn
import torch.nn.functional as F

# Transformer模型类定义
class Transformer(nn.Module):
    def __init__(self, ...):  # 初始化函数
        super(Transformer, self).__init__()
        # 编码器层的堆叠,n_layers是堆叠的层数
        self.encoder = nn.ModuleList([EncoderLayer(...) for _ in range(n_layers)])
        # 解码器层的堆叠,n_layers是堆叠的层数
        self.decoder = nn.ModuleList([DecoderLayer(...) for _ in range(n_layers)])
        # ...

# 编码器中的一个层的定义
class EncoderLayer(nn.Module):
    def __init__(self, ...):  # 初始化函数
        super(EncoderLayer, self).__init__()
        # 自注意力机制部分,多头注意力机制的实例化
        self.self_attn = MultiHeadAttention(...)
        # 前馈神经网络部分,包括两层线性变换和一个ReLU激活函数
        self.feed_forward = nn.Sequential(
            nn.Linear(...),  # 第一层线性变换
            nn.ReLU(),      # 激活函数
            nn.Linear(...)  # 第二层线性变换
        )
        # ...

# 解码器中的一个层的定义
class DecoderLayer(nn.Module):
    def __init__(self, ...):  # 初始化函数
        super(DecoderLayer, self).__init__()
        # 解码器的自注意力机制
        self.self_attn = MultiHeadAttention(...)
        # 编码器-解码器间的注意力机制
        self.enc_dec_attn = MultiHeadAttention(...)
        # 前馈神经网络部分,结构同编码器
        self.feed_forward = nn.Sequential(
            nn.Linear(...),
            nn.ReLU(),
            nn.Linear(...)
        )
        # ...

# 示例用法
src = ...  # 输入序列,例如一句话或一段文本
tgt = ...  # 目标序列,例如翻译后的文本
transformer = Transformer(...)  # 创建Transformer模型实例
output = transformer(src, tgt)  # 将输入和目标序列传递给Transformer模型,并获取输出

自注意力机制与注意力机制的区别?

注意力机制是一种在深度学习模型中模拟人类注意力的方法,它允许模型在处理信息时能够聚焦于最重要的部分。简单来说,注意力机制可以让模型决定在给定的上下文中,应该“注意”数据的哪一部分。
例如,在机器翻译任务中,当模型试图翻译一个句子中的某个词时,注意力机制可以帮助模型聚焦于输入句子中与之相关的词,这样可以生成更准确的翻译。

自注意力机制(Self-Attention)
自注意力机制,有时也称为内部注意力机制,是注意力机制的一种特殊形式,它允许模型在同一序列内部的不同位置之间建立直接的关联。换句话说,自注意力允许模型评估一个序列中的每个元素(如单词)如何影响序列中的其他元素。
自注意力机制的关键优势在于它能够捕捉序列内的长距离依赖关系,这在处理具有复杂内部结构的数据(如文本)时尤为重要。例如,一个词的意义可能会受到句子中其他位置词的影响,自注意力机制能够识别并利用这种关系来改善模型的理解。

Transformer模型中,自注意力机制通过计算每个元素与序列中所有其他元素的权重,然后根据这些权重来调整每个元素的表示。这意味着模型不仅可以“看到”每个元素,还可以根据整个序列的内容来理解每个元素的上下文。

在实际应用中,自注意力通常通过一系列计算实现,包括计算查询(Query)、键(Key)和值(Value)的向量,然后利用这些向量来计算权重,并最终生成加权的组合输出。这些计算通常还会通过多头注意力(Multi-Head Attention)的方式进行多次,以从不同的角度捕捉信息,并进一步增强模型的性能。
在这里插入图片描述在这里插入图片描述

Transformer模型中的多头注意力机制是什么?
  • 多头注意力机制(Multi-Head Attention)是Transformer模型中的一个核心组件,它是对传统单头注意力机制的一种扩展和改进。在解释多头注意力之前,先简单回顾下单头注意力机制。
  • 单头注意力机制:在单头注意力机制中,模型计算一个查询(Query)、一个键(Key)和一个值(Value),这三者通常是输入数据的不同表示。模型使用查询来对键进行打分,这个分数表明了每个键的重要程度。然后这些分数被用来加权值,得到最终的输出。

多头注意力机制就是说每次使用不同的权重矩阵,可以视为模型从不同的角度理解和提取信息。

  • 多视角理解:每个“头”捕捉序列中不同的信息,这就像是从多个视角观察问题,能够获得更全面的理解。
  • 提高表征能力:通过多个头并行处理,模型能够在同一时间内学习到数据的多种表示,增加了模型对信息的捕捉能力。
  • 灵活性和鲁棒性:多头机制提高了模型的灵活性和鲁棒性,因为它不依赖于单一的注意力模式。
    在这里插入图片描述
注意力机制除了自注意力机制还有其他的机制吗?
  • 加权注意力(Weighted Attention):这是最基础的注意力形式,模型通过加权平均不同部分的表示来聚焦于最重要的信息。
  • 内容注意力(Content-Based Attention):模型根据输入内容的相似性分配权重,这通常用于序列到序列的模型中,如机器翻译。
  • 位置注意力(Location-Based Attention):权重分配不仅基于内容的相似性,还可能基于位置信息。例如,在图像处理中,模型可能会侧重于图像的某个特定区域。
  • 多头注意力(Multi-Head Attention):自注意力的一种扩展,模型同时执行多个注意力机制,每个机制学习序列的不同表示,然后将结果合并。Transformer模型中就采用了这种机制。
  • 硬注意力(Hard Attention):模型在选择性地关注序列的某些部分,通常涉及到随机性,模型必须决定关注哪部分。
  • 软注意力(Soft Attention):是硬注意力的可微分替代,它允许模型在整个输入上分布关注度,而不是选择单一的焦点点。
  • 层次注意力(Hierarchical Attention):在这个模型中,注意力被应用在多个层次,例如,在处理一篇文章时,模型可能首先关注句子级别,然后是单词级别。
  • 卷积注意力(Convolutional Attention):结合了卷积网络的特征提取能力和注意力机制的聚焦能力,常用于图像处理。
  • 跨模态注意力(Cross-Modal Attention):用于处理多模态数据,例如结合图像和文本,模型会学习如何在两种不同类型的数据之间分配注意力。

这些注意力机制可以独立使用或结合起来使用,以提高模型对复杂数据的处理能力。注意力机制的选择通常取决于特定任务的需求和数据的特点。

不同的注意力方式主要是指分配权重的依赖不同。

是的,不同的注意力方式主要是根据如何分配权重,以及权重依赖于什么信息而有所区别。基本上,注意力机制决定了模型应该“关注”序列中的哪些部分,以及这种关注的程度。

1.基于内容的注意力
在这种方式中,权重的分配主要依赖于查询(Query)和键(Key)之间的相似性或匹配度。比如,在机器翻译任务中,模型可能会根据当前要翻译的词(查询)和原文中每个词(键)之间的关系来分配注意力。
2.基于位置的注意力
这种方式的权重分配依赖于输入序列中的位置信息,而不是仅仅基于内容。这在处理图像或需要关注时间序列中特定时间步的任务中特别有用。
3.自注意力
在自注意力机制中,权重的分配不仅依赖于序列内部的元素之间的关系,而是同时考虑序列中的所有元素。这使得每个元素都能够根据整个序列来调整其表示。
4.多头注意力(Multi-Head Attention)
这种方式实际上是一组并行的注意力机制,每个头都可以有不同的权重分配策略。这允许模型同时从多个角度捕捉序列的信息。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/152318.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

window.open 打开后全屏

window.open(url,newwindow,scrollbarsyes,resizable1,modalfalse,alwaysRaisedyes,fullscreenyes,_blank)

搭建知识付费系统的最佳实践是什么

在数字化时代,搭建一个高效且用户友好的知识付费系统是许多创业者和内容创作者追求的目标。本文将介绍一些搭建知识付费系统的最佳实践,同时提供一些基本的技术代码示例,以帮助你快速入门。 1. 选择合适的技术栈: 搭建知识付费…

Ubuntu20.04安装搜狗输入法

目录 1. sogoupinyin安装1.1 安装 fcitx1.2 下载搜狗官方安装包1.3 安装依赖(这步很关键,否则安装完成后,无法输入中文)1.4 安装刚才下载的搜狗输入法1.5 切换 fcitx1.6 重启电脑1.7 右上角点击Configure,(因为我安装好…

svg图标最简单的使用方式

svg图标最简单的使用方式 使用svg图标1. 复制图标的svg代码2. 新建个存放svg图标的目录&#xff0c;新建.vue文件3. 在<template>标签内粘贴svg的代码4. 在代码中也可以调整颜色和大小5. 在组件中引用6. svg做的图标要独占一行,使用布局将它安排到合适的地方 使用svg图标…

SecureCRT 9.4.2最新终端SSH工具

SecureCRT是一款终端SSH工具&#xff0c;它提供了类似于Telnet和SSH等协议的远程访问功能。SecureCRT软件特色包括&#xff1a; 支持SSH&#xff08;SSH1和SSH2&#xff09;的终端仿真程序&#xff0c;能在Windows下登录UNIX或Linux服务器主机。SecureCRT支持SSH&#xff0c;同…

基于SSM的员工信息管理系统设计与实现

末尾获取源码 开发语言&#xff1a;Java Java开发工具&#xff1a;JDK1.8 后端框架&#xff1a;SSM 前端&#xff1a;采用JSP技术开发 数据库&#xff1a;MySQL5.7和Navicat管理工具结合 服务器&#xff1a;Tomcat8.5 开发软件&#xff1a;IDEA / Eclipse 是否Maven项目&#x…

基于opencv+tensorflow+神经网络的智能银行卡卡号识别系统——深度学习算法应用(含python、模型源码)+数据集(三)

目录 前言总体设计系统整体结构图系统流程图 运行环境模块实现1. 训练集图片处理2. 测试图片处理3. 模型训练及保存1&#xff09;定义模型结构2&#xff09;优化损失函数3&#xff09;模型训练4&#xff09;模型保存 4. 模型测试 系统测试1. 成功案例2. 失败案例 相关其它博客工…

Ubuntu 20.04 LTS ffmpeg gif mp4 互转 许编译安装ffmpeg ;解决gif转mp4转换后无法播放问题

安装ffmpeg apt install ffmpeg -y gif转mp4 ffmpeg -f gif -i ldh.gif ldh.mp4 故障&#xff1a;生成没报错&#xff0c;但mp4无法播放&#xff0c;体积也不正常 尝试编译安装最新版 sudo apt install -y yasm axel -n 100 https://ffmpeg.org/releases/ffmpeg-6.0.1.tar.x…

基于Element-Plus动态配置Menu 菜单栏

文章目录 前言先看效果可兼容多级菜单栏&#xff08;顺便配置多少级&#xff09; 一、新建组件二、使用步骤总结如有启发&#xff0c;可点赞收藏哟~ 前言 菜单栏配置化 图标配置化参考vite动态配置svg图标及其他方式集合 先看效果 可兼容多级菜单栏&#xff08;顺便配置多少级…

代码随想录算法训练营|五十三天

判断子序列 392. 判断子序列 - 力扣&#xff08;LeetCode&#xff09; 过程&#xff1a; public class Solution {public bool IsSubsequence(string s, string t) {int[,] dp new int[s.Length 1, t.Length 1];for (int i 1; i < s.Length; i) {for (int j 1; j <…

ElasticSearch集群内存占用高?如何降低内存占用看这篇文章就够啦!(冻结索引)

ElasticSearch集群内存占用高&#xff1f;如果降低内存占用看这篇文章就够啦 一、冻结索引的介绍 经常搜索的索引被保留在内存中&#xff0c;因为重建索引和帮助高效搜索需要花费时间。另一方面&#xff0c;可能存在我们很少访问的索引。这些索引不需要占用内存&#xff0c;可…

ref属性

Vue 中 可以给标签&#xff08;HTML元素标签、组件标签&#xff09;加上一个 ref 属性&#xff0c;作用就是给 标签加上一个标识&#xff0c;可以通过该标识获取当前需要的DOM元素或者组件实例对象。 通过原生js获取DOM 如果使用原生js来获取DOM元素时&#xff0c;我们最简单的…

Unity--互动组件(Toggle Group)||Unity--互动组件(Slider)

Toggle Group 属于同一组的切换开关受到限制&#xff0c;因此一次只能打开其中一个开关&#xff0c;按下其中一个开关时&#xff0c;其他的开关将会自动关闭&#xff1b; Allow Switch Off&#xff1a;&#xff08;允许关闭&#xff09; 如果禁用此设置&#xff0c;则按下当前…

2024年度“阳江市惠民保”正式发布!

11月14日&#xff0c;2024年度“阳江市惠民保”暨百场义诊活动发布会在阳江市华邑酒店顺利举行。2024年度“阳江市惠民保”一年保费最低只要59元&#xff0c;最高可获得400万元的医疗保障。 阳江市人民政府、阳江市医疗保障局、阳江市农业农村局、阳江市金融工作局、国家金融监…

【linux】htop 命令行工具使用

htop是一个跨平台的交互式流程查看器。 htop允许垂直和水平滚动进程列表&#xff0c;以查看它们的完整命令行和相关信息&#xff0c;如内存和CPU消耗。还显示了系统范围的信息&#xff0c;如负载平均值或交换使用情况。 显示的信息可以通过图形设置进行配置&#xff0c;并且可…

力扣160:相交链表

力扣160&#xff1a;相交链表 题目描述&#xff1a; 给你两个单链表的头节点 headA 和 headB &#xff0c;请你找出并返回两个单链表相交的起始节点。如果两个链表不存在相交节点&#xff0c;返回 null 。 图示两个链表在节点 c1 开始相交&#xff1a; 题目数据 保证 整个链式…

避免defer陷阱:拆解延迟语句,掌握正确使用方法

基本概念 Go语言的延迟语句defer有哪些特点&#xff1f;通常在什么情况下使用&#xff1f; Go语言的延迟语句&#xff08;defer statement&#xff09;具有以下特点&#xff1a; 延迟执行&#xff1a;延迟语句会在包含它的函数执行结束前执行&#xff0c;无论函数是正常返回还是…

2023年数维杯国际赛赛题思路浅析(快速选题)

2023年数维杯国际赛作为今年下半年第一场数模英文论文竞赛如期开赛。本次赛题的题设&#xff0c;难度开始向2020年之前的国赛看齐。比赛仿照美赛设置了MCM两道&#xff0c;ICM两道。需要注意的是与其他常规数模竞赛不同的是该竞赛支持各参赛队不区分组别&#xff0c;可从4套题中…

医疗软件制造商如何实施静态分析,满足 FDA 医疗器械网络安全验证

随着 FDA 对网络安全验证和标准提出更多要求&#xff0c;医疗软件制造商需要采用静态分析来确保其软件满足这些新的安全标准。继续阅读以了解如何实施静态分析来满足这些安全要求。 随着 FDA 在其软件验证指南中添加更多网络安全要求&#xff0c;医疗设备制造商可以转向静态分…

WorkPlus即时通讯app支持多种信创环境组合运行

在信息技术领域&#xff0c;国产信创技术的快速发展为企业带来了更多的选择和机会。在此背景下&#xff0c;WorkPlus作为一款全方位的移动数字化平台&#xff0c;全面支持国产信创操作系统、芯片和数据库&#xff0c;并且全面兼容鸿蒙操作系统。这一优势使得WorkPlus成为了企业…