自然语言处理(NLP)—— 语义关系提取

        语义关系是指名词或名词短语之间的联系。这些关系可以是表面形式(名词性实体)之间的联系,也可以是知识工程中概念之间的联系。在自然语言处理(NLP)和文本挖掘领域,识别和理解这些语义关系对于信息提取、知识图谱的构建以及文本理解都是非常重要的。

1 语义关系的例子

        同义词(Synonymy):两个或多个词在某种语境中具有相同或相似的意义
        反义词(Antonymy):词与其对立意义的词之间的关系。
        上下位关系(Hyponymy/Hypernymy):一个词是另一个词的下位词(更具体的意义),或上位词(更一般的意义)。
        全体-部分关系(Meronymy/Holonymy):一个词表示另一个词的部分,或者整体。
        因果关系(Causality):一个事件或状态导致另一个事件或状态。

2 语义关系提取的早期方法:Hearst模式的方法

        Martí Hearst在1992年提出了一种基于模式的方法来提取文本中的语义关系。她使用了特定的词汇模式来自动发现文本中的上下位关系,例如:

        NP such as {NP,}* {(or|and)} NP: 这个模式可以用来识别一组事物中的上位词和下位词,例如,fruits such as apples, bananas, or grapes”。

        such NP as {NP,}* {(or|and)} NP这个模式与上一个相似,用于识别同一组事物,例如,such tools as hammers, saws, and nails

        NP {, NP}* {,} {(or|and)} other NP这个模式用于识别一组同级事物,以及它们共同的上位概念,例如,dogs, cats, and other pets

        NP{,} (including|especially) {NP,}* (or|and) NP这个模式指出了包含关系,例如,healthy foods, especially fruits and vegetables

        Hearst在Grolier’s American Academic Encyclopedia上应用了这些模式,从中提取了152种关系。通过这种方式,她能够自动从大型文本集合中提取出有用的语义关系,这些关系对于构建词典、本体和知识库非常有价值。随着技术的发展,后来的研究者们提出了更多更为精细的算法和模型来提取和处理语义关系。

3 自助法(Bootstrapping)

        自助法(Bootstrapping)是一种迭代方法,常用于信息提取、自然语言处理等领域,特别是在有限或没有标注数据的情况下。它通过从少量的种子信息开始,逐步增加和细化 模式或数据集。

        Riloff和Jones在1999年介绍了一种利用自助法来迭代提取语义关系的方法

3.1 过程

        a.初始模式:从Hearst提出的那样的模式开始,这些模式是用来发现文本中特定语义关系的。
   
        b.提取名词性实体:使用这些模式提取出名词或名词短语(nominals)

        c.寻找新关系:在提取的名词性实体之间寻找新的语义关系

        d.模式扩展:将新发现的关系添加到模式集合中

        e.迭代:使用更新后的模式集合重新开始上述过程

        这个过程会不断循环,每一轮都可能发现新的关系和模式,从而逐渐扩大知识库。

        然而,自助法在迭代过程中可能会引入噪声,导致所谓的 语义漂移(semantic drift),即随着迭代次数的增加,提取的信息可能会逐渐偏离原始的准确关系。

3.2 模式评分函数 —— 特异性

        为了避免语义漂移,可以引入一个模式评分函数,称为特异性(specificity)。这个函数的目的是评估一个模式的准确性。具体公式如下:

\text{specificity}(P) = -\log(P(X \in \text{MC}(P)))

        这里,P是一个模式\text{MC}(P)是语料库C中所有匹配该模式的元组集合X是一个在由模式目标关系确定的元组上均匀分布的随机变量。特异性分数越高,意味着模式与目标关系匹配得越好,因此被视为越可靠。这种方法可以帮助识别和保留高质量的模式,而去除那些可能导致语义漂移的低质量模式。

3.3 改进方法

        在2006年,Pantel和Pennacchiotti介绍了一种基于模式和关系可靠性的递归计算方法。这种方法旨在提升自助法(Bootstrapping)在信息提取过程中的准确性,特别是在自动提取语义关系时。通过计算模式(Patterns)和关系实例(Relation Instances)的可靠性,可以有效减少语义漂移(Semantic Drift)的问题。

4 可靠性的计算方法

        可靠性的计算基于点互信息(Point-wise Mutual Information, PMI),这是一种衡量两个变量之间关联程度的统计指标PMI通过比较两个变量共同出现的概率与它们各自独立出现概率的乘积的比值,来量化这种关联。

        对于模式P的可靠性r_\pi(P),以及关系实例I的可靠性r_\ell(I),计算公式如下:

        模式P的可靠性:

r_\pi(P) = \frac{\sum_{I \in I} \text{PMI}(I,P)}{\max_{I,P} \text{PMI}(I,P)} \cdot \frac{r_\ell(I)}{|I|}

        关系实例I的可靠性:

r_\ell(I) = \frac{\sum_{P \in P} \text{PMI}(I,P)}{\max_{I,P} \text{PMI}(I,P)} \cdot \frac{r_\pi(P)}{|P|}

        在这里,|I||P|分别是关系实例和模式的数量\text{PMI}(I,P)关系实例I和模式P之间的点互信息。

4.1 递归计算的方法

        递归开始时,给定的种子模式和种子关系实例被赋予初值1,作为它们的初始可靠性
        然后,通过反复使用上述公式递归计算,逐渐更新每个模式和关系实例的可靠性。这个过程中,高PMI值的模式和关系实例的可靠性会增加,而低PMI值的则会减少。
        这种递归计算方法使得可以从初始种子集合开始,逐步扩展到更广泛的模式和关系实例,同时保持对可靠性的控制。

        通过这种方法,可以有效地提高信息提取过程的质量,减少因引入不相关或错误模式和关系实例导致的误差,从而提高最终结果的准确性和可靠性。

5 SPMI

        在2018年,Roller等人采用了类似于Hearst模式的一组稍长的模式列表,在一个非常大的语料库上提取所有潜在的上下位(is-a)关系对。他们的工作展示了如何结合传统的模式匹配方法现代的数学技术(如奇异值分解,SVD)来提高语义关系提取的质量和准确性

5.1 构建矩阵M

        a.基于Hearst模式提取is-a对:首先,他们使用扩展的Hearst模式列表从大型语料库中自动提取潜在的上下位关系对。
        b.使用PMI填充矩阵M:接着,构建一个矩阵M,其中包含这些上下位关系对。矩阵M的单元格值是点互信息(PMI),用于表示词对之间的语义相关性。这个矩阵通常是不对称的。

5.2 奇异值分解

        a.对M进行奇异值分解:然后,通过奇异值分解将矩阵M分解为U\Sigma V^T,其\Sigma是一个包含按降序排列的奇异值的对角矩阵。
        b.截断奇异值:选择截断版本的\Sigma,即\Sigma',以减少维度,同时保留最重要的语义信息

5.3 计算SPMI

        a.定义SPMI:利用截断后的矩阵M' = U'\Sigma'V'^T,定义一种基于奇异值的超上位词(hyperonymy,即上下位关系)预测函数SPMI(Singular Pointwise Mutual Information)。
        b.计算方法:对于任意的词对x, y,通过利用xy对应的U(或U')和V(或V')中的行u_xv_y来计算它们的SPMI值:SPMI(x, y) = u_x^T \Sigma' v_y

5.4 SPMI的应用

        SPMI值可以被用作预测词对之间是否存在上下位关系的依据。这种方法不仅利用了从文本中直接提取的模式,还通过奇异值分解来捕获和利用词对之间深层的可能不那么显而易见的语义关系。相比直接使用原始的PMI,SPMI通过聚焦于最重要的语义维度,可以更有效地预测上下位关系,从而提高语义关系提取的准确性和可靠性。

6 分布式包含假设与分布式信息量假设

        这两个假设,分布式包含假设(Distributional Inclusion Hypothesis)和分布式信息量假设(Distributional Informativeness Hypothesis),都是在探索词汇语义泛化(generality)和它们在大型文本语料库中的使用模式之间的联系。这些假设为自然语言处理(NLP)中的语义分析提供了理论基础,尤其是在词义的自动识别和分类上。

6.1 分布式信息量假设

        根据Santus于2017年提出的 分布式信息量假设,一个术语的泛化程度可以通过其最典型上下文的信息量来推断。这意味着,如果一个术语在其上下文中提供了丰富的、独特的信息,那么这个术语就更具体;反之,如果一个术语的上下文信息量较低,那么这个术语就更加泛化。这个假设的核心在于,通过分析一个词在文本中出现的上下文,我们可以对这个词的语义泛化程度进行量化。

6.2 分布式包含假设

        分布式包含假设,由Santus等人在2014年提出,声称如果t't的上位词(hyperonym),那么t的上下文集合是t'的上下文集合的子集。简而言之,这意味着一个词的所有上下文也应适用于其上位词。这个假设基于观察,即更泛化的术语倾向于在更广泛的上下文中出现,而更具体的术语则在更狭窄的上下文中出现。

6.3 语义泛化指数

        为了量化一个术语的语义泛化程度,Santus等人定义了 语义泛化指数,该指数基于术语的特征列表计算得出。对于术语w_i,其语义泛化指数E_{w_i}是通过计算最频繁出现的N个上下文的熵的中位数来得到的,其中熵H(c)是给定上下文c中术语特征的熵:

H(c) = -\sum_{f_i \text{ (features of terms in the context } c)} P(f_i|c) \log_2 P(f_i|c)

        这个公式计算了给定上下文中特征出现概率的熵,高熵值表示在该上下文中出现的术语特征分布较为均匀,反映了较高的语义泛化程度;低熵值则意味着某些特征出现的概率远高于其他特征,反映了较低的语义泛化程度。

        这两个假设和语义泛化指数在自然语言处理中尤其是在自动词义识别、词义消歧和知识图谱构建等领域提供了重要的理论支持和实用工具。        

6.4 SLQS

        根据分布式包含/信息量假设,可以通过术语的上下文来评估其语义泛化程度和潜在的上下位关系。Santus, Lenci, Qin, Schulte (SLQS) 提出的方法进一步精细化了这一理论,特别是在自然语言处理和语义分析领域。

6.4.1 语义泛化指数E_{w_i}

        术语w_i的语义泛化指数E_{w_i} 通过计算该术语最重要的N 个上下文的熵的中位数来得到。这里的c_j表示w_i 的第j个上下文,H(c_j)是该上下文的熵。公式如下:

        E_{w_i} = \text{Median}_{j=1}^N (H(c_j))

        熵H(c_j)反映了在给定上下文中词汇特征分布的多样性。高熵值表示该词在不同上下文中具有较广泛的语义应用,从而指示了较高的语义泛化程度;而低熵值则表明该词在较为特定的上下文中使用,指示了较低的语义泛化程度。

6.4.2 SLQS 计算上下位关系

        两个术语w_1w_2之间的潜在上下位关系可以通过 SLQS 公式来计算:

SLQS(w_1, w_2) = 1 - \frac{E_{w_1}}{E_{w_2}}

        这里,如果w_1的泛化程度小于w_2(即E_{w_1} < E_{w_2}),则SLQS(w_1, w_2)的值接近于 1,表明 w_1可能是w_2的下位词。反之,如果w_1的泛化程度大于或等于w_2SLQS(w_1, w_2)的值会小于或等于 0,表明w_1不太可能是w_2的下位词。

6.4.3 应用

        SLQS 方法为自动识别文本中的上下位关系提供了一种有效的工具,这对于构建知识图谱、提高信息检索的准确性以及改善语义搜索等应用都非常重要。通过分析词汇在大量文本中的分布情况,SLQS 有助于揭示词汇之间复杂的语义关系,为理解和处理自然语言提供了有力的支持。

7 双锚点模式

        图中展示的可能是一种知识图谱或语义网络,描绘了不同动物类别之间的上下位关系(即语义关系)。这个网络通过节点(动物或动物类别)和边(表示这些类别之间的关系)来说明动物界的分类体系。

        在提取这类关系时,使用单一锚点的模式(如“such as jaguar”)可能会带来噪声,因为“jaguar”(捷豹)这个词具有多义性——它既可以指代一种动物,也可以指代汽车品牌等。

        为了避免这种多义性问题,Kozareva等人在2008年引入了双锚点模式(doubly-anchored patterns),例如“* such as jaguar and *”。这样的模式通过在句子中提供两个锚点(通常是同一类别中的两个实例),减少了错误抽取的风险,因为提取算法需要同时找到匹配两个锚点的上下文。

        在2010年,Kozareva等人采用自助法(bootstrapping)的方式应用双锚点模式迭代地提取和细化上位词(hyperonyms)。在每一轮迭代中,他们会保留最相关的上位词,这些上位词被用作后续迭代中新模式的种子。这样,随着迭代的进行,系统能够自动识别和增强相关的上下位关系,从而提高提取这些关系的准确性。

        图中所示的网络中的点和线代表了动物和它们之间的分类关系。例如,felines(猫科动物)是“lion”(狮子)、“tiger”(老虎)和“puma”(美洲狮)的上位词。这种关系可以用双锚点模式来精确提取,例如“* such as lion and tiger”,来确定“felines”是这两种动物的一个共同的上位类别。

8 相似度模型

        关系的“形状”或表现可以通过不同的语言模式来观察。例如,“shot against the flu,” “shot to prevent the flu” 和 “flu shot” 这三个短语都表达了某种关于预防流感的接种活动,但它们的结构和表述方式各不相同。问题是,我们如何知道两个短语是否表示相同的关系?

8.1 字符串相似度模型

        在字符串相似度模型中,两个短语s1和s2表示相同关系R的概率可以用一个基于相似度函数的概率模型来估计:

P(R | \text{sim}(s1, s2)) = \frac{\alpha \cdot \text{sim}(s1, s2) + 1}{\alpha + \beta}

        这里的sim函数可以是任何度量字符串之间相似性的函数,如莱文斯坦编辑距离(Levenshtein string edit distance),这是衡量两个字符串之间通过插入、删除或替换操作转换成对方所需的最少操作数。

8.2 分布式相似度模型

        在分布式相似度模型中,Lin & Pantel (2001) 提出的DIRT(发现推理规则)算法使用上下文信息来推断关系。DIRT算法通过以下步骤实现关系发现:

8.2.1 提取关系三元组

        他们从文本中提取形如(r, w1, w2)的关系,其中w1和w2是名词或名词短语,r是包含动词的依存关系路径。

8.2.2 比较依存路径

        通过比较不同实例中的依存路径(r*, w1, w2),DIRT算法可以推断不同的依存关系路径ri之间的相似性。

        这种方法依赖于观察,不同的词或短语如果在相似的上下文中以相似的方式使用,它们可能表示相同的或类似的语义关系。DIRT算法通过分析这种上下文共现信息来发现可能的推理规则,从而揭示隐含的语义关系。

        总的来说,这两种模型都试图通过不同的方式理解和识别语言中的隐含关系,无论是通过直接比较字符串的形式,还是通过考虑它们的分布式上下文特征。这些模型对于信息提取、知识图谱的构建、问答系统和机器翻译等NLP应用都有重要的意义。

9 无限关系模型

        无限关系模型(Infinite Relational Model, IRM)是一种非参数贝叶斯模型,用于发现数据中的潜在结构,尤其是用于识别术语对和关系之间的聚类模式。在IRM中,数据被视为术语对和关系之间的相互作用,通过这种方法,可以识别出表示相同关系的术语聚类,以及连接相同术语对的关系聚类。

        IRM的核心思想是在给定的数据中发现一个无限数量的潜在聚类,它允许模型根据数据的复杂性动态调整聚类的数量。这个特性来自于其使用了Dirichlet过程,这是一种非参数贝叶斯方法,可以根据数据集的大小和多样性来自适应地确定聚类的数量。

9.1 Kemp等人(2006年)的IRM

        Kemp等人在2006年提出的IRM是这样一个迭代模型,其中一种类型的聚类(例如术语聚类)是由另一种类型的聚类(例如关系聚类)构建出来的。该模型交替地考虑术语对和关系之间的关联,通过这种迭代过程,逐渐改进对数据中关系结构的估计。

9.2 Davidov和Rappoport(2008年)的方法

        Davidov和Rappoport在2008年提出了一种使用模式来挖掘数据中的术语和关系的方法。他们使用的模式包含内容词(CW)和高频词(*fix,如前缀、中缀、后缀),来识别文本中的相关信息。例如:

prefix CW1 infix CW2 postfix

        这里的CW1和CW2是内容词,而prefix、infix和postfix则是连接这些内容词的高频词。通过这些模式,他们能够自动地从文本中提取可能表示特定关系的术语对。

        这种方法特别有助于从大规模文本数据中发现那些可能没有明确表述的推理规则和关系,从而增强机器对自然语言中隐含关系的理解和推理能力。这种模式和IRM的结合使用,可以有效地揭示文本数据中的复杂关系结构,这在知识发现和自然语言理解领域是非常有价值的。

10 远程监督(Distant Supervision)

        远程监督(Distant Supervision)是自然语言处理领域的一个技术,它使用从一个任务中获取的数据来训练另一个相关任务。这种方法的核心思想是,如果我们知道两个实体之间存在某种关系,那么任何提及这两个实体的文本都可能是这种关系的一个实例。

10.1 远程监督的应用

        远程监督通常用于那些难以获取大量手工标注数据的场景,特别是在实体关系提取任务中。例如,我们可以使用以下资源进行远程监督:

        WordNet:用于获取同义词、反义词、上下位关系等语义关系。
        Wikipedia:作为丰富的知识源,用于抽取事实性信息,如人物关系、历史事件等。
        Wikidata:提供结构化的知识库,包含各种实体和它们之间的关系。

        通过这些语料库,我们可以自动构建训练数据集。例如,如果Wikidata告诉我们“Obama”是“美国总统”的一个实例,那么任何包含“Obama”和“美国总统”的句子都可能被用作提取“总统”关系的训练实例。

10.2 远程监督的挑战

        远程监督的挑战包括:

        噪声:不是所有提及两个实体的文本都确实表达了我们感兴趣的关系。有时文本可能在谈论其他事情。
        偏差:远程监督假设所有提及特定实体的句子都与已知的关系有关,这可能导致训练数据偏差。此外,多义性(polysemy)问题也会增加噪声,因为同一个词或短语在不同上下文中可能有不同的意义。

        尽管存在这些挑战,远程监督是提高大规模数据集上监督学习性能的一种有效方法。通过合适的清洗和处理步骤,我们可以缓解噪声和偏差的问题,从而利用这些方法来提高模型的性能和泛化能力。

10 项目NELL

        项目NELL(Never-Ending Language Learning)是由卡内基梅隆大学开展的一项研究项目,旨在创建一个持续学习和读取网络信息的计算系统。从2010年开始,NELL系统已经不断地从网络上提取信息,并试图从找到的文本中读取并理解事实。

10.1 NELL项目的关键特点

        持续学习:NELL旨在模拟一个永不停歇的学习过程,它每天尝试从互联网上读取和提取新的信息。
        任务:它主要执行两项任务:一是提取文本中的事实;二是改进其阅读能力,以便在未来能更准确地从网络上提取更多事实。
        开始规模:项目启动时,NELL识别了大约600种关系,每种关系有10到20个示例。
        增长:截至Tom Mitchell于2015年的报道,NELL已经提取了大约5000万个关系,其中280万个是高置信度的关系。

        这个项目的成果不仅展示了机器学习和人工智能在文本理解方面的进步,还为如何构建和维护大型知识库提供了见解。NELL系统不断利用新的数据来增强其模型,通过这种方式,它可以不断地优化自己的学习算法,以更好地识别和理解新的概念和事实。这个系统也体现了远程监督等技术的实际应用,通过从现有的数据资源中学习,不断提升自身的阅读和理解能力。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/452510.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

[媒体宣传]上海有哪些可以邀约的新闻媒体资源汇总

传媒如春雨&#xff0c;润物细无声&#xff0c;大家好&#xff0c;我是51媒体网胡老师。 上海作为中国最大的城市之一&#xff0c;拥有丰富的新闻媒体资源。以下是一些可以邀约的新闻媒体资源汇总&#xff1a; 报纸媒体&#xff1a; 《新民晚报》&#xff1a;上海最具影响力…

C#,红黑树(Red-Black Tree)的构造,插入、删除及修复、查找的算法与源代码

1 红黑树(Red-Black Tree) 如果二叉搜索树满足以下红黑属性,则它是红黑树: 每个节点不是红色就是黑色。根是黑色的。每片叶子(无)都是黑色的。如果一个节点是红色的,那么它的两个子节点都是黑色的。对于每个节点,从节点到后代叶的所有路径都包含相同数量的黑色节点。红…

Linux进程概念(2)

一、进程状态 Linux的进程状态实际上就是 struct task_struct 结构体中的一个变量 1.1状态汇总 其中&#xff0c;Linux 状态是用数组储存的&#xff0c;如下&#xff1a; static const char * const task_state_array[] { "R (running)", // 0 …

OceanBase4.2版本 Docker 体验

&#x1f4e2;&#x1f4e2;&#x1f4e2;&#x1f4e3;&#x1f4e3;&#x1f4e3; 哈喽&#xff01;大家好&#xff0c;我是【IT邦德】&#xff0c;江湖人称jeames007&#xff0c;10余年DBA及大数据工作经验 一位上进心十足的【大数据领域博主】&#xff01;&#x1f61c;&am…

Unity开发中Partial 详细使用案例

文章目录 **1. 分割大型类****2. 与 Unity 自动生成代码协同工作****3. 团队协作****4. 共享通用逻辑****5. 自定义编辑器相关代码****6. 配合 Unity 的 ScriptableObjects 使用****7. 多人协作与版本控制系统友好** 在 Unity 开发中&#xff0c; partial 关键字是 C# 语言提供…

ChatGPT提问技巧——问题解答提示

ChatGPT提问技巧——问题解答提示 问题解答提示是一种允许模型生成回答特定问题或任务的文本的技术。要做到这一点&#xff0c;需要向模型提供一个问题或任务作为输入&#xff0c;以及与该问题或任务相关的任何附加信息。 一些提示示例及其公式如下&#xff1a; 示例 1&…

低代码开发平台-企业级可视化快速开发工具

一、你们是否也遇到了以下问题 &#xff08;1&#xff09;作为传统型的软件公司&#xff0c;你们是否也遇到以下困扰&#xff1a; &#xff08;2&#xff09;作为大型企业软件开发部&#xff0c;你们是否也遇到以下困扰&#xff1a; 二、低代码平台介绍 MSPF快速开发平台是一…

基于YOLOv8/YOLOv7/YOLOv6/YOLOv5的障碍物检测系统(深度学习代码+UI界面+训练数据集)

摘要&#xff1a;开发障碍物检测系统对于道路安全性具有关键作用。本篇博客详细介绍了如何运用深度学习构建一个障碍物检测系统&#xff0c;并提供了完整的实现代码。该系统基于强大的YOLOv8算法&#xff0c;并对比了YOLOv7、YOLOv6、YOLOv5&#xff0c;展示了不同模型间的性能…

Elasticsearch使用Kibana进行基础操作

一、Restful接口 Elasticsearch通过RESTful接口提供与其进行交互的方式。在ES中&#xff0c;提供了功能丰富的RESTful API的操作&#xff0c;包括CRUD、创建索引、删除索引等操作。你可以用你最喜爱的 web 客户端访问 Elasticsearch 。事实上&#xff0c;你甚至可以使用 curl …

国内新闻媒体排行,如何邀约媒体现场造势?

传媒如春雨&#xff0c;润物细无声&#xff0c;大家好&#xff0c;我是51媒体网胡老师。 国内新闻媒体排行可以根据多个维度进行&#xff0c;例如影响力、发行量、网站流量等。以下是一些常见的国内新闻媒体排名方式&#xff1a; 综合影响力排名&#xff1a;人民日报、新华社、…

RocketMQ 面试题及答案整理,最新面试题

RocketMQ的消息存储机制是如何设计的&#xff1f; RocketMQ消息存储机制的设计原理&#xff1a; 1、CommitLog文件&#xff1a; 所有的消息都存储在一个连续的CommitLog文件中&#xff0c;保证了消息的顺序写入&#xff0c;提高写入性能。 2、消费队列&#xff1a; 为每个主…

honle电源维修UV电源控制器维修EVG EPS60

好乐UV电源控制器维修&#xff1b;honle控制器维修&#xff1b;UV电源维修MUC-Steuermodul 2 LΛmpen D-82166 主要维修型号&#xff1a; EVG EPS 60/120、EVG EPS 100、EVG EPS200、EVG EPS 220、EVG EPS 340、EVG EPS40C-HMI、EVG EPS60 HONLE好乐uv电源维修故障包括&#…

理论学习 BatchNorm2d

import torch import torch.nn as nn# With Learnable Parameters m nn.BatchNorm2d(100) # Without Learnable Parameters m nn.BatchNorm2d(100, affineFalse) input torch.randn(20, 100, 35, 45) output m(input)print(output) print(output.shape)这段代码展示了如何使…

Unity制作马赛克效果

大家好&#xff0c;我是阿赵。   之前在玩怒之铁拳4里面&#xff0c;看到了马赛克场景转换的效果&#xff0c;觉得很有趣&#xff0c;于是也来做一下。 一、2D版本的马赛克转场效果 先看看视频效果&#xff1a; 马赛克转场 这里我是直接写shader实现的&#xff0c;我这里是把…

案例分析篇14:信息系统安全设计考点(2024年软考高级系统架构设计师冲刺知识点总结系列文章)

专栏系列文章推荐: 2024高级系统架构设计师备考资料(高频考点&真题&经验)https://blog.csdn.net/seeker1994/category_12593400.html 【历年案例分析真题考点汇总】与【专栏文章案例分析高频考点目录】(2024年软考高级系统架构设计师冲刺知识点总结-案例分析篇-…

Unity WebGL服务器标头的问题

目录 现象&#xff1a; 报错文本: 原因: 解决方案: 现象&#xff1a; 打包前&#xff0c;ProjectSetting 压缩选项设置为Brotli, 将打包的WebGL部署到阿里云OSS环境后&#xff0c;运行弹框提示错误. 报错文本: Unable to parse Build/WebGL.framework.js.br! This canha…

凡得首席战略官蔡聪,将出席“ISIG-流程挖掘技术与应用发展峰会”

3月16日&#xff0c;第四届「ISIG中国产业智能大会」将在上海中庚聚龙酒店拉开序幕。本届大会由苏州市金融科技协会指导&#xff0c;企智未来科技&#xff08;RPA中国、AIGC开放社区、LowCode低码时代&#xff09;主办。大会旨在聚合每一位产业成员的力量&#xff0c;深入探索R…

【报错】File ‘xxx.ui‘ is not valid

Q: Pysider6中设计好的ui转py时&#xff0c;出现File ‘xxx.ui’ is not valid A&#xff1a; 重新配置外部工具 $FileName$ -o $FileNameWithoutExtension$.py $FileDir$

抢先了解:阿里巴巴面试必问!Spring设计思想解析

大家好,我是小米!今天,我要和大家一起探讨阿里巴巴面试中常见的一个热门话题:“Spring设计思想”!如果你也对这个话题感兴趣,那就跟着我一起来了解一下吧! IOC 控制反转 首先,我们来聊聊IOC 控制反转。在软件开发中,IOC(Inversion of Control)即控制反转,是一种重…

第42期 | GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区&#xff0c;集成了生成预训练Transformer&#xff08;GPT&#xff09;、人工智能生成内容&#xff08;AIGC&#xff09;以及大语言模型&#xff08;LLM&#xff09;等安全领域应用的知识。在这里&#xff0c;您可以找…