自然语言处理(NLP)—— 主题建模

1. 主题建模的概念

        主题建模(Topic Modeling)是一种用于发现文档集合(语料库)中的主题(或称为主题、议题、概念)的统计模型。在自然语言处理和文本挖掘领域,主题建模是理解和提取大量文本数据隐藏主题的一种常用方法。

1.1 主题建模的关键特点

        主题:在主题建模中,主题通常被定义为一共现的词汇这些词汇在语料库中的文档集合里代表了某种特定的概念或话题。
        词汇的概率:每个主题都由一组单词及其相关概率构成,这些概率表示了单词在该主题中的重要性或出现频率。
        单词的多主题属性:同一个单词可以出现在多个主题中,并且在不同主题中具有不同的概率。这反映了词汇在不同语境下的多义性。
        主题的解释性:生成的主题可能语义上是有意义的,即它们代表了容易理解和识别的概念;也可能是抽象的,不容易直接解释。

1.2 主题建模的算法

        隐含狄利克雷分布(Latent Dirichlet Allocation, LDA):LDA是最广泛使用的主题建模算法之一。它假设文档是由多个主题的混合生成的,每个主题又是由多个单词的混合生成的。
        非负矩阵分解(Non-negative Matrix Factorization, NMF):NMF通过分解词频矩阵来发现文档-主题和主题-词汇之间的关系。

1.3 主题建模的应用

        主题建模可以应用于许多场景,包括但不限于:

        文档分类:通过别文档的主要主题来对其进行分类
        推荐系统:通过发现用户兴趣的主题来提升内容推荐的相关性。
        信息检索:增强搜索算法,让其能根据主题而非单个关键词来检索文档。
        趋势分析:在时间序列数据中识别和跟踪主题的流行度变化。

        通过主题建模,研究人员和数据分析师能够从大量的文本数据中抽象出有用的信息,以便进一步的分析和决策制定。

2. 潜在语义分析(Latent Semantic Analysis,LSA)

        潜在语义分析(Latent Semantic Analysis,LSA)是一种用于文本处理的技术,可以揭示文档集合中隐藏的语义结构。LSA通过数学模型捕获词语与文档之间的关系,并能够减少数据的噪声和维度,从而发现词义上的模式和趋势

2.1 LSA的关键步骤

2.1.1 构建术语/文档矩阵M

        每一行代表一个文档,每一列代表一个术语(单词)

2.1.2 使用TF-IDF代替术语计数

\text{tfidf}(w_0, d_0) = \text{occur}_{d_0}(w_0) \times \log \frac{\#d}{\#\{d | w_0 \in d\}}

这里,

  •         \text{tfidf}(w_0, d_0)是单词w_0在文档d_0中的词频-逆文档频率值。
  •         \text{occur}_{d_0}(w_0)是单词w_0在文档d_0中出现的次数。
  •         \#d是文档总数,\#\{d | w_0 \in d\}是包含单词w_0的文档数。

2.1.3 执行奇异值分解(SVD)

        奇异值分解是将矩阵M分解为三个矩阵的乘积:M = U \Sigma V^T

  •         \Sigma是一个包含非负递减实数的对角矩阵
  •         UV是半正交矩阵(即满足U^TU = IUU^T = I的矩阵)。

        LSA(潜在语义分析)是一种用于文本处理的技术,通过矩阵分解来识别文档集合中的潜在主题。在LSA中,主要涉及三个矩阵:U、S和V^T

        U矩阵:它具有与文档数量相同的行数,其列由M的列聚合而来,这些列代表主题,因此U是一个文档-主题矩阵。
        V^T矩阵:它的列数与M中的术语数量相同,其行由M的行聚合而来,这些行代表与U中相同的主题,因此V是一个术语-主题矩阵
        决定主题数量N:在LSA中,我们需要决定主题的数量N,这是一个重要的参数,因为它影响模型的性能和主题的解释性。

2.1.4 获得最优的主题数量N

        要获得最优的主题数量N,没有一个统一的标准答案,但可以通过以下方法来估计:

        试错法:选择不同的N值,分别构建模型,然后评估每个模型的性能和主题的解释性。通常,可以使用诸如困惑度(Perplexity)之类的指标来评估模型的性能,低困惑度通常意味着模型性能好。

        主题一致性:评估模型生成的主题的一致性或稳定性。主题一致性高的模型倾向于产生具有明确含义的、相互区分度高的主题。

        人工评估:通过专业知识对生成的主题进行评估,选择能够最好地反映文档集合内容的主题数量。

2.1.5 降维

        取U的前N列,\Sigma的前N行和列,以及V^T的前N行来减少问题的维度。
        这样做是为了保留数据中最重要的语义特征,同时去除那些对于主题不太重要或者是噪声的维度。

2.2 LSA的应用

        发现文档和术语之间的隐含关系:LSA可以帮助识别文档中的主题或概念,并将术语与这些主题或概念关联起来。

        改进信息检索:通过更好地理解文档内容的语义,LSA可以提高搜索引擎的准确性。

        文本聚类和分类:LSA的降维特性可以用于文本聚类和分类任务,提高模型性能。

        LSA虽然是一个较为古老的方法,但它仍然是文本挖掘和自然语言处理中一个非常有价值的工具。通过揭示文本数据中的隐含语义结构,LSA能够支持各种文本分析任务。

2.3 主题示例

        主题示例展示了通过LSA技术从文档集合中提取的不同主题。每个主题都是由一系列术语组成,这些术语代表了主题的核心内容。例如,主题0可能与面试有关,而主题1可能与警察、事故和法庭相关。通过分析这些主题,我们可以对文档集合中的内容有更深入的了解,每个主题提供了文档集中某个特定方面的视角。

Topic 0:
interview extended michael john david smith james andrew mark scott
Topic 1:
police death probe crash woman fire call court missing drug
Topic 2:
say plan council call govt back fire australia water court
Topic 3:
say australia police minister need report must world could labor
Topic 4:
court face fire woman murder charged charge accused death crash
Topic 5:
call say medium australia inquiry change prompt spark opposition health
Topic 6:
fire house home govt crew australia sydney school blaze threat
Topic 7:
australia back world south australian take first test lead win
Topic 8:
council australia fire rate rise seek woman considers coast land
Topic 9:
back council claim fight fire hit say take push market

        选择最优主题数量的过程涉及到综合考量模型的解释性、性能指标以及实际应用需求。在实际操作中,可能需要多次尝试和评估,以找到最适合特定文档集合的主题数量。此外,通过观察和解释每个主题中最重要的术语,研究者可以更好地理解文档集合的潜在结构和含义。

        每个主题下列出的术语反映了与该主题相关联的关键概念和实体,通过这些术语,可以快速把握每个主题的核心内容。例如,主题1聚焦于与法律、紧急情况和安全相关的事件,而主题7则可能关注于体育竞赛和国际竞赛成绩。

        潜在语义分析不仅能帮助我们发现文本数据中的隐含主题,还可以用于文档分类、信息检索、文本相似性分析等多种应用场景,从而提高信息检索的准确性和文本分析的深度。

3. LDA 

        Latent Dirichlet Allocation (LDA) 是一种广泛应用于文本挖掘和主题建模的统计模型,它能够从大量的文档集合中发现隐含的主题结构。LDA 基于 Dirichlet 分布作为其核心数学原理之一,以此来模拟文档中主题的分布以及主题中词汇的分布


3.1 Dirichlet 分布简介

        Dirichlet 分布是一个连续多变量概率分布,它是对多项分布中参数的先验分布。简单来说,如果你有一个多项分布(即一个分布,其中的事件有多个可能的类别,比如掷骰子的六个面),Dirichlet 分布可以用来表示这些类别分布的不确定性。

        Dirichlet 分布的参数是一组正实数\alpha = (\alpha_1, \ldots, \alpha_n),这些参数本身被称为"浓度参数"。分布的结果是一组满足以下条件的值(x_1, \ldots, x_n)

        每个x_i 都在 0 和 1 之间,即0 \leq x_i \leq 1

        所有x_i的总和为 1,即\sum_{i=1}^{n}x_i = 1

        这些性质使得 Dirichlet 分布非常适合表示一个文档中不同主题的比例,者一个主题中不同词汇的比例,因为这两种情况都涉及到了一系列比例的表示,且这些比例的总和为 1。

3.2 LDA 中的应用

        在 LDA 模型中,Dirichlet 分布被用作两个层次的先验分布

        文档-主题分布:每个文档都被假设为由多个主题组成,其比例遵循 Dirichlet 分布。参数\alpha反映了主题分布的先验知识,比如我们假设文档中各个主题的分布是均匀的,还是有某些特定主题更可能出现。

        主题-词汇分布:同样地,每个主题被假设为由多个词汇组成,其比例也遵循 Dirichlet 分布。参数\beta(通常与 \alpha不同)反映了词汇分布的先验知识。

        通过这种方式,LDA 能够自动从文档集合中学习到隐含的主题,并且能够表达出每个文档中这些主题的比例以及每个主题中不同词汇的比例,这对于文本分析和理解具有重要价值。

3.3 LDA潜在狄利克雷分配的图形模型

        

3.3.1 图形参数的解释        

        这张图是一个Latent Dirichlet Allocation(LDA,潜在狄利克雷分配)的图形模型,用来展示如何从文档中抽取主题和它们的分布。在这个模型中:

        α(Alpha):这是一个参数,影响文档中主题分布的形状。一个较大的α值可能意味着每个文档包含的主题更均匀分布,而较小的α值意味着文档更可能倾向于一小部分主题。α是大小为K的向量,其中K是主题的数量,我们对M个文档进行这样的处理。

        θ(Theta):表示一个特定文档中不同主题的分布,它是从Dirichlet(α)分布中抽样得到的。

        Z:这是主题分配变量,表示给定文档中的每个词被分配到的主题。

         W:这是观察到的单词变量,代表文档中的实际单词。

        β(Beta):这是一个参数,影响主题中词汇分布的形状。和α参数类似,一个较大的β值表示每个主题中词汇分布更均匀,而较小的β值表示某些词汇在主题中的权重更重。β是大小为V的向量,V是词汇表的大小,我们对K个主题进行这样的处理。

        ϕ(Phi):表示一个特定主题中不同词汇的分布,它是从Dirichlet(β)分布中抽样得到的。

        在这个模型中,每个文档都通过其θ向量有一个主题分布,θ向量是从α参数的Dirichlet分布中采样得到的。同样,每个主题都通过其ϕ向量有一个词汇分布,ϕ向量是从β参数的Dirichlet分布中采样得到的。这种结构允许每个文档表现出多个主题,每个主题也包含多个词汇。通过这种方式,LDA可以发现隐藏在大量文本数据背后的主题结构,这对于文本挖掘和信息检索非常有用。

3.3.2 在LDA模型中的处理步骤

        LDA(潜在狄利克雷分配)是一种主题模型,它允许我们对文档集合中的文档和词汇进行主题分配。对于给定的文档,在LDA模型中的处理步骤如下:

        a.为每个词汇选择主题:对于文档中的每个词汇(文档中共有N个词汇),我们从多项分布Polynomial(θ)中抽取一个样本主题。这里的θ是这个文档的主题分布,它表示不同主题在该文档中的比例。

        b.确定词汇属于主题的概率:对于每个词汇,我们也有一个概率φ(phi),它表示该词汇属于给定主题的概率。φ是由该主题的词汇分布决定的,这个分布说明了每个词汇属于该主题的可能性。

        c.计算主题与文档的关联概率:我们可以计算文档中每个词汇属于不同主题的概率。这是通过θ和φ的乘积得到的,因为θ给出了文档属于各个主题的概率,而φ给出了每个主题中各个词汇的概率。

        d. 利用这些概率在算法中:通过结合文档的主题概率θ和词汇的主题概率φ,我们可以估计文档中每个词汇属于各个主题的概率。这些概率可以用来推断文档的主题结构,以及主题本身的词汇构成。

        e. 迭代优化:LDA通常使用迭代算法(如吉布斯抽样或变分贝叶斯方法)来优化θ和φ,使得模型能够最好地解释观测到的词汇分布。这些迭代算法通过调整θ和φ的估计来最大化数据的似然性或某些后验概率。

        在多次迭代之后,我们得到了稳定的主题分布θ和词汇分布φ,这样就能对每个文档的主题构成以及每个主题中词汇的重要性有了较好的估计。这允许我们对文档进行分类、理解其内容、以及探究不同主题之间的关系。

3.3.3 LDA算法

        LDA(潜在狄利克雷分配)算法是一个用于发现文本集合中潜在主题的过程。以下是其步骤的中文解释:

        a. 随机分配主题:在所有文档中,我们随机给每个词汇分配一个主题。

        b. 准备表格:建立两个表格,一个记录每个文档中各个主题的出现次数,另一个记录每个词分配给主题的情况。

        c. 循环所有词汇:对所有文档中的每个词汇开始循环。假设我们现在处理的是文档d_i中的词汇w_j,这个词汇当前分配到主题t_k。现在,我们把这个词汇从它当前的主题中去除,并在第1步建立的两个表格中各减去一个单位。

        d. 计算概率并更新分配:然后,我们计算这个词汇属于每个主题的概率,并重新为它分配一个最有可能的主题。具体计算如下:

        P(t_k | d_i)是文档d_i中分配给主题t_k的词汇比例,计算公式为\frac{n_{i,k} + \alpha}{N_i - 1 + K\alpha},其中n_{i,k}是文档d_i中分配到主题t_k的词的数量,N_i是文档d_i的总词数,\alpha是平滑超参数。
   
         P(w_j | t_k)是主题t_k生成词汇w_j的概率,计算公式为\frac{m_{j,k} + \beta}{\sum_{j \in V} m_{j,k} + V\beta},其中m_{j,k} 是词汇w_j分配给主题t_k的次数,V是词汇表的大小,beta是另一个平滑超参数。

        e. 主题重新分配:我们选择使 P(t_k | d_i)P(w_j | t_k)最大的t_k作为词汇w_j的新主题,并更新表格。

        f. 重复步骤2到4:对所有文档中的每个词汇重复以上步骤。

        g. 多次迭代:重复步骤1到5指定的迭代次数,直到算法稳定,通常这个过程会逐步提高整个模型的准确性。

        通过这个迭代过程,LDA算法能够发现文档集合中的主题,并估算文档中词汇分布以及词汇与主题之间的关联。这个模型非常有用,可以帮助我们理解和组织大量的文本数据。

4. 总结LSA(潜在语义分析)与LDA(潜在狄利克雷分配)

        LSA(潜在语义分析)与LDA(潜在狄利克雷分配)都是用于从文本数据中抽取主题的技术,但它们在数学原理和应用效果上有所不同。

        LSA的主题是通过奇异值分解(SVD)从术语-文档矩阵中提取的。这种方法基于线性代数,能够减少数据的维度,挖掘词和文档之间的关系。

        LDA的主题是通过迭代计算每个文档的主题分布和每个主题的词分布来得到的。这个过程基于统计推断,特别是贝叶斯推断,能够更好地处理文本数据的多义性和噪声。

        以下是两种方法各自提取的主题内容:

        LSA的主题示例:

        主题0:与个人采访有关的关键词。
        主题1:涉及警察、死亡、事故调查等安全问题。
        主题2:关于政府规划、议会活动及政府决策。
        主题3:包括有关澳大利亚、警察、政府官员的话题。
        主题4:与法庭、火灾、谋杀案和其他重大事件有关。
        ...(依此类推,总结每个主题的核心内容)

        LDA(100次迭代后)的主题示例:

        主题0:涉及事故报告、市场、失踪案件等。
        主题1:与政府政策、水资源管理、农业相关的话题。
        主题2:包括警察、女性、学校、国家事务等内容。
        主题3:围绕医院、健康、政府选举、胜利等议题。
        主题4:变化、农村事务、谈话、价格上涨等话题。
         ...(依此类推,总结每个主题的核心内容)

        在实际应用中,LDA通常被认为比LSA更先进,因为它考虑到了词的多义性和文本数据中的不确定性。LDA的主题通常也更加一致和清晰。然而,这两种技术都能提供有价值的见解,选择哪种方法取决于具体的应用场景和需求。

5. 主题一致性的评估方法

        评估主题的一致性是主题模型质量评估的关键环节。它用于衡量一个主题中的词是否经常共同出现,这样的主题通常对人类来说更加连贯、更易理解。Newman等人(2010年)和Mimno等人(2011年)提出的UCI一致性和UMass一致性就是这样的评估指标。

5.1 UCI一致性

        UCI一致性使用了PMI(逐点互信息)作为计算的基础。

        PMI是一种统计量,用于衡量两个词\(w_i\)和\(w_j\)共同出现的频率是否高于随机共同出现的频率。

        通过在维基百科等大型语料库上使用滑动窗口来计算共现概率,PMI的计算公式为:

PMI(w_i, w_j) = \log \left( \frac{P(w_i, w_j) + \epsilon}{P(w_i)P(w_j)} \right)

        其中,P(w_i, w_j)是两个词共现的概率,P(w_i)P(w_j)分别是两个词独立出现的概率,\epsilon是一个小的正数,用于避免对数运算中的除零错误。

        UCI一致性是通过对一个主题中所有可能的词对(w_i, w_j)计算PMI并求和得到的。

5.2 UMass一致性

        UMass一致性与UCI类似,但它是一个不对称的量度,只考虑特定顺序的词对。
        UMass一致性的计算方法为:

C_{UMass} = \frac{2}{N(N - 1)} \sum_{i=2}^{N} \sum_{j=1}^{i-1} \log \left( \frac{P(w_i, w_j) + \epsilon}{P(w_j)} \right)

        其中,P(w_i, w_j)是两个词共现的概率,P(w_j)是第一个词出现的概率。

5.3 一致性结果CUCI

        负的PMI值意味着词的组合趋势比随机组合更低。
        根据您提供的数据,LSA的一致性分数是−1.439,LDA经过1次迭代后是−2.140,10次迭代后是−1.957,100次迭代后是−1.921。
        这些数值表示LDA模型随着迭代次数的增加一致性有所提高,也就是说模型的质量在逐渐变好,词更倾向于与其他相关词共同出现。

        在使用这些指标时,较高(较不负)的一致性分数通常表明模型的主题更加连贯,与人类的判断更为一致。在实际应用中,选择最佳的主题模型往往需要综合这些指标与其他因素,如主题的解释性和应用的特定需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/687541.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

小程序 UI 风格魅力非凡

小程序 UI 风格魅力非凡

MK米客方德 SD NAND与文件系统:技术解析与应用指南

随着数字存储技术的飞速发展,SD NAND(贴片式T卡)已成为我们日常生活中不可或缺的存储工具。我们将深入探讨SD NAND的文件系统,特别是SD 3.0协议支持的文件系统类型,以及它们在实际应用中的作用和用户可能遇到的问题。 MK米客方德的…

跨境反向海淘系统:业务流程解析与未来发展展望

随着全球化的深入发展和互联网技术的飞速进步,跨境购物已经成为越来越多消费者日常生活中的一部分。在这个过程中,反向海淘系统以其独特的优势,逐渐崭露头角,成为跨境电商领域的新星。作为一名在跨境反向海淘系统业务中耕耘了10年…

Python中的pathlib和Path(面向对象的文件系统路径操作库)

1. pathlib库介绍 1.1 pathlib和pathlib.Path pathlib是Python标准库中的一个模块,它提供了一组面向对象的文件系统路径操作。在Python早期版本中,文件和目录路径通常使用字符串来处理,或者使用os.path模块中的函数来执行操作,如…

域内攻击 -----> Kerberoasting

在域中,能拿到账户信息得攻击基本上有四个 域内用户枚举域内密码喷洒KerberoastingAS-REP Roasting 对于AS-REP Roasting,我们下一篇文章讲,而前两个,请参考我以前域内横向移动得文章。 那么我们今天就来聊聊Kerberoasting 1.S…

CodeFlying:一个可以用自然语言开发软件的AI平台

前言: AI可以生成文字、图片、代码、甚至视频,但是你听说过AI可以直接生成软件的吗?码上飞CodeFlying是一个可以用自然语言开发软件的平台,彻底改变软件开发的方式,让所有人都可以成为应用的创作者! 你最关…

基于ChatGLM3的本地问答机器人部署流程

基于ChatGLM3的本地问答机器人部署流程 前言一、确定文件结构1.新建文件夹储存本地模型2.下载源码和模型 二、Anaconda环境搭建1.创建anaconda环境2.安装相关库3.设置本地模型路径4.启动 三、构建本地知识库1.下载并安装postgresql2.安装c库3.配置向量插件 四、线上运行五、 全…

计算机网络-NAT配置与ACL

目录 一、ACL 1、ACL概述 2、ACL的作用 3、ACL的分类 4、ACL的配置格式 二、NAT 1、NAT概述 2、NAT分类 2.1 、 静态NAT 2.2 、 动态NAT 3、NAT的功能 4、NAT的工作原理 三、NAT配置 1、静态NAT配置 2、动态NAT配置 四、总结 一、ACL 1、ACL概述 ACL&#xff…

springboot文具销售管理系统-计算机毕业设计源码70886

摘要 从上世纪末到目前,计算机科学技术已经被尝试应用在各个职业各个领域,在商业贸易上,使用比重较高。计算机科学技术包括软件技术、网络技术、硬件技术等,越来越多的商家使用计算机来进行营业,出售、收购、宣传各类商…

LinkedList详解(含数据结构动画演示)

目录 LinkedList详解1、LinkedList的继承体系2、LinkedList的构造函数3、LinkedList的add(E e)方法4、LinkedList的Node节点5、双向链表的概念和Node节点的详细解释6、LinkedList的add(E e)方法梳理7、LinkedList的getXXX方法8、LinkedList的removeXXX方法①、removeFirst()方法…

【Java毕业设计】基于JavaWeb的旅游论坛管理系统

文章目录 摘 要目 录1 概述1.1 研究背景及意义1.2 国内外研究现状1.3 拟研究内容1.4 系统开发技术1.4.1 Java编程语言1.4.2 vue技术1.4.3 MySQL数据库1.4.4 B/S结构1.4.5 Spring Boot框架 2 系统需求分析2.1 可行性分析2.2 系统流程2.2.1 操作流程2.2.2 登录流程2.2.3 删除信息…

1、旋转在三维空间中的表现形式

有4种表达方式:旋转矩阵SO(3)、四元数、旋转向量和欧拉角。 一、旋转矩阵SO(3) 定义:旋转矩阵是一个33的正交矩阵,且行列式为1。表示:可逆矩阵,逆矩阵和转置矩阵相同,表示相反的旋转。优点:可…

JavaScript构造函数

一、深入对象 1、创建对象的三种方式 (1)利用对象字面量创建对象 (2)利用new Object创建对象 (3)利用构造函数创建对象 2、构造函数 构造函数:是一种特殊的函数,主要用来初始化对…

区间预测 | Matlab实现QRBiTCN分位数回归双向时间卷积神经网络注意力机制时序区间预测

Matlab实现QRBiTCN分位数回归双向时间卷积神经网络注意力机制时序区间预测 目录 Matlab实现QRBiTCN分位数回归双向时间卷积神经网络注意力机制时序区间预测效果一览基本介绍程序设计参考资料 效果一览 基本介绍 Matlab实现QRBiTCN分位数回归双向时间卷积神经网络注意力机制时序…

瑞鑫RK3588 画中画 OSD 效果展示

这些功能本来在1126平台都实现过 但是迁移到3588平台之后 发现 API接口变化较大 主要开始的时候会比较费时间 需要找到变动接口对应的新接口 之后 就比较好操作了 经过几天的操作 已实现 效果如下

如何免费使用(白瞟)最新的开源大模型?

下面介绍两个可以免费白瞟开源大模型的网站,一个是国内的ModelScope ,点击链接注册后进入右上方的司南评测即可,界面效果如下,最新开源的Qwen2-72B也可用的噢! 另外一个 是LMSYS和UC伯克利分校联合开发的全球大模型测评平台Chatbo…

电脑开机出现英文字母,如何解决这个常见问题?

电脑开机时出现英文字母的情况通常意味着系统在启动过程中遇到了问题。这些英文字母可能是错误信息、系统提示或BIOS设置问题。通过理解这些信息并采取适当的措施,您可以解决大多数启动问题。本文将介绍三种解决电脑开机出现英文字母问题的方法,帮助您恢…

ABAP - SAP与企业微信集成

最近接到一个SAP直接给企业微信推送消息的需求,说实话之前一直没接触过,脑袋空空的,最终通过在百度搜索案例成功解决了,百度虽然一直被诟病,但却无法否认它的神奇。实现效果 实现思路:从需求出发&#xff0…

命运2联机出错、无法组队?命运2频繁卡顿、延迟高的解决方法

命运2是一款由Bungie制作的第一人称射击游戏,昨日玩家们期待的最新DLC在全球发布,steam同时在线人数几乎打破历史记录达到314K,但是有不少玩家遇到联机失败、无法联机、匹配不了的情况,不知道怎么解决,下面提供几种解决…

计算机SCI期刊,中科院2区,IF=6.9,收稿范围非常广泛

一、期刊名称 Journal of King Saud University—Computer and Information Sciences 二、期刊简介概况 期刊类型:SCI 学科领域:计算机科学 影响因子:6.9 中科院分区:2区 三、期刊征稿范围 《沙特国王大学计算机与信息科学杂…