计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21

计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21


目录

文章目录

  • 计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-21
    • 目录
    • 1. The Fair Language Model Paradox
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 2. DISP-LLM: Dimension-Independent Structural Pruning for Large Language Models
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 3. Holistic Reasoning with Long-Context LMs: A Benchmark for Database Operations on Massive Textual Data
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 4. Impacts of Continued Legal Pre-Training and IFT on LLMs' Latent Representations of Human-Defined Legal Concepts
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 5. Toolken+: Improving LLM Tool Usage with Reranking and a Reject Option
      • 摘要
      • 研究背景
      • 问题与挑战
      • 如何解决
      • 创新点
      • 算法模型
      • 实验效果
      • 重要数据与结论
      • 推荐阅读指数:★★★★☆
      • 推荐理由
    • 后记


1. The Fair Language Model Paradox

Authors: Andrea Pinto and Tomer Galanti and Randall Balestriero
https://arxiv.org/abs/2410.11985

大型语言模型的公平性悖论

摘要

本文研究了大型语言模型(LLMs)在训练过程中的token级动态,特别是权重衰减对不同频率token性能的影响。研究发现,随着权重衰减的增加,模型对低频token的性能影响更大,这在大多数语言中构成了词汇的绝大多数。这一发现对于确保所有可用token的公平性至关重要,需要开发新的正则化技术。

研究背景

大型语言模型(LLMs)在现实世界的应用中广泛部署,但对其在token级别训练动态的了解甚少。通常的评估依赖于在批量级别测量的聚合训练损失,这忽略了由token级动态和超参数引入的结构偏差所产生的微妙的每个token的偏差。
在这里插入图片描述

问题与挑战

  • 权重衰减虽然常用于稳定训练,但研究发现它在token级别上引入了性能偏差。
  • 在不同数据集大小、模型架构和参数量(从2.7亿到30亿参数)的模型中,随着权重衰减的增加,低频token受到不成比例的贬低。
  • 这些被忽视的低频token在大多数语言的token分布中占绝大多数,这对模型的公平性提出了挑战。

如何解决

研究者们通过实验展示了权重衰减对不同频率token的影响,并提出了需要新的正则化技术来确保所有token的公平性。

创新点

  • 揭示了权重衰减在token级别上引入的偏差,这种偏差在传统的基于批量的评估中是检测不到的。
  • 提出了需要新的正则化技术,以确保在不平衡的token分布上训练的LLMs中所有token的公平性。

算法模型

研究中使用了不同的模型架构和大小,包括Apple OpenELM模型(2.7亿和30亿参数)和Qwen2模型(0.5亿和1.5亿参数)。这些模型在IMDB数据集及其扩展版本上进行了训练,使用了不同的权重衰减水平。

实验效果

  • 实验结果表明,随着权重衰减的增加,模型在低频token上的性能显著下降,而高频token的性能基本不受影响。
  • 通过对比不同权重衰减水平下的每个token的交叉熵损失,研究者们发现低频token在更高的权重衰减下遭受了更高的损失。
  • 研究还发现,随着权重衰减的增加,高频token的学习速度比低频token快,这表明正则化可能对罕见token不利。
    在这里插入图片描述
    在这里插入图片描述

重要数据与结论

  • 在IMDB数据集上,95%的总token被词汇表中顶部0.01%的token捕获,表明了token频率的极端不平衡。
  • 随着权重衰减的增加,模型在低频token上的交叉熵损失显著增加,而高频token的损失增加较少。
  • 研究强调了在LLMs训练实践中一个重大的疏忽:权重衰减虽然可以改善整体损失指标的收敛和稳定性,但可能会严重影响模型处理低频token的能力。

推荐阅读指数:★★★★☆

推荐理由

这篇文章对于理解大型语言模型在训练过程中的内在偏差以及权重衰减对模型性能的影响提供了深刻的见解。它对于自然语言处理领域的研究人员和工程师来说是非常有价值的,因为它揭示了在设计和训练LLMs时需要考虑的新挑战和潜在的改进方向。此外,这项研究还强调了开发新的正则化技术以确保模型公平性的重要性。

2. DISP-LLM: Dimension-Independent Structural Pruning for Large Language Models

Authors: Shangqian Gao and Chi-Heng Lin and Ting Hua and Tang Zheng and Yilin
Shen and Hongxia Jin and Yen-Chang Hsu
https://arxiv.org/abs/2410.11988
在这里插入图片描述
DISP-LLM: 大型语言模型的维度无关结构性剪枝

摘要

本文提出了一种新的结构性剪枝方法,用于压缩大型语言模型(LLMs),而不需要额外的后处理步骤。该方法通过打破传统结构性剪枝方法中的结构依赖,允许不同层选择不同的特征子集,并且可以自由调整每层的宽度,从而显著提高了结构剪枝的灵活性。实验结果表明,该方法在多种LLMs上的表现超过了其他最先进的方法,并首次展示了结构性剪枝可以达到与半结构性剪枝相似的准确性。

研究背景

大型语言模型(LLMs)在自然语言处理任务中取得了显著的成功,但是这些模型的内存和计算成本对于资源受限的设备来说是一个挑战。为了在不牺牲性能的情况下部署这些模型,需要有效的压缩技术。

问题与挑战

现有的结构性剪枝方法要么限制了剪枝的灵活性,要么通过引入额外的投影矩阵增加了模型的参数量。这些方法在减少模型大小和计算成本方面存在局限性。

如何解决

文章提出了一种新的维度无关结构性剪枝方法,该方法通过索引选择和索引添加操作来剪枝,而不是修改残差连接,从而避免了传统方法中的限制。

创新点

  • 提出了一种新的结构性剪枝方法,打破了传统方法中的结构依赖,提高了剪枝的灵活性。
  • 通过超网络和基于梯度的优化方法来学习每层的宽度,而不是引入额外的参数。
  • 实验表明,该方法能够在保持低计算成本的同时,超越现有的结构性和半结构性剪枝方法。

算法模型

文章中提出了DISP-LLM方法,该方法通过在注意力层和MLP层中应用不同的选择矩阵,实现了在不增加额外参数的情况下,对不同层进行不同特征子集的选择。此外,该方法还通过学习每层的宽度来进一步提高灵活性。
在这里插入图片描述
在这里插入图片描述

实验效果

  • 在WikiText-2数据集上的实验结果表明,DISP-LLM在不同的剪枝比例下,都能取得比现有方法更好的性能。
  • 在零样本任务上,DISP-LLM也展现出了优越的性能,与半结构性剪枝方法相当。
  • 文章还提供了关于模型在不同剪枝比例下的困惑度(PPL)和准确率的详细数据。
    在这里插入图片描述

重要数据与结论

  • DISP-LLM在50%的剪枝比例下,对于LLaMA-2 7B模型,其在WikiText-2上的困惑度为9.84,与未剪枝的模型相比,性能损失极小。
  • 在零样本任务中,DISP-LLM在50%剪枝比例下的平均准确率为51.05%,与半结构性剪枝方法相当。

推荐阅读指数:★★★★☆

推荐理由

该方法不仅提高了剪枝的灵活性,而且在保持模型性能的同时减少了计算成本。

3. Holistic Reasoning with Long-Context LMs: A Benchmark for Database Operations on Massive Textual Data

Authors: Seiji Maekawa, Hayate Iso, Nikita Bhutani
https://arxiv.org/abs/2410.11996

整体推理与长文本语境的语言模型:大规模文本数据上的数据库操作基准测试

摘要

随着文本信息的快速增长,我们需要更高效的方法来筛选、组织和理解这些信息。虽然检索增强型生成(RAG)模型在访问大型文档集合中的信息方面表现出色,但它们在处理需要跨多个文档聚合和推理的复杂任务时存在困难,这就是所谓的整体推理。长文本语境的语言模型(LCLMs)在处理大规模文档方面具有很大的潜力,但它们在这方面的能力仍然不清楚。在这项工作中,我们介绍了HoloBench,这是一个新的框架,它将数据库推理操作引入基于文本的上下文中,使系统地评估LCLMs在处理大型文档的整体推理能力变得更加容易。我们的方法调整了上下文长度、信息密度、信息分布和查询复杂性等关键因素,以全面评估LCLMs。我们的实验表明,上下文中的信息量对LCLM性能的影响大于实际的上下文长度。此外,查询的复杂性对性能的影响超过了信息量,特别是对于不同类型的查询。有趣的是,涉及寻找最大值或最小值的查询对LCLMs来说更容易,并且受上下文长度的影响较小,尽管它们对RAG系统构成了挑战。然而,需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。此外,我们发现,尽管分组相关信息通常会提高性能,但最佳定位因模型而异。我们的发现揭示了在实现长上下文的整体理解方面的进步和持续存在的挑战。这些可以指导未来LCLM的发展,并为创建更强大的语言模型以应用于现实世界的应用奠定基础。

研究背景

随着文本数据的爆炸性增长,需要有效的方法来处理、组织和理解大型文档集合。检索增强型生成(RAG)模型虽然在访问这些庞大资源中的信息方面取得了进展,但在执行需要跨多个文档进行聚合和推理的复杂任务时,它们的能力受限。
在这里插入图片描述

问题与挑战

现有的RAG模型依赖于局部上下文检索,这使得它们在处理需要整体推理的复杂任务时效果不佳。此外,对于长文本的整体推理能力的评价还存在空白,需要一个能够系统评估LCLMs在处理大型文档时的整体推理能力的基准测试。

如何解决

文章提出了HoloBench,这是一个新的评估框架,专门设计用来评估LCLMs在处理长文本数据时的整体推理能力。HoloBench利用数据库操作来创建需要模型聚合和综合分布在广泛上下文中的信息的复杂推理任务。

创新点

  • 提出了HoloBench,一个基于数据库操作的评估框架,用于系统评估LCLMs处理大规模文本数据的整体推理能力。
  • 设计了能够控制影响LCLM性能的关键因素的评估方法,包括上下文长度、信息密度、信息分布和查询复杂性。
  • 实现了自动化和可扩展的评估过程,无需人工注释,提高了评估的效率和可扩展性。

算法模型

HoloBench框架基于文本到SQL的基准测试构建,通过调整上下文长度、信息密度和查询复杂性等因素,动态生成评估数据。该框架利用SQL查询在数据库上执行以生成动态的基准答案,同时控制上下文大小和信息分布。
在这里插入图片描述

实验效果

实验结果表明,上下文中的信息量对模型性能的影响大于上下文的实际长度。查询的复杂性对性能的影响超过了信息量,特别是对于不同类型的查询。涉及寻找最大值或最小值的查询对LCLMs来说更容易,并且受上下文长度的影响较小。然而,需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。

重要数据与结论

  • 上下文中的信息量对LCLM性能的影响大于上下文的实际长度。
  • 查询的复杂性对性能的影响超过了信息量。
  • 涉及寻找最大值或最小值的查询对LCLMs来说更容易。
  • 需要聚合多条信息的任务随着上下文长度的增加而准确度明显下降。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

推荐阅读指数:★★★★☆

推荐理由

这篇文章提供了一个全面的评估框架来测试和改进LCLMs在处理大规模文本数据时的整体推理能力。

4. Impacts of Continued Legal Pre-Training and IFT on LLMs’ Latent Representations of Human-Defined Legal Concepts

Authors: Shaun Ho
https://arxiv.org/abs/2410.12001

继续法律预训练和指令微调对大型语言模型在人类定义的法律概念的潜在表示的影响

摘要

本文旨在为人工智能与法律领域的研究人员和实践者提供更详细的理解,即在法律语料上继续预训练和指令微调(IFT)是否以及如何增加大型语言模型(LLMs)在开发输入序列的全局上下文表示时对人类定义的法律概念的利用。我们比较了三个模型:Mistral 7B、SaulLM-7B-Base(在法律语料上继续预训练的Mistral 7B)和SaulLM-7B-Instruct(进一步IFT)。这个初步评估检查了7个不同的文本序列,每个序列都包含了一个人类定义的法律概念。我们首先比较了模型分配给代表法律概念的标记子集的总注意力的比例。然后,我们可视化了原始注意力分数变化的模式,评估法律训练是否引入了与人类法律知识结构相对应的新颖注意力模式。这项调查揭示了(1)法律训练的影响在各种人类定义的法律概念之间不均匀分布,以及(2)在法律训练中学到的法律知识上下文表示与人类定义的法律概念的结构不相符。我们以进一步调查法律LLM训练动态的建议结束。

研究背景

在法律任务中使用大型语言模型(LLMs)面临挑战,因为许多法律术语与一般语言中的相同词汇具有不同的含义,并且法律语料的统计数据与一般语料不同。虽然在法律语料上的继续预训练和微调(统称为“法律训练”)提高了法律基准的性能,但这些模型在从注释、修辞角色预测到事实模式编码等多样化的实际应用中的表现仍然不确定。

问题与挑战

法律训练数据稀缺且成本高昂,其质量高度依赖于注释者的专业知识和一致性。此外,文献还对微调是否以模型稳定性为代价引入表面改进提出了质疑。需要更深入地理解法律训练的潜在动态,以阐明法律LLMs的优势和劣势,以便它们可以被谨慎和适当地部署。

如何解决

通过分析注意力分数和结构,研究者们可以独立于数据集评估LLMs利用法律概念的程度,从而排除了上述数据质量问题的影响。

创新点

  • 提出了一种新的方法来评估法律训练对LLMs的影响,特别是在处理人类定义的法律概念时。
  • 通过比较不同模型在法律语料上的预训练和微调,揭示了法律训练对模型注意力分配的影响。
  • 可视化了注意力分数变化的模式,以评估法律训练是否引入了与人类法律知识结构相对应的新颖注意力模式。

算法模型

研究比较了三个模型:Mistral 7B、SaulLM-7B-Base和SaulLM-7B-Instruct。这些模型使用相同的架构,为隔离法律训练对通用LLMs的影响提供了理想的比较基础。

实验效果

实验结果表明:

  • 法律训练的影响在各种人类定义的法律概念之间不均匀分布。
  • 在法律训练中学到的法律知识上下文表示与人类定义的法律概念的结构不相符。
  • 法律训练通常减少了对大多数人类定义的法律概念的注意力,有时甚至到了极端程度。额外的IFT调节了这种行为,导致偏斜值更接近零或甚至为正(即更多地关注人类定义的法律概念)。

重要数据与结论

  • 法律训练对模型在开发输入序列的全局上下文表示时利用不同法律概念的程度有不均匀的影响。
  • 法律训练和IFT对模型的注意力分配有显著影响,但这些影响并不总是与人类定义的法律概念结构一致。
    在这里插入图片描述

推荐阅读指数:★★★★☆

推荐理由

这篇文章研究结果揭示了法律训练对LLMs注意力分配的影响,这对于优化法律LLMs的设计和应用具有重要意义。

5. Toolken+: Improving LLM Tool Usage with Reranking and a Reject Option

Authors: Konstantin Yakovlev, Sergey Nikolenko, Andrey Bout
https://arxiv.org/abs/2410.12004

Toolken+: 通过重新排名和拒绝选项改进大型语言模型的工具使用

摘要

最近提出的工具学习范式ToolkenGPT展示了有希望的性能,但存在两个主要问题:首先,它无法从工具文档中受益;其次,它经常在是否使用工具上犯错误。我们介绍了Toolken+,通过重新排名ToolkenGPT选择的前k个工具来缓解第一个问题,并通过特殊的“拒绝”选项解决第二个问题,以便当“拒绝”排名第一时,模型将生成一个词汇标记。我们在多步骤数值推理和工具选择任务上展示了Toolken+的有效性。

研究背景

大型语言模型(LLM)通过允许访问外部工具(如符号计算引擎、作为外部内存的数据库等)被扩展。Tool learning paradigms可以分为两类:一类是监督微调以利用工具,另一类是在上下文中学习,提供示例。ToolkenGPT旨在结合这两种方法的优点,通过可训练的嵌入和扩展词汇表来表示每个工具。
在这里插入图片描述

问题与挑战

ToolkenGPT面临的挑战包括:

  1. 无法利用对LLMs有帮助的工具文档。
  2. 在判断何时使用工具时经常出错,调用工具过于频繁。

如何解决

Toolken+通过以下方式解决这些问题:

  1. 引入工具嵌入的副本来重新排名检索到的工具。
  2. 引入一个额外的“拒绝”工具,以便在不需要调用任何工具时切换回文本生成。

创新点

  • 引入重新排名机制,使模型能够根据工具文档选择最相关的工具。
  • 引入“拒绝”选项,减少不必要的工具调用,提高模型的鲁棒性。

算法模型

Toolken+模型扩展了工具集,包括一个特殊的“拒绝”工具,并在推理过程中重新排名前k个工具。该模型使用softmax函数来计算下一个标记的概率,并在工具选择过程中引入掩码向量。
在这里插入图片描述

实验效果

实验结果表明,Toolken+在GSM8K、MetaTool和VirtualHome数据集上的表现显著优于ToolkenGPT。具体数据包括:

  • 在MetaTool数据集上,Toolken+在所有考虑的LLM上都显著提高了结果。
  • 在GSM8K数据集上,Toolken+通过拒绝机制显著提高了准确性。
  • 在VirtualHome数据集上,Toolken+在生成动作序列的任务中一致性地优于ToolkenGPT。
    在这里插入图片描述
    在这里插入图片描述

重要数据与结论

Toolken+通过引入重新排名和拒绝选项,显著提高了模型在工具使用过程中的鲁棒性和准确性。这使得基于现代LLM的AI代理和用户面向工具更加可靠。

推荐阅读指数:★★★★☆

推荐理由

Toolken+通过重新排名和拒绝选项解决了ToolkenGPT的局限性,提高了模型在使用外部工具时的准确性和鲁棒性。此外,该研究还为未来在更广泛的任务和数据集上测试和改进Toolken+框架提供了基础。

后记

如果您对我的博客内容感兴趣,欢迎三连击(点赞、收藏、关注和评论),我将持续为您带来计算机人工智能前沿技术(尤其是AI相关的大语言模型,深度学习和计算机视觉相关方向)最新学术论文及工程实践方面的内容分享,助力您更快更准更系统地了解 AI前沿技术

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/902257.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

stable-zero123模型构建指南

一、介绍 stabilityai出品,能够对有简单背景的物体进行三维视角图片的生成,简单来说也就是通过调整变换观察的视角生成对应视角的图片。 本项目通过comfyui实现。 二、容器构建说明 1. 部署ComfyUI (1)使用命令克隆ComfyUI g…

6,000 个网站上的假 WordPress 插件提示用户安装恶意软件

黑客使用窃取的凭证感染 WordPress 网站,并向其发送虚假插件,通过虚假的浏览器更新提示向最终用户发送恶意软件和信息窃取程序。 该恶意活动基于ClickFix假浏览器更新恶意软件的新变种,自 2024 年 6 月以来已使用假 WordPress 插件感染了超过…

C++ 模板编程:解锁高效编程的神秘密码

快来参与讨论💬,点赞👍、收藏⭐、分享📤,共创活力社区。 目录 💯前言 💯泛型编程 💯函数模板 1.函数模板概念 2.函数模板格式 3.函数模板的原理 4.函数模板的实例化 5.模板参…

社交媒体视频素材平台推荐

在内容创作日益重要的今天,社交媒体视频素材的需求不断增加。适合各种平台的视频素材不仅可以提升内容质量,还能吸引更多观众。以下是一些推荐的社交媒体视频素材平台,帮助你找到适合的资源。 蛙学网 蛙学网 是一个专注于社交媒体视频素材的平…

C# 标准绘图控件 chart 多 Y 值的编程应用

C# 标准绘图控件 chart 多 Y 值的编程应用 1、前言2、声明标准绘图控件 chart 命名空间3、使用绘图控件 chart3.1、在窗体中拖入绘图控件 chart ,拖入绘图控件 chart 最简单实用。3.2、在语句中声明加入,但要将 控件和其组件加入窗体或其它容器很麻烦&am…

2025 - AI人工智能药物设计 - 中药网络药理学和毒理学的研究

中药网络药理学和毒理学的研究 TCMSP:https://old.tcmsp-e.com/tcmsp.php 然后去pubchem选择:输入Molecule Name 然后进行匹配:得到了smiles 再次通过smiles:COC1C(CC(C2C1OC(CC2O)C3CCCCC3)O)O 然后再次输入:http…

尚硅谷-react教程-求和案例-数据共享(下篇)-完成数据共享-笔记

#1024程序员节&#xff5c;征文# public/index.html <!DOCTYPE html> <html><head><meta charset"UTF-8"><title>redux</title></head><body><div id"root"></div></body> </html&…

Vuex的基础

文章目录 vuex概述构建vuex[多组件数据共享]环境创建一个空仓库ps.创建仓库时遇到的错误 核心概念 - state状态核心概念 - mutations辅助函数 - mapMutations 核心概念 - actions辅助函数 - mapActions 核心概念 - getters核心概念 - 模块module&#xff08;进阶语法&#xff0…

Python(pandas库2)

DateFrame的添加 上文中DateFrame的增加中&#xff0c;因版本弃置append函数 如果你想要向 DataFrame 添加一行&#xff0c;建议的方法是首先创建一个新的 DataFrame 来表示这行数据&#xff0c;然后使用 pd.concat() 函数来合并它们。 concat 语法&#xff1a; objs: 要连…

基于协同过滤算法的个性化课程推荐系统

作者&#xff1a;计算机学姐 开发技术&#xff1a;SpringBoot、SSM、Vue、MySQL、JSP、ElementUI、Python、小程序等&#xff0c;“文末源码”。 专栏推荐&#xff1a;前后端分离项目源码、SpringBoot项目源码、Vue项目源码、SSM项目源码、微信小程序源码 精品专栏&#xff1a;…

JDBC: Java数据库连接的桥梁

什么是JDBC&#xff1f; Java数据库连接&#xff08;Java Database Connectivity&#xff0c;简称JDBC&#xff09;是Java提供的一种API&#xff0c;允许Java应用程序与各种数据库进行交互。JDBC提供了一组标准的接口&#xff0c;开发者可以利用这些接口执行SQL语句、处理结果集…

「C/C++」C++ STL容器库 之 std::multiset 键的集合容器

✨博客主页何曾参静谧的博客&#x1f4cc;文章专栏「C/C」C/C程序设计&#x1f4da;全部专栏「VS」Visual Studio「C/C」C/C程序设计「UG/NX」BlockUI集合「Win」Windows程序设计「DSA」数据结构与算法「UG/NX」NX二次开发「QT」QT5程序设计「File」数据文件格式「PK」Parasoli…

腾讯云跨AZ部署FortigateHA备忘录

随时保存配置 config system globalset admintimeout 480set alias "FortiGate-VM64-KVM"set gui-auto-upgrade-setup-warning disableset hostname "FG-Slave"set revision-backup-on-logout enableset revision-image-auto-backup enableset timezone &…

【 thinkphp8 】00006 启动 内、外置服务器

前言&#xff1a;哈喽&#xff0c;大家好&#xff0c;今天给大家分享一篇文章&#xff01;并提供具体代码帮助大家深入理解&#xff0c;彻底掌握&#xff01;创作不易&#xff0c;如果能帮助到大家或者给大家一些灵感和启发&#xff0c;欢迎收藏关注哦 &#x1f495; 目录 【 t…

Java学习Day53:铲除紫云山金丹原料厂厂长(手机快速登录、权限控制)

1.手机快速登录 手机快速登录功能&#xff0c;就是通过短信验证码的方式进行登录。这种方式相对于用户名密码登录方式&#xff0c;用户不需要记忆自己的密码&#xff0c;只需要通过输入手机号并获取验证码就可以完成登录&#xff0c;是目前比较流行的登录方式。 前端页面&…

centos7.x安装openCV 4.6.0版本

## 从源代码编译安装 1.更新系统 sudo yum update -y 2.安装依赖项 sudo yum groupinstall "Development Tools" sudo yum install cmake gcc-c git libjpeg-turbo-devel libpng-devel libtiff-devel libwebp-devel openexr-devel gstreamer1-plugins-base-devel…

iTerm2 保持SSH远程连接

1、保持SSH远程连接的稳定&#xff0c;防止因闲置时间过长而断开连接 When idle, send ASCII code 35 every 60 seconds每60秒 输入# 2、客户端设置保持活动 设置客户端每隔60秒发送一次保活信号&#xff0c;总共尝试3次。 vim ~/.ssh/configHost *ServerAliveInterval 60…

uniapp 底部导航栏tabBar设置后不显示的问题——已解决

uniapp 底部导航栏tabBar设置后不显示的问题——已解决 网上找了一堆解决办法&#xff0c;挨个对着试吧 解决办法一&#xff1a;tabBar里的list第一项和page中的第一项要相同&#xff0c;确实就能显示了。但是问题来了&#xff0c;page中的第一项是入口页&#xff0c;那就意味…

鲸鱼优化算法(Whale Optimization Algorithm, WOA)原理与MATLAB例程

鲸鱼优化算法&#xff08;Whale Optimization Algorithm, WOA&#xff09;是一种基于鲸鱼捕食行为的智能优化算法。它模拟了座头鲸在狩猎时的“气泡网”捕食策略。 文章目录 1.适应度函数2. 更新公式2.1 突袭行为2.2 螺旋更新3.线性递减参数4. 边界处理 MATLAB 实现示例代码说明…

HarmonyOS 5.0应用开发——Navigation实现页面路由

【高心星出品】 文章目录 Navigation实现页面路由完整的Navigation入口页面子页面 页面跳转路由拦截其他的 Navigation实现页面路由 Navigation&#xff1a;路由导航的根视图容器&#xff0c;一般作为页面&#xff08;Entry&#xff09;的根容器去使用&#xff0c;包括单页面&…