2024年AI威胁场景报告:揭示现今最大的AI安全挑战

AI正彻底改变每一个数据驱动的机会,有可能带来一个繁荣的新时代,让人类的生活质量达到难以想象的高度。但就像任何突破性的新技术一样,伟大的潜力往往蕴含着巨大的风险。

AI在很大程度上是有史以来部署在生产系统中的最脆弱的技术。它在代码级别、训练和开发期间、部署后、网络上、生成输出等方面都很容易受到攻击。

在HiddenLayer公司最新发布的《2024年AI威胁场景报告》中,研究人员阐明了这些漏洞及其对组织的影响,并为应对这些挑战的IT安全和数据科学领导者提供了指导建议。最后,报告还揭示了各种形式的AI安全控制的前沿进展。

数据提要

  • 平均而言,企业在生产系统中部署了高达1689个AI模型;
  • 98%的IT领导者认为至少有一些AI模型对他们的业务成功至关重要。
  • 83%的受访者表示,AI广泛应用于他们组织内的所有团队。
  • 61%的IT领导者承认“影子AI”(未获得IT批准或在IT部门控制下的解决方案)是其组织内的一个重要问题。
  • 89%的受访者对与第三方AI集成相关的安全漏洞表示担忧;高达75%的受访者甚至认为第三方集成带来的风险比现有的威胁更大。
  • 77%的公司报告称,在过去一年中,他们的AI遭遇了违规行为。
  • 92%的受访者仍在针对这一新兴威胁制定全面的计划。
  • 2024年,94%的受访者将预算分配给AI安全,但只有61%的受访者对预算分配高度自信。
  • 30%的IT领导者已经部署了针对对抗性AI的手动防御,但只有14%的人正在计划和测试此类攻击。
  • 只有30%的公司针对模型盗窃劫持(model theftjacking)部署了相关技术,20%的公司对此威胁进行了计划和测试。
  • 83%的IT领导者与外部网络安全公司合作以增强AI安全。
  • 58%的受访者对其实施的安全协议能否应对不断变化的威胁表示怀疑。
  • 96%的IT领导者表示,他们的AI项目对未来18个月的创收至关重要。
  • 98%的IT领导者正在积极寻求技术解决方案,以增强AI和机器学习模型的安全性。
  • 92%的公司正在建立自己的模式来改善业务运营。

对抗性AI大事件纪年

2002年——采用Naive Bayes算法的基于ML的垃圾邮件检测过滤器出现;

2004年——通过插入“good”字段,首次在线性垃圾邮件过滤器中使用规避技术;

2006年——第一篇概述针对ML攻击分类的论文发布;

2012年——首个针对非线性算法的梯度中毒(gradient-based poisoning)攻击;

2014年——首次展示针对深度神经网络的攻击;

2015年——OpenAI成立;

2016年——微软聊天机器人Tay中毒事件;

2017年——首次演示针对机器学习的黑盒攻击;

2018年——引入“边界攻击”(Boundary Attack,一种基于决策的对抗攻击算法)概念;

2018年——全模型提取攻击:KnockOffNets、CopycatCNN;

2019年——介绍“单像素攻击”(One Pixel attack,只需获取输入图像即可对模型进行攻击)和“攻击”(HopSkipJump,一种黑盒对抗方式,可以认为是Boundary Attack++);

2019年——新加坡制定AI治理框架模型;

2021年——首个黑盒神经有效载荷注入技术出现;

2021年——MITRE ATLAS发布;

2022年——欧盟AI法案开始制定;

2022年——首次披露针对LLM的提示注入攻击;

2022年——加拿大制定AI和数据法案(AIDA);

2022年——美国制定AI权利法案蓝图;

2022年——OpenAI推出ChatGPT;

2022年——在PyPI上发现恶意PyTorch依赖项;

2023年——NIST推出AI风险管理框架(AI RMF);

2023年——闭源模型的首个开源副本(Alpaca、OpenLLaMA)发布;

2023年——谷歌推出安全AI框架(SAIF);

2023年——PoisonGPT - LLM中毒演示;

2023年——美国白宫发布关于安全、可靠、可信地开发和使用AI的行政命令;

AI应用相关风险

与任何其他改变生活的技术一样,AI是一把双刃剑。虽然它已经开始对我们的生活和工作流程产生巨大的积极影响,但它也有巨大的潜在危害。

创建有害内容

从易于访问的暗网市场到随时可用的破解工具包,再到利用几乎无法追踪的加密货币的勒索软件即服务(RaaS),一切都在帮助网络犯罪分子茁壮成长。更糟糕的的是,生成式AI可以快速、轻松地进入一个充满复杂攻击场景的世界,同时为任何有需求的人提供精心设计的网络钓鱼和恶意软件。AI聊天机器人还可以访问可能导致人身威胁的非法信息。

虽然流行的生成式AI解决方案正在努力实现强大的过滤器和内容限制,但大多数已被证实相对容易绕过。此外,开源AI模型可以在没有任何限制的情况下进行微调。这些模型可以为攻击者专有,也可以在暗网上向更广泛的公众提供。

深度造假(Deepfakes)

另一个明显的问题是创建非常真实的deepfake图像、音频和视频,用于窃取金钱、提取敏感信息、破坏个人声誉以及传播错误信息。

多年来,诈骗者一直在利用各种手段欺骗人们。Deepfake的出现将这个问题带到了一个全新的高度,即使是经验丰富的网络安全专家也很难区分真假。糟糕的是,Deepfake带来的影响不仅关乎金钱和声誉,还可能扰乱政治竞选、操纵民主选举、操纵社会、煽动动乱。如果不及时采取充分的措施,民主和社会秩序将受到严重损害。

数据隐私和外泄

保护隐私的指导方针总是落后于新技术的采用。通常情况下,只有在最初的激情消退后,隐私泄露的影响才会逐渐清晰。我们已经在生成式AI中看到了这一点。

例如,任何基于AI的服务条款和条件协议应该说明服务提供者如何使用我们的请求提示。然而,这些条款通常是故意用复杂语言便写的冗长文本。如果用户不想花费数小时来解读细节,那么最好假设对模型发出的每个请求都以某种方式进行了记录、存储和处理。至少,用户应该意识到自己的输入会被馈送到训练数据集,因此,可能会在其他请求的输出中意外泄露。

侵犯版权

生成式AI解决方案背后的模型通常是在大量公开可用数据上进行训练的,其中一些数据受版权法保护。问题在于,生成式AI无法区分灵感和抄袭,它给出的结果往往过于接近于训练集中的原创内容,但却没有注明原创作者,从而可能会导致严重的版权侵犯。

准确性和偏差问题

AI模型的质量取决于其训练数据集。大型生成AI模型是在TB级数据上进行训练的,在大多数情况下,这些数据是不加选择地从互联网上抓取的,这使得对训练集的仔细审查变得不可能。这就会导致模型的准确性、公平性和总体完整性方面的问题,如果模型意外地在敏感数据上进行训练,还会导致数据隐私泄露的可能性。此外,在线学习的兴起,用户的输入不断被馈送回训练过程中,使得AI解决方案容易产生偏见、错误信息和故意中毒。

即使数据集包含无偏差和准确的信息,AI算法也并非总是正确的,有时可能会得出奇怪的错误结论。这些被称为“幻觉”,是当前AI技术的内在属性。根据设计,AI无法区分现实和虚构,所以如果训练数据集包含两者的混合,AI有时会用虚构来回应。

AI系统面临的风险

关于AI工具的安全和道德使用有很多讨论;然而,AI系统本身的安全性仍然经常被忽视。重要的是要记住,与任何其他无处不在的技术一样,基于AI的解决方案可能被攻击者滥用,导致破坏、经济损失、声誉损害,甚至对人类健康和生命构成风险。

1. 对抗性机器学习攻击

数据中毒

1710834596_65f943a4a6ad04ad5a135.png!small?1710834597753

数据中毒攻击的目的是修改模型的行为,以使预测有偏见,不准确,或者以其他方式被操纵以服务于攻击者的目的。攻击者可以通过两种方式执行数据中毒:修改现有数据集中的条目(例如,改变特征或标签)或向数据集中注入新的、经过特殊处理的数据部分。

即使对于没有经验的对手来说,数据中毒攻击也相对容易执行,因为创建“受污染”的输入通常可以在没有专业知识的情况下直观地完成。这种攻击每天都在发生,从操纵文本补全机制到影响产品评审,再到政治虚假信息运动。

最早被广泛宣传的数据中毒案例之一涉及微软早期的聊天机器人Tay。Tay于2016年3月在Twitter上发布,并不断接受用户输入的训练,但仅在上线16个小时后便匆匆关闭。在这么短的时间内,用户设法使机器人变得粗鲁和种族主义,并产生了有偏见和有害的输出。此事导致微软遭受了一些声誉上的损害,甚至受到了法律诉讼的威胁。

更复杂的数据中毒尝试可能会产生毁灭性的影响。更糟糕的是,预先训练的模型也不能免于中毒,因为它们可以在微调期间被操纵。在一次名为“PoisonGPT”的攻击中,攻击者通过使用一种名为“Rank-One 模型编辑”的技术,对现有的基于GPT的模型进行了修改,致使其传播攻击者控制的虚假信息。

模型逃逸

1710834619_65f943bb349cda7d7c40a.png!small?1710834621599

逃逸攻击,也称为模型绕过,旨在故意操纵模型输入以产生错误分类。对模型进行恶意制作的输入称为对抗性示例。它们的目的通常是逃避正确的分类或触发特定的攻击者定义的结果。它们还可以帮助攻击者了解模型的决策边界。

原始输入和经过操纵的输入之间的差异通常对人类来说是难以察觉的。例如,在视觉识别系统中,攻击者可以通过添加一层人眼看不见的噪声来修改图像,甚至可以旋转图像,或者改变单个像素。这将导致AI模型给出错误的预测。攻击者通常会向模型发送大量略有不同的输入,并记录预测,直到找到触发所需错误分类的样本。

2019年,Skylight Cyber研究人员创建了一个能够绕过基于AI的端点恶意软件分类模型,并成功绕过了多个反病毒绕过工具包(如MalwareGym和MalwareRL),其中逃逸攻击与强化学习相结合,自动生成恶意软件变异,使其对恶意软件分类模型显得无害。

这些攻击也可用于劫持自动驾驶汽车。研究人员证明,在“停止”标志上贴上特制的贴纸,可以欺骗车载车型,使其对该标志进行错误分类,从而继续行驶。同样地,想要绕过面部识别系统的攻击者可能会设计一副特殊的太阳镜,使佩戴者对系统隐形。这种攻击的可能性是无穷无尽的,其中一些可能会造成致命的后果。

模型盗窃

1710834633_65f943c9c058dc703b023.png!small?1710834635051

关于模型及其所依赖的数据集信息并非公开可见的,但用户通常可以查询模型(例如,通过GUI或API)。这足以让攻击者执行攻击并尝试复制模型或提取敏感数据。

竞争对手可能会试图窃取模型,在无需寻找正确数据集、标记特征向量和承担训练模型成本的情况下获取竞争优势。被盗的模型甚至可以在地下论坛上交易,就像机密源代码和其他知识产权一样。

2023年初,斯坦福大学研究人员对Meta的AI LLaMA模型进行了微调,并以Alpaca的名义发布,而OpenLM则发布了一个允许许可的开源LLaMA复制版本,名为OpenLLaMA。这再次证明,有了足够的API访问,克隆一个庞大且复杂的模型来创建一个非常高效的副本是可能的,省去了训练模型的麻烦。

2. 生成式AI攻击

生成式AI的兴起引发了新的伦理和安全挑战,攻击者可以采取多种手段利用生成式AI系统。

提示注入

提示注入是一种可以用来欺骗AI机器人执行意外或受限操作的技术。该技术是通过制作一个特殊的提示以绕过模型的内容过滤器来完成的。在此特殊提示之后,聊天机器人将执行原本限制的操作。

间接提示注入

在最近展示的另一种名为“间接提示注入”(IndirectPrompt Injection)的攻击中,研究人员将必应聊天机器人变成了一个骗子,以窃取敏感数据。按照设计,必应聊天可以请求访问所有打开的标签页和这些标签页上的网站内容。攻击者制作了一个包含特殊设计的提示符的恶意网站,只要该网站在受害者的浏览器中打开,并且必应可以访问标签页,该提示符就会修改必应聊天的行为。攻击者可以利用这种攻击来窃取特定的敏感信息,操纵用户下载恶意软件,或者只是误导和传播错误信息。

代码注入

在大多数情况下,GenAI模型只能生成它们设计提供的输出类型(即,文本、图像或声音)。这意味着,如果有人提示基于LLM的聊天机器人运行shell命令或扫描网络范围,聊天机器人将不会执行任何这些操作。然而,它可能会生成一个貌似合理的假性输出,表明这些操作实际上已经执行。

HiddenLayer发现某些AI模型实际上可以执行用户提供的代码。例如,Streamlit MathGPT应用程序,它可以回答用户生成的数学问题,将接收到的提示转换为Python代码,然后由模型执行以返回“计算”的结果。

3. 供应链攻击

1710834688_65f944006def19dffa5b2.png!small?1710834689769

当受信任的第三方供应商成为攻击的受害者时,供应链攻击就会发生。如今的机器学习供应链是一个巨大的生态系统,由不同的工具、库和服务组成。从机器学习框架到MLOps工具和模型存储库,每一个都在推动AI民主化和加速该领域的进步方面发挥着重要作用。然而,由于有如此多的活动部件和新技术需要解决,它们无意中引入了新的供应链风险,使我们容易重蹈覆辙。

研究人员认为机器学习供应链中包含以下关键风险:

  • 恶意模型;
  • 模型后门;
  • 公共模型存储库的安全性;
  • 恶意的第三方承包商;
  • ML工具中的漏洞;
  • 数据中毒。

AI安全方面的进步

攻击性AI安全工具

攻击性安全工具已经存在很长时间了,它使红队和渗透测试人员能够评估IT系统可能存在的弱点。如今,攻击性安全的概念也进入了AI领域,AI安全研究人员开发了各种工具来测试他们的攻击技术。

对抗性ML框架

  • 2016年,最早用于测试系统对对抗性示例的鲁棒性库CleverHans诞生。
  • 2018年,IBM发布Adversarial Robustness Toolbox(ART)框架,用于实现针对AI的多种攻击,并包括易于理解的Jupyter Notebook示例。
  • 2019年,用户友好且基于云的框架MLSploit发布,它允许对各种恶意软件分类器、入侵检测器和对象检测器创建攻击。
  • 同年,QData发布了一款强大的NLP攻击框架TextAttack,可以帮助执行对抗式文本攻击、文本增强和模型训练。
  • 2020年发布了Armory,这是一个用于评估对抗性防御的容器测试工具。
  • 2021年,Facebook发布了AugLy,这是一个数据增强库,可以用来生成对抗性示例。
  • 同年,微软发布了Counterfit,这是一个易于使用的命令行自动化层,用于ML模型的安全评估。

反恶意软件逃逸工具

除了强大的评估框架之外,还有针对特定结果的更专业的工具。例如,MalwareGym可以帮助绕过基于AI的反恶意软件解决方案。它于2017年由杀毒公司Endgame发布,在windows应用程序的修改中实现了强化学习。通过从良性可执行文件中获取功能并将其添加到恶意文件中,MalwareGym可以创建绕过恶意软件扫描程序的恶意软件。

模型盗窃工具

KnockOffNets是一个用于创建AI模型副本(换句话说,用于窃取模型)的工具,由Max Planck信息研究所的研究人员于2021年发布。虽然其创建是为了展示模型盗窃/模型提取的便利性,但它也可以帮助攻击者构建他们自己的模型盗窃工具。

防御性AI框架

在过去两年中,多家大型网络安全参与者创建了包括各种安全实践、策略和AI建议的综合框架。这些框架是在漫漫长路上非常有价值的第一步。

MITRE ATLAS

MITRE ATLAS于2020年首次在GitHub上发布,它是对抗性机器学习策略、技术和案例研究的知识库,旨在帮助网络安全专业人员、数据科学家及其公司了解针对对抗性机器学习的最新攻击和防御。

ATLAS矩阵分为两个主要部分:战术和技术。其中,战术描述了对手想要达到的目标;技术描述了攻击者将如何完成他们的战术。

NIST AI风险管理框架

2023年1月,美国国家标准与技术研究院(NIST)发布了AI风险管理框架(AI RMF)。这是一个概念性框架,它从传统的软件和基于信息的系统中吸取教训,并将其应用于AI系统提出的独特挑战。

该框架分为两部分:与AI系统相关的风险框架和核心框架本身。核心描述了四个功能:治理、映射、测量和管理。每个都分解为进一步的控制,以使组织更深入地了解如何保护其AI基础设施。

谷歌安全AI框架

谷歌于2023年6月推出的安全AI框架(SAIF)是一个概念框架,与NIST AI RMF一样,为保护AI系统提供指导。它建立在传统软件开发的最佳实践和经验的基础上,使其适应AI系统的需求。

OWASP top10

开放全球应用程序安全项目(OWASP)是一个非营利组织和在线社区,提供免费的指导和资源,如应用程序安全领域的文章、文档和工具。OWASP top10安全风险列表包含了各种web技术面临的最关键的安全风险,例如访问控制和加密失败。

Databricks AI安全框架(DAISF)

DAISF框架采用了一种全面的战略来减轻AI系统中的网络风险。它提供了关于机器学习如何影响系统安全性以及如何将安全工程原理应用于AI系统的见解。它还为理解特定ML系统的安全性和合规性提供了详细的指南。

IBM生成式AI安全框架

2024年1月,IBM发布了Securing Generative AI框架,重点关注LLM和其他GenAI解决方案在企业和组织中的使用。它通过帮助估计在管道的每个阶段可能发生的最可能的漏洞,并建议相关的保护和防御措施,提供了防御方法。

红队和风险评估

AI红队的第一个想法出现在2010年代末。当时,AI系统已经因其易受偏见、敌对例子和普遍滥用等因素的影响而闻名。如今,一些主要参与者(如谷歌、英伟达或)已经投资建立自己的内部团队,致力于深入测试他们开发和实施的AI解决方案。

  • 2021年12月,微软发布了他们的AI安全风险管理最佳实践;
  • 2023年6月,英伟达向世界推出了他们的红队,以及他们用作评估基础的框架;
  • 2023年7月,谷歌在发布SAIF框架后,官宣了他们自己的AI红队。

政策法规

我们已经讨论过AI是一把双刃剑:它可以很容易地用来对付人类、企业和社会,产生深远的后果,可能是毁灭性的。出于这个原因,世界各国政府纷纷对如何安全、合法、道德地使用AI制定了严格的监管。

  • 2019年,经济合作与发展组织(OECD)通过了《关于AI的建议。它描述了经合组织国家和坚持伙伴经济体的五项原则和五项建议,以促进负责任和值得信赖的AI政策。
  • 2022年,欧盟提出了一项更全面的AI法案,将AI解决方案分为三类:低风险应用,必须遵守透明度法律,但在其他方面不受监管;受严格限制的高风险应用;以及被认为危险并被彻底禁止的应用程序。
  • 2019年,新加坡制定了AI治理模式框架第一版,由11项AI伦理原则组成,包括透明度、可解释性、安全性、安全性、数据治理和问责制。
  • 2022年10月,美国出台《AI权利法案蓝图》,这是一套关于AI系统开发和使用的建议和指导方针。
  • 2023年10月,美国白宫发布了一项关于安全、可靠、可信赖地开发和使用AI的行政命令。它概述了AI系统构成的风险,例如对人类安全的威胁、对AI生成内容的检测,以及确保AI生态系统的安全。

AI发展预测

1. 数据科学家将与安全从业人员合作保护AI模型

几十年来,网络安全行业一直在与攻击者进行技术军备竞赛,因为每一次新的进步都会带来独特的安全问题,需要定制的安全解决方案。然而,AI/ML的安全性在数据科学领域一直被忽视;AI和机器学习的快速发展往往缺乏基本的安全控制。这导致了库和工具中的许多漏洞,而这些漏洞已经成为AI软件开发的支柱。我们预计这一趋势将在未来一年略有逆转,因为研究人员正在迅速发现漏洞,并帮助支持开源ML项目的防御。数据科学家和网络安全专家之间的合作将提高整个AI生态系统的安全性。

2. 使用ML工件的供应链将变得更加普遍

由于机器学习工具链中固有的不安全性,网络犯罪分子可以利用许多唾手可得的成果。威胁参与者越来越多地将目光转向MLOps平台和工具。随着时间的推移,供应链漏洞将变得越来越普遍,而不仅仅是为了传统的初始妥协和横向移动目的。机器学习模型及其所接触数据的敏感性使其非常易受网络罪犯的攻击。攻击者将越来越多地利用MLOps平台中的漏洞来毒害训练集,并在训练或推理时渗漏敏感数据,以获得竞争优势或滥用AI系统。

3. 对抗性AI攻击将明显增加

用于推断训练数据或模型细节的逆向攻击,用于生成绕过/错误分类的推理攻击,以及最终的模型盗窃攻击也将变得更加常见。推动这些攻击的重要因素是学术界和工业界不断扩大的对抗性机器学习研究。曾经异常复杂的任务,现在(并将继续)变得越来越简单,甚至脚本小子也能轻松实现。

4. 威胁行为者将使用LLM自动进行黑客攻击

网络犯罪分子已经在使用LLM来增强现有的攻击,从编写更真实的网络钓鱼电子邮件到动态生成独特的恶意软件有效载荷,以及改进社会工程的努力。不难想象,在未来的一年里,威胁行为者将利用LLM来自动化黑客攻击、执行侦察和补充网络犯罪即服务。

LLM领域另一个有趣的发展是RAG(检索增强生成),它通过外部信息来源或基础事实来增强模型。RAG赋能的LLM很容易被破坏者滥用,他们将利用精心设计的提示来寻求渗漏敏感信息。

5. 随着越来越多的组织使用先进工具来对抗威胁,AI的攻击面将扩大

在组织内开发、使用和实现AI从未像现在这般容易。这种与已建立的流程的快速集成正在引入一个不断扩展的新型攻击面,而传统的安全控制措施无法保护这种攻击面。

未来一年,企业将经历许多成长的烦恼,例如AI暴露或配置不安全,导致数据泄露、妥协甚至其他更糟的后果。

另一方面,我们也希望看到AI安全原则在组织中得到更广泛的应用,以及监测模型行为和模型安全评估的先进方法进一步普及。如此一来,更多的组织将能够识别并采取措施来应对对抗性攻击。

原文链接:

https://21998286.fs1.hubspotusercontent-na1.net/hubfs/21998286/HiddenLayer%20AI%20Threat%20Landscape%20Report%202024.pdf?__hstc=62390451.7eda7b2ca46bd6745379633b1dcc597b.1709858831913.1709858831913.1709858831913.1&__hssc=62390451.1.1709858831913&__hsfp=1395060114

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/495910.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

寒冬继续!飞书发全员信 “适当精简团队规模”

多精彩内容在公众号。 3月26日飞书CEO谢欣发布全员信,宣布进行组织调整,同时为受到影响的“同学”提供补偿方案和转岗机会。 在致员工的一封信中,谢欣坦诚地指出,尽管飞书的团队人数众多,但组织结构的不够紧凑导致了工…

使用HarmonyOS实现图片编辑,裁剪、旋转、亮度、透明度

介绍 本篇Codelab是基于ArkTS的声明式开发范式的样例,主要介绍了图片编辑实现过程。样例主要包含以下功能: 图片的解码。使用PixelMap进行图片编辑,如裁剪、旋转、亮度、透明度、饱和度等。图片的编码。 相关概念 图片解码:读取…

经典机器学习模型(九)EM算法的推导

经典机器学习模型(九)EM算法的推导 1 相关数据基础 1.1 数学期望 1.1.1 数学期望的定义 根据定义,我们可以求得掷骰子对应的期望: E ( X ) X 1 ∗ p ( X 1 ) X 2 ∗ p ( X 2 ) . . . X 6 ∗ p ( X 6 ) 1 ∗ 1 6 2 ∗ 1 6 1 ∗ 1 6 3 ∗ 1 6 …

【考研数学】跟武忠祥,如何搭配汤家凤《1800》?

可以但不建议!正所谓原汤化原食,你做1800,当然是听汤神的更合适! 汤家凤与武忠祥的讲课风格真的大不相同!汤老师特别注重基础和题量,让你在数理思维上打下扎实的根基。而武老师则更偏向于深厚的理论&#…

天地图如何获取多边形面积

目录 一、初始化地图 二、创建polygonTool 三、多边形获取面积 ​四、完整代码(包括添加点、添加面、编辑面、获取面积) 项目中提出在地图上绘制面并获取面积,如何实现? 在天地图官网的JavaScript API 中,链接如下…

午马传动已确定加入2024第13届生物发酵展

参展企业介绍 浙江午马传动有限公司,办公室地址位于中国长寿之乡、中国椪柑之乡、中国竹炭之乡丽水,浙江省丽水市青田县东源镇项村村前路99号四楼1号,我公司主要提供:齿轮及齿轮减、变速箱制造;机械设备销售&#xff1…

MySQL 8 索引原理详细分析

千山万水总是情, 问问索引行不行? 轻舟已过万重山, 有种尽管来发难。 索引是在数据库优化时的重要手段之一,今天 V 哥从索引的角度展开讲一讲索引的各个要点,希望可以通过这篇文章,帮助大家彻底搞透索引的关键点。 1.索引的定义与作用2.索引的类型3.索引原理4.二分查…

C#学生信息成绩管理系统

一、系统功能描述 本系统包括两类用户:学生、管理员。管理员可以通过系统来添加管理员信息、修改管理员信息、添加学生信息、修改学生信息;开设课程、查询课程、录入成绩、统计成绩、修改成绩、修改个人密码等,而学生则可以通过系统来选择课…

实现DevOps需要什么?

实现DevOps需要什么? 硬性要求:工具上的准备 上文提到了工具链的打通,那么工具自然就需要做好准备。现将工具类型及对应的不完全列举整理如下: 代码管理(SCM):GitHub、GitLab、BitBucket、SubV…

智过网:考一级建造师证有什么用?可以从事哪些工作?

随着国家基础设施建设的不断推进,建筑行业在中国经济中占据了举足轻重的地位。在这样的背景下,一级建造师证成为了众多建筑从业者的追求目标。那么,考取一级建造师证究竟有哪些用处?又能从事哪些工作呢?本文将对此进行…

什么是通配符SSL证书?

在当前互联网环境中,数据传输安全至关重要,而通配符SSL证书作为保护多个子域名的理想工具,因其灵活、经济高效的特性而备受瞩目。本文将详细介绍通配符SSL证书的定义、主要特性及其价格区间。 通配符SSL证书的核心特性概述如下: …

rtthread studio 基于bsp生成代码stm32l475正点原子潘多拉,以及硬件配置

1、基于bsp生成代码 rtthread studio 很强大的一个功能就是可以根据芯片或者bsp 生成驱动代码,而且rtthread内核 已经集成到了代码中!!只需要关注于如何使用硬件和设备完成我们想要的功能就可以; 它的官网文档也特别详细&#x…

【3D目标检测】Det3d—SE-SSD模型训练(前篇):KITTI数据集训练

SE-SSD模型训练 1 基于Det3d搭建SE-SSD环境2 自定义数据准备2.1 自定义数据集标注2.2 训练数据生成2.3 数据集分割 3 训练KITTI数据集3.1 数据准备3.2 配置修改3.3 模型训练 1 基于Det3d搭建SE-SSD环境 Det3D环境搭建参考:【3D目标检测】环境搭建(OpenP…

伴随供应链数字化转型的B2B电商

制造业的数字化浪潮正迅猛地席卷全球,新冠病毒大流行和地缘政治格局的改变促进了不同国家和地区企业对供应链数字化转型的的步伐。除了企业内部的加快数字化之外。企业的营销也加快电商化步伐。 企业内部管理的数字化转型会给电商带来怎样的转变?电商如何…

CMOS逻辑门电路

按照制造门电路的三极管不同,分为MOS型、双极性和混合型。MOS型集成逻辑门有CMOS、NMOS、PMOS;双极型逻辑门有TTL;混合型有BiCMOS。 CMOS门电路是目前使用最为广泛、占主导地位的集成电路。早期CMOS电路速度慢、功耗低,后来随着制…

基于springboot+vue+Mysql的就业信息管理系统

开发语言:Java框架:springbootJDK版本:JDK1.8服务器:tomcat7数据库:mysql 5.7(一定要5.7版本)数据库工具:Navicat11开发软件:eclipse/myeclipse/ideaMaven包:…

2024最值得推荐的10款开源免费文档管理软件

本文将为大家分享9款开源文档管理系统:Bitrix24、Kimios、OpenDocMan、Papermerge、Nuxeo、OpenKM、Teedy、FileRun、SeedDMS。 在现今充满数字化的世界里,不论大小,各种组织都会产出很多文件、图片等数字化内容。好好管理这些信息对于组织的…

信创实力进阶,Smartbi再获华为云鲲鹏技术认证

日前,经华为技术有限公司评测,思迈特商业智能与数据分析软件Smartbi Insight V11与华为技术有限公司Kunpeng 920 Taishan 200完成并通过相互兼容性测试认证,成功再获华为云鲲鹏技术认证书,标志着Smartbi与华为云鲲鹏产业生态合作更…

Linux系统使用Docker搭建Traefik结合内网穿透实现公网访问管理界面

文章目录 一、Zotero安装教程二、群晖NAS WebDAV设置三、Zotero设置四、使用公网地址同步Zotero文献库五、使用永久固定公网地址同步Zotero文献库 Zotero 是一款全能型 文献管理器,可以 存储、管理和引用文献,不但免费,功能还很强大实用。 ​ Zotero 支…

子虔3D培训大师,助力制造业技能培训

对于制造业企业,传统的培训方式常常伴随着沉重的成本负担,包括聘请培训师的费用、租赁培训场地的租金,以及准备培训材料的成本,这些都让企业在财务上面临不小的压力。同时,传统培训模式还受到时间和空间的限制。学员们…