高奇琦:从大国协调到全球性机制:人工智能大模型全球治理路径探析

内容提要

人工智能大模型全球治理的关键是对大模型进行科学分类。大模型可以分为超大模型和一般模型。对于超大模型的治理,可以参考核武器治理的思路,重点是实现超大模型的有限发展和不扩散。对于一般模型而言,要在安全可控的基础上发挥其对各国生产力的推动效应。一般模型的治理关键是对风险进行定价。关于人工智能大模型的全球治理,不仅要充分发挥传统机制的作用,还需要构建新的专门性国际机制,努力形成一种全球性的机制复合体。

人工智能大模型全球治理迫在眉睫。从技术变革的角度看,大模型的出现代表了人工智能领域的一次重大突破,极大提升了机器学习在自然语言处理、图像识别等领域的性能,并持续推动经济结构重组。大模型在社会互动与文化方面的变革性则表现为其对信息获取、知识学习和交流方式的改变。同时,大模型技术变革在演进过程中逐渐成为一项全球安全和治理的重大挑战。例如,网络安全、技术竞争和全球技术监管的现实需求,迫使各国建立新的法律和政策框架,并通过加强国际合作的方式来解决。尤其是大模型所引发的关于数据隐私、算法偏见等问题的全球伦理争议,引起了各界关于国际合作如何在人工智能使用和监管中发挥重要作用的思考。一方面,全球治理需要考虑如何制定共享的伦理准则和技术标准,以确保人工智能技术体现公平、透明和负责任原则。另一方面,大模型的快速发展也要求全球政策制定者、技术专家和社会各界形成更加密切的合作,通过国际对话和政策协调,应对由其所引发的就业变化和社会不平等问题。大模型作为一种技术革新在推动全球技术进步的同时,也促使国际社会重视全球治理体系在人工智能发展中的协调性作用。关于大模型全球治理机制的建设路径,既要运用传统治理机制,也要构建新的国际机制,即探索构建大模型全球治理的机制复合体。

图片

2023年10月31日,浙江杭州,2023云栖大会开幕。会议以“计算,为了无法计算的价值”为主题,围绕云计算和人工智能融合发展,开设2场主论坛及500余场独立话题。(zdmphoto/IC photo图片)

图片

大模型全球治理的定义与风险

关于大模型全球治理这一概念,一般有两种理解。一种是将大模型用于解决现有的全球治理问题。大模型作为人工智能技术的一个新发展,可以被用于全球治理的各个方面。另一种则认为大模型作为一个新技术本身正在产生诸多新的全球性问题,而解决这些问题需要全球治理的思路。本文使用的大模型全球治理概念,主要指第二种。大模型可能带来的风险主要分为三类:失业、失序和失控。

第一,失业。大模型不可避免地会加剧失业,大范围的失业问题可能引发经济危机或政治危机。早在2018年,牛津大学便已出版一份关于人工智能就业冲击的报告,警示人们高度关注这一问题。即便如此,大模型技术的发展还是远远超出了人类专家的理解。OpenAI的研究人员正是在其内部看到了从外部可能还无法理解的一些先进技术,因此才在2023年年初发布有关GPT对劳动就业市场影响的论文。从当前技术进展来看,OpenAI的这份报告准确地预见了大模型对就业市场的冲击,特别是外语翻译人员、专业设计师、程序员、金融从业者、作家等面临非常高的就业替代率的职业。伴随大模型技术的不断发展和应用,失业问题将变得更加严重。

第二,失序。知识秩序是政治秩序的基础。大模型作为一种新的知识生成器,无疑会对传统的知识秩序产生重大影响。换言之,大量大模型生成物的出现,很有可能创造一个完全虚拟的世界,使人们建立信任变得极为困难,这有可能会引发较为严重的政治信任危机。如果政治信任危机与经济危机叠加,则会产生更为严重的社会影响。

图片

2023年12月6日,谷歌发布新人工智能模型Gemini,声称其性能测试表现优于GPT-4模型和“专家级”人类。(zuma/IC photo图片)

第三,失控。失控主要源自大模型自身的能力和意识。大模型代表了通用人工智能到来的可能性。一旦通用人工智能实现,极有可能产生如下两类问题:一是超级能力。目前的GPT-3的参数量是1750亿,而采用了混合专家模型(Mixture of Experts)的GPT-4的参数量则有可能达到万亿计。根据规模法则(Scaling Laws),大模型的超能力会在一定规模上突然涌现。若这种超能力被用来制造核武器或生物病毒,人类将很难进行有效控制。二是超级意识。若大模型具有通用人工智能的能力,其可能会产生自我意识。目前相关研究表明,大模型具备人类个体某个阶段的意识,这可通过心智理论来证明。大模型产生自我意识之后,可能会采取“越狱行为”来摆脱人类控制。此外,大模型还可能误导人类作出错误决策,继而引发严重冲突。

从这个意义上来讲,大模型全球治理的关键是进行分级治理。换言之,要区分两类模型。一是超大模型。对于超大模型的基本治理原则首先应是不扩散和非恶意使用。由于超大模型具有某种超能力,一旦其被恶意使用,将会产生巨大负面影响。同时,对于这样的超能力,需要采取最小扩散原则。当然,在实际情形中,按照美国目前的技术逻辑,其一定要拥有这样的超能力,以巩固自身的优势地位。一些国家作为重要的追赶国家,往往会采取技术突破的思路。因此,超大模型的突破只是时间问题,但超大模型不应该形成扩散态势。换言之,如果主要国家拥有超大模型的能力是不可避免的,那就要避免其大范围扩散。因为只有控制掌握者的数量,才能够一定程度上降低恶意使用的概率。当然,对于超大模型的开发者和应用者而言,也要形成一套相关的严格使用规则。使用者不能将超大模型用于恶意行为,如使用超大模型技术对他国进行降维打击或推翻他国政权等。

二是一般模型。一般模型的基本技术逻辑应该是可扩散与和平使用。一般模型的参数量相对较小,其拥有超能力和超级意识的概率比较小,对人类社会的影响更多体现在失业和失序方面。大模型本质上是新型生产力工具,会在一定程度上改善人们的经济状况,人类不能完全阻止这类大模型的使用。一般模型的治理主要通过更加精准的定价机制,在一定程度上调整大模型的使用节奏,促使大模型为人类社会发挥更加积极的作用。

图片

管控超大模型

管控超大模型,首先需要对超大模型进行定义。目前通行的办法是对参数量进行定义。这种界限大约是十万亿到百万亿参数。超大模型的治理重点应该体现为对超级意识和超级能力的控制。因为超大模型可能具有强大的能力,对其应采取有限发展的逻辑,即不能纵容其无限发展,这一点类似于核武器。核武器在最初开发时,一个基本逻辑是可以节省常规武器的弹药,其仍然是在某种生产力逻辑下发展起来的。但到冷战后期,核武器足以将地球毁灭若干次。大国之间核战略的基本逻辑是“相互确保摧毁”(Mutual Assured Destruction),因而需要限制核武器的数量和规模。

核武器的这种发展逻辑同样可以被用来理解大模型治理。大模型同样是一种生产力工具,因此完全限制大模型发展的思路是一个天真的想法,因为没有人会在生产力发展的道路上停下来。然而,当这样的生产力可能对人类社会产生重大的破坏性影响时,人类就会更加趋向于考虑其负面效应。从这一角度来讲,有限发展需要成为超大模型治理的基本逻辑。基于此,人类社会需要确保超大模型的不扩散。

目前推动大模型扩散的重要方法是开源。开源是计算机领域的一个通行做法,开发者完成某个程序的开发之后,往往把这样一个程序放在相关社区之中,供大家免费下载。大模型领域的开源运动极大地降低了其获取和使用门槛。例如,在开发GPT-4时,OpenAI和微软用了2.5万块的英伟达A100,训练时间大概为3个月,训练成本为6000多万美元。然而,在开源运动的推动之下,以LLaMA 2为代表的开源使得中小开发者有机会参与大模型的部署。通过LangChain和LlamaIndex等工具的辅助,参与者可以在自己的设备上部署自己微调过的大模型。从这个意义上来讲,开源运动是一种民主化运动。但是,对于超大模型而言,要一定程度地限制开源。因为一旦超大模型拥有的超能力被恶意使用者获得,将给人类社会带来巨大麻烦,其负外部性将无法管控。因此,开源,特别是超大模型的开源必须限定在一定范围之内。

完全限制超大模型是不可能的。大模型支撑的人工智能是一种通用性技术,也是第四次工业革命的关键性技术。超大模型是主要大国获取国际领导权和国际威望的重要筹码,完全限制其竞争性开发,在实践中很难操作。因此,超大模型治理的核心原则应该转向尽可能地减少扩散,这需要依靠某种类似于核不扩散机制的国际性条约来实现。这就涉及多边控制,同时还要为这种多边控制建立某种相应的机构和核查机制。例如,建立类似于国际原子能机构(IAEA)的“国际人工智能机构”,可以对那些试图突破超大模型的国家进行相应限制,如对相关的重要物资进行管控。在大模型开发中,算力是关键物资之一。总之,管控超大模型需要更多从核武器发展和控制的思路来考虑,并逐步从大国协调走向全球性机制。

对于超大模型的开发而言,美国、中国会成为最重要的行为体。美国可能率先在超大模型上取得突破,中国则会加速追赶。还有一些主要大国也可能会加速突破。一旦各国在超大模型上形成突破,再进行完全限制就不太可能,这实际上会成为一种“奔向截止日期”的努力。在这一过程中,中美互动至关重要,因为超大模型的最终风险是其超级能力和超级意识,各国的生产力竞速最终可能会使超大模型作为“第三者”获利。因此,中美需要建立必要的沟通机制,包括自我控制和交换信息,之后再从中美的双边机制向多边机制延伸。与核武器的不扩散机制类似,在建立超大模型不扩散机制的过程中,需要将超大模型开发权利放弃者的权利和义务结合在一起,如主要行为体之间建立某种类似于核不扩散机制的超大模型不扩散机制,并通过类似于允诺他国一般模型准入的条件,来换取他国放弃追求超大模型。

图片

2024年2月,OpenAI发布首个“文本到视频”生成式人工智能模型Sora。(签约摄影师/IC photo图片)

图片

对风险进行定价

超大模型产生的风险更多是一种外爆风险。无论是其超级能力还是超级意识,其效应还是相对显而易见的。然而,对于一般模型,人们往往只会看到其提高生产力的一面。借用让·鲍德里亚(Jean Baudrillard)的概念,一般模型的风险更多的是一种内爆风险,这种影响是内在的:从外表来看,其并没有发生太大变化,但是内部已经发生了深刻的结构调整。

对于一般模型而言,其首先会表现出提高生产力的一面。正因为如此,它的负面影响才可能会被“隐藏”,或者被“包裹”起来。一般模型的风险主要在于,其在快速部署的过程中会对传统的社会结构产生冲击。应对这类风险最重要的做法应该是减缓其部署的节奏,并增加人类应对的时间,让变化在相对缓慢和可控的状态下发展。这一点类似于碳排放机制。碳排放机制的基本逻辑是,减少排放或者可控排放,而不是完全不排放。如果完全终止排放,这对于很多国家特别是发展中国家而言,就意味着对发展权的完全排斥。因此,碳排放机制的关键是减少排放,即先达峰再逐步中和。在碳减排过程中一个重要经验就是,用经济和定价手段可减少人们排放的动机。这同样可以运用到一般模型的部署和使用过程中。

因此,可以在一般模型部署的过程中,在其费用上叠加一笔智能税。这样的智能税并不能由部署者所得到,而是通过直接进入公共部门作为某种公共基金的方式,来对那些受到一般模型应用冲击的人进行各种类型的补偿。前提条件是对大模型产生的失业风险进行相对准确的测评,如对大模型的部署可能会对哪些岗位的工作产生负外部性的影响进行测量,同时将这样的测量结果反映在智能税的征收中。这种智能税的征收机制可以在一定程度上减弱人们部署大模型的动机,因为人们在部署时会考虑效率或者经济原则。如果增加一笔税收的话,使用者可能还会考虑雇人来完成工作,这样就会相对减缓大模型部署的速度,也会给人类社会的调整赢得更多的时间,并且相对有效地减少大模型对就业产生的冲击。另外,我们也可以通过定价机制来相对减缓知识产权和虚假信息等问题的集中爆发。大模型的成功在很大程度上是人类知识的一种加总和放大,但大模型并没有为其使用的人类知识付费。所以,需要对大模型的使用进行某种知识产权的追偿。

对于虚假信息的滥用,同样可以进行惩罚性定价。人工智能本身生成的信息很可能是不真实的,这是由它的幻觉所决定的。但正是这种幻觉,构成了生成式人工智能创新的基础。如果追求完全消除这种幻觉,实际上会扼杀人工智能的创新性。然而,生成式人工智能产生的信息能够对公众产生误导。这种误导还存在明确责任对象的问题:是大模型本身的误导,还是使用者的误导?因此,需要对大模型服务提供商和使用者进行一定的滥用惩罚性定价。换言之,一旦这样的信息被滥用,那么无论是大模型服务提供商还是使用者,都要为其付出一定的成本。这种成本的存在,使信息滥用得到一定程度的限制,否则,在一个巨量创造信息的世界中,人类之间的信任会变得越来越困难,最终会影响整个政治系统的稳定。其中的一个基本考虑,就是让两类风险都统一在一种整体性的定价模型之中。同时,还可以借鉴碳交易的形式推动大模型风险交易。

当然,在定价过程中,仍然存在一些问题。例如,如何对大模型产生的失业效应进行准确定义。过高的定价无疑会影响大模型发展的速度。同时,这种定价还要形成整体性机制,因为单独一国定价的意义会大打折扣。大模型企业会采取“用脚投票”的方式,去其他更加友好的国家发展。因此,需要在世界范围内建立一种定价的整体性机制,这就使全球治理变得至关重要。

在对风险进行定价的过程中,可以形成一种多边机制,并且要更多地反映发展中国家的意见。正如联合国政府间气候变化专门委员会,在推动应对气候变化的过程中实现的多国参与和多行为体参与,这是一种典型的国际层面的“协商民主”(Deliberative Democracy)。整体而言,在管控超大模型的过程中,大国协调可以发挥主导性作用,因为其涉及超大模型不扩散的内容。然而,在推动一般模型广泛运用的过程中,则要更多听取发展中国家的意见,即更多采取多边机制,最终使一般模型的内部性风险在一种相对缓慢的过程中发生。这样一定程度的“内爆”,就有望成为塑造人类社会新形态的一种力量。

图片

2023年11月1—2日,英国伦敦,首届人工智能安全峰会举行,会上发布《布莱奇利宣言》。(澎湃影像/IC photo图片)

图片

从大国协调到全球性机制

技术多边主义主张将技术置于一种整体主义视角下考虑,同时通过多边机制逐渐将技术的进步性发挥出来,并及时限制其可能产生的风险。技术多边主义需要在大国协调和全球性机制之间达成平衡。这就涉及一个是“小多边”还是“大多边”的问题。大国协调在很大程度上是“小多边”。在超大模型的管控上,要更多以“小多边”为主来推动超大模型的不扩散;而在对一般模型的风险定价方面,则可以采取多国参与、跨国协商民主的“大多边”模式。

超大模型往往涉及大国的关键利益。如果方案太过理想主义,则无法达成实际目标。因此,在此过程中,大国协调至关重要。按照集体行动的逻辑,行为体数量越少越容易达成一致行动。超大模型的管控,可考虑先以中美协调为基础,然后逐渐扩展到中美欧,再邀请其他大国加入。当然,在美国不断加大对中国打压和遏制的背景下,这个过程能否顺利推进取决于中美互动以及中美双方对通用人工智能危险的整体性把握,这实际上构成了中美之间建立智能互信的基础。然而,在涉及一般模型的广泛使用和风险定义方面,则要更多考虑一种类似于联合国政府间气候变化专门委员会的全球性机制。在这一过程中,要充分发挥协商民主的作用,并鼓励更多行为主体参与其中。尽管协商过程可能会比较长,但却是必要的。

同时,国际社会应尽快达成普遍共识。一旦大模型被广泛运用,人们应对的时间会越来越少。整体来看,最终大模型全球治理要建立一种整体性的全球性机制复合体,主要涉及两个方面。一是超大模型的不扩散,二是一般模型的广泛使用。其中既要控制超大模型的风险,又要使一般模型的进步效应发挥出来。主要大国在这一过程中要发挥更为积极的作用,先通过双边互信来建立合作机制,然后扩展到多边机制,最后再以全球性机制将人工智能治理的成果固化,这就实现了一种从国家治理到全球治理的拓展过程。

第一,充分运用好传统多边机制。这要求在现有的国际框架内充分挖掘和发挥传统机制的作用。例如,在联合国框架内,已有众多与全球人工智能治理相关的国际机制,这些机制可以为人工智能技术的伦理、透明度及其广泛应用提供治理基础。联合国教科文组织可以在教育和文化领域内推动关于知识失序的国际讨论,而世界卫生组织可以关注大模型对医疗均等性的影响。同时,由于大模型可能导致失业问题,国际劳工组织的角色变得尤为重要,它可以协助形成应对自动化影响的国际策略。随着人工智能技术发展,知识产权保护和追偿问题也与世界知识产权组织的工作内容有一定的相关性。此外,G20作为全球经济合作的主要平台,可以促进成员之间达成共识,推动建立相应工作机制,包括对人工智能引发的市场变动和就业影响进行战略性调整和预防性政策制定。由此可见,传统机制在应对由大模型带来的全球挑战时,可以延续其原有的功能和责任,但需要针对新兴技术的特点进行适当的调整和扩展。

第二,建立专门的协调性机制。例如,建立类似于国际原子能机构的“国际人工智能组织”,并设立相应国际核查机制。该组织的职责将包括监督与大模型相关的国际标准遵守情况,确保所有国家在开发和部署大模型技术时的透明度和责任,由此对那些突破性发展的超大模型国家的行为进行定期核查和验证,在防止技术滥用的基础上降低全球安全风险。同时,可借鉴国际货币基金组织等国际组织经验,优化投票权分配,确保每个国家的声音都能被公平听取,并反映不同国家在全球技术领域的贡献。全球人工智能治理需要形成类似碳交易的智能风险定价市场,该市场能够为人工智能应用中的潜在风险定价,鼓励企业和国家在开发和部署大模型时采取风险最小化策略。在这一过程中,人工智能税也可作为国际组织的财政来源之一,以减轻由相关技术快速发展所产生的社会成本,如失业和技能过时。人工智能税收入还可以用于资助全球人工智能安全研究、支持被技术变革边缘化劳动者的再培训,并促进人工智能国际合作与发展等项目的落实。

总体而言,传统机制倾向于利用现有机构的政策、国际合作网络和影响力来推动全球范围内对人工智能技术的统一理解和应对措施,为技术治理提供稳固的框架和权威性。新型的专门协调机制则聚焦具体技术问题,如算法透明度、技术伦理、数据安全等,通常具有更专业的技术导向和更灵活的反应能力,旨在达成针对性更强的专业要求。最终,在传统机制和新型机制相互影响,以及各国关于人工智能治理规则相互作用下,形成机制复合体(Regime Complexes),实现对大模型全球治理问题作出整体性回应。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/648727.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

昂达固态硬盘数据恢复方法:全面解析与操作指南

在数字化时代,数据已经成为我们生活和工作中不可或缺的一部分。而固态硬盘(SSD)由于其读写速度快、抗震性强等优点,慢慢取代了传统的机械硬盘,成为我们存储数据的主要选择。然而,即便再先进的存储设备&…

OrangePi AIpro初体验之图片视频检测案例真实测评

OrangePi AIpro简介 OrangePi AIpro官网 Orange Pi AI Pro 开发板是香橙派联合华为精心打造的高性能AI 开发板,其搭载了昇腾AI 处理器,可提供8TOPS INT8 的计算能力,内存提供了8GB 和16GB两种版本。可以实现图像、视频等多种数据分析与推理…

网页提示“非私密连接”是为什么?

网页提示“非私密连接”(英文提示可能是 "Your connection is not private" 或 "Your connection is not secure")主要是因为浏览器无法验证你正试图访问的网站的SSL/TLS证书,或者是证书存在问题,从而无法建立…

【机器学习】机器学习在信息安全领域中的典型应用

🚀🚀🚀传送门 🔒机器学习在信息安全领域中的典型应用📕利用机器学习检测恶意行为并阻断攻击🌈使用机器学习分析移动终端安全状况⭐借助机器学习提高信息安全分析水平🎬依靠机器学习自动完成重复…

javaEE—图书管理系统(基础代码版)

前言: 本篇博客是集合了javaEE所学的知识构建的一个基础框架,讲述着面向对象的过程是如何做到多对象交互协作完成框架的构建的。利用了数组,接口,类和对象,抽象类,Object类等知识来完成。 后续会加入数据…

钕铁硼表面磷化处理

大家都知道烧结钕铁硼易氧化、易腐蚀,日久将造成磁性能的衰减甚至丧失,所以使用前必须进行严格的防腐处理。在之前的文章中已经向大家介绍过与烧结钕铁硼表面处理相关的知识和电镀的工艺流程,除了电镀之外,钕铁硼表面处理还可采用…

zstd库数据压缩与解压缩

在 Visual Studio 2019 中使用 C 的 zstd 库进行数据压缩与解压缩 在今天的博客中,我们将探讨如何在 Visual Studio 2019 中使用 zstd 库进行高效的数据压缩和解压缩。zstd(也称为 Zstandard 或 zstd)是由 Facebook 开发的开源压缩库&#x…

数据结构中树的一些基本概念

前言:带你认识二叉树从基本概念开始,步步深入。 目录 树的概念和其中比较重要的基本概念 对概念的深度解析: 树的结构应该如何实现呢? 树的分类: 完全二叉树与满二叉树: 树的概念和其中比较重要的基本…

嵌入式进阶——数码管

🎬 秋野酱:《个人主页》 🔥 个人专栏:《Java专栏》《Python专栏》 ⛺️心若有所向往,何惧道阻且长 文章目录 数码管结构移位寄存器原理图移位寄存器数据流程移位寄存器控制流程移位寄存器串联实现数码管显示 数码管结构 共阴与共阳 共阳数码…

Java SE基础知识(11)

知识梳理: 记不住就看API帮助文档中的pattern类 开发过程中,正则表达式一般不自己写,安装插件any-rule 选择自己想要的正则表达式格式,稍作修改即可

科学提效|AI融入零售业,未来零售的创新之旅

零售业正经历着由人工智能(AI)引领的转型浪潮。AI在零售和消费品(CPG)行业的应用前景广阔,它正以多种创新方式重塑行业的运作模式。且随着技术的不断进步,AI在零售业的应用将变得更加广泛和深入。AI不仅能够…

解锁Facebook的神秘密码:探索社交媒体的奥秘

在当今数字时代,社交媒体已经渗透到我们生活的方方面面。Facebook,作为这个领域中最为瞩目的平台之一,不仅连接着全球数十亿用户,还承载着庞大的信息流和交流网络。然而,Facebook的背后是一个充满着技术和隐私的世界&a…

汇凯金业:纸黄金和实物黄金的价格有什么区别

纸黄金和实物黄金的价格主要受到全球黄金市场行情的影响,二者的基础价格并无太大差异,但在具体交易时,可能会存在一些价格上的区别,这些差异主要来自以下几个方面: 交易费用与管理费:纸黄金交易通常需要支…

Jenkins配置(插件/角色/凭证)

目录 传送门前言一、Jenkins插件管理1、更换为国内下载源2、中文汉化插件下载(不推荐)3、低版本Jenkins爆红插件安装4、低版本Jenkins插件持续报错解决办法 二、Jenkins用户角色三、Jenkins凭证管理(svn/git)1、Username with pas…

k8s集群安装后CoreDNS 启动报错plugin/forward: no nameservers found

安装k8s过程中遇到的问题: 基本信息 系统版本:ubuntu 22.04 故障现象: coredns 报错:plugin/forward: no nameservers found 故障排查: #检查coredns的配置,发现有一条转发到/etc/resolv.conf的配置…

重生奇迹mu增加敏捷的装备

穿龙炎。 1、游戏破坏方面。可以降低"敏捷"的武器,如果你是低敏捷穿龙炎,我推荐你拿它,穿龙炎配的,同时,它的攻击,我感觉是最稳定的。 2、好看方面。通常大家都穿它都是因为好看,但是很多高手也穿他,为什么?因为穿它好配点,高敏捷你可以穿,低敏捷你也可以穿它,视武…

会声会影破解版百度云(附安装教程) 会声会影下载免费中文版 会声会影2024激活码,注册机

会声会影是一款功能强大的视频与电影编辑软件,它拥有出色的色彩校正和视频氛围调整工具。这款软件对颜色、平度HSL调谐、色调曲线以及波形范围等细微变化有着敏锐的感知,能够轻松实现颜色的精确移动和校正。此外,会声会影还提供了丰富的功能&…

【量算分析工具-概述】GeoServer改造Springboot番外系列三

背景概述 GIS公司做软件产品,往往绕不开的是量算分析工具的开发和使用。例如做的比较好的火星科技的mars3d产品,如下图,但是往往这些工具都是利用Cesium框架进行前端计算的实现的,网上关于这些量算工具算法原理的文章少之又少&…

遥感信息SCI期刊,中科院1区,IF=7+,审稿速度非常快!

一、期刊名称 International Journal of Applied Earth Observation and Geoinformation 二、期刊简介概况 期刊类型:SCI 学科领域:遥感 影响因子:7.5 中科院分区:1区 三、期刊征稿范围 《国际应用地球观测和地理信息杂志》…

【深度学习】最强算法之:人工神经网络(ANN)

人工神经网络ANN 1、引言2、人工神经网络(ANN)2.1 定义2.1.1 定义2.1.2 应用场景 2.2 核心原理2.3 实现方式2.4 算法公式2.5 代码示例 3、总结 1、引言 小屌丝:鱼哥,看新闻没? 小鱼:新闻天天看,啥事大惊小怪的。 小屌…