【大模型】 基于AI和全球化进程的权衡:开源大模型与闭源大模型

【大模型】 基于AI和全球化进程的权衡:开源大模型与闭源大模型

前言

实际上关于开源or闭源,一直以来都是颇有争议的话题,人们争执于数据的隐私性和共享性,到底哪一方能获得的收益更大。而对于开源与闭源哪个更好实际上也就是说是隐私更好还是公开更好。

是想要共享这个世界?还是想要独自打怪升级?

这取决于你自己。

但是基于AI和全球化进程的权衡,往往有时候你不得不在遵循自己的同时顺应时代的潮流,那么在这个环境下,究竟是开源——共享,还是闭源——内部使用更好呢?

文章目录

    • 前言
    • 开源大模型
      • GPT-3(OpenAI)
      • BERT(Google)
      • T5(Google)
      • GPT-Neo和GPT-J(EleutherAI)
      • BLOOM(BigScience)
      • 优势
      • 挑战
    • 闭源大模型
      • GPT-4(OpenAI)
      • Bard(Google)
      • LaMDA(Google)
      • Claude(Anthropic)
      • MUM(Google)
      • 优势
      • 挑战
    • 开源大模型与闭源大模型,你更好哪一方?
      • 数据隐私
      • 商业应用
      • 社区参与
    • 结论

首先我们还是对 大模型以及开源闭源进行一定的分析。

大模型是指具有大规模参数和复杂计算结构的机器学习模型。通常基于深度学习技术。这些模型在AI的发展中起到了至关重要的作用,尤其是在自然语言处理(NLP)、计算机视觉和语音识别等领域。
在这里插入图片描述

以下是开源大模型和闭源大模型的基本简介。

开源大模型

开源大模型近年来在人工智能领域取得了显著的进展,许多开源大模型在学术研究、工业应用和社区创新中发挥了重要作用。以下是几个著名的开源大模型的介绍:

GPT-3(OpenAI)

简介

GPT-3(Generative Pre-trained Transformer 3)是OpenAI发布的一个大规模预训练语言模型。尽管GPT-3本身不是完全开源的,但OpenAI提供了API,使得开发者可以访问和使用该模型。它是基于Transformer架构,拥有1750亿参数,是目前最大的语言模型之一。
在这里插入图片描述

特点

  • 生成能力:GPT-3在生成自然语言文本方面表现出色,可以生成具有连贯性和上下文相关的段落。
  • 多用途:GPT-3可以用于多种任务,如翻译、问答、摘要生成、对话系统等。
  • 少量样本学习:GPT-3在少量样本情况下也能表现出良好的效果,这使得它在实际应用中非常灵活。

应用场景

  • 企业应用:GPT-3通过OpenAI API帮助企业自动化内容生成、客户支持和市场营销文案。例如,自动生成产品描述、撰写营销邮件和创建社交媒体内容。
  • 开发工具:开发者可以利用GPT-3 API在应用中集成智能助手、对话系统和自动化客服机器人,提高用户体验和效率。

BERT(Google)

简介

BERT(Bidirectional Encoder Representations from Transformers)是Google发布的一个开创性语言模型。它的出现引领了自然语言处理领域的重大突破。BERT的源代码和预训练模型都在GitHub上开源。

特点

  • 双向编码:BERT使用双向Transformer进行编码,这使得模型在理解句子上下文时更加准确。
  • 预训练和微调:BERT通过在大规模语料上预训练,然后在特定任务上微调,从而实现了卓越的性能。
  • 广泛应用:BERT在许多自然语言处理任务中表现出色,如问答、命名实体识别、情感分析等。

应用场景

  • 自然语言理解:BERT被广泛应用于自然语言处理任务,如情感分析、命名实体识别和文本分类。例如,分析社交媒体上的情感趋势、识别新闻中的关键实体和自动分类客户反馈。
  • 搜索引擎优化:BERT改进搜索引擎的查询理解能力,提高搜索结果的相关性和准确性。它被用于Google搜索引擎中,帮助理解复杂的搜索查询并提供更相关的结果。

T5(Google)

简介

T5(Text-To-Text Transfer Transformer)是Google提出的一种统一的文本到文本框架模型。T5的设计理念是将所有的自然语言处理任务转化为文本到文本的形式。T5的代码和预训练模型也是开源的。

特点

  • 统一框架:T5将不同的任务(如翻译、摘要、分类)统一为文本生成问题,这使得模型架构更加简洁。
  • 大规模预训练:T5在大规模文本数据上进行了预训练,具有强大的生成和理解能力。
  • 灵活性:由于其统一的框架,T5可以很容易地适应各种自然语言处理任务。

应用场景

  • 翻译和摘要:T5在翻译和文本摘要生成方面表现出色,应用于自动翻译文档、生成新闻摘要和提取关键信息。例如,帮助企业自动翻译技术文档,生成简洁的新闻摘要,便于快速阅读。
  • 问答系统:T5被用于构建智能问答系统,如企业内部知识库问答、在线客服机器人和教育领域的智能辅导工具,提供准确和高效的问答服务。

GPT-Neo和GPT-J(EleutherAI)

简介

GPT-Neo和GPT-J是由EleutherAI开发的开源大规模语言模型,旨在提供与GPT-3相当的开源替代品。GPT-Neo和GPT-J的源代码和预训练模型都公开发布,供社区使用和改进。

特点

  • 高可用性:作为开源项目,任何人都可以访问和使用这些模型。
  • 大规模:GPT-J拥有60亿参数,是当前最大的开源语言模型之一。
  • 社区驱动:EleutherAI的模型开发依赖于社区的贡献和合作,促进了快速的迭代和创新。

应用场景

  • 教育和研究:GPT-Neo和GPT-J被广泛应用于教育和研究领域,帮助学生和研究人员生成报告、撰写论文和进行数据分析。例如,生成科研报告的初稿,提供论文写作辅助和自动化数据摘要。
  • 内容创作:这些模型被用于自动化内容创作,如博客文章、故事创作和剧本写作,帮助创作者提高生产效率和创意表达。

BLOOM(BigScience)

简介

BLOOM(BigScience Large Open-science Open-access Multilingual Language Model)是由BigScience项目发布的一个大规模多语言模型。BLOOM的开发集中了来自全球研究者的合作力量。

特点

  • 多语言支持:BLOOM支持数十种语言,具有强大的跨语言理解和生成能力。
  • 社区合作:BLOOM的开发过程透明,依赖于全球研究社区的合作。
  • 开源和开放访问:BLOOM的源代码和模型权重公开发布,供研究和应用使用。

应用场景

  • 跨语言应用:BLOOM的多语言支持能力使其在跨语言翻译和多语言对话系统中具有广泛应用。例如,构建支持多语言的全球客服系统,自动翻译和本地化内容,促进国际交流和合作。
  • 学术研究:BLOOM为学术研究提供了强大的工具,支持多语言语料库分析、跨文化研究和全球知识共享。例如,研究人员使用BLOOM分析多语言数据集,进行跨文化对比研究,推动全球化研究进展。

这些开源大模型在推动人工智能技术进步的同时,也为研究人员和开发者提供了丰富的资源和工具,使得更多的人能够参与到AI技术的创新和应用中。

优势

  1. 社区驱动的创新

    • 开源项目可以吸引全球开发者和研究人员的参与,促进快速迭代和创新。
    • 通过集体智慧,问题可以更快地被发现和解决。
  2. 透明性和可验证性

    • 开源代码可以被任何人审查,从而提高了透明性和可信度。
    • 用户可以对代码进行独立验证,确保没有隐藏的漏洞或后门。
  3. 教育和研究

    • 开源项目为学术研究和教育提供了宝贵的资源,使得更多的人能够学习和使用先进的技术。
    • 研究人员可以基于开源项目进行进一步的创新和实验。
  4. 成本效益

    • 开源软件通常免费,降低了开发者和企业的进入门槛。

挑战

  1. 资源和资金

    • 开源项目可能面临资金和资源不足的问题,特别是在需要大量计算资源的AI领域。
    • 依赖社区贡献,项目的持续性和稳定性可能受到影响。
  2. 商业化困难

    • 尽管可以通过服务和支持等方式商业化,但与直接销售软件许可证相比,开源项目的商业化模式可能更复杂。

闭源大模型

闭源大模型主要由一些大型科技公司开发和维护,虽然这些模型的代码和训练数据并未公开,但它们在各种应用场景中表现出了卓越的性能,并且通常通过API或商业化产品提供给用户。以下是几个著名的闭源大模型的介绍:

GPT-4(OpenAI)

简介

GPT-4 是OpenAI发布的最新一代大规模语言模型,继承了GPT-3的强大性能,但在很多方面进行了改进和增强。虽然模型本身是闭源的,但OpenAI通过API和合作伙伴关系提供了广泛的访问和应用。

特点

  • 性能提升:相比GPT-3,GPT-4在自然语言理解和生成方面表现得更为优异。
  • 多模态支持:GPT-4不仅支持文本,还可以处理图像等其他类型的数据(取决于具体版本)。
  • 应用广泛:GPT-4在对话系统、内容生成、代码编写、翻译等多个领域都有出色表现。

应用场景

  • 企业应用:GPT-4被用于增强客户服务、自动化文档生成、数据分析等。
  • 开发工具:通过OpenAI API,开发者可以将GPT-4集成到各种应用中,例如智能助手和内容管理系统。

Bard(Google)

简介

Bard 是Google推出的高级对话AI模型,专注于提供自然流畅的对话体验。Bard整合了Google在自然语言处理和机器学习方面的最新进展,尽管模型和训练数据闭源,但通过Google的服务可以访问。
在这里插入图片描述

特点

  • 上下文理解:Bard具备深度上下文理解能力,可以进行长时间连贯对话。
  • 多轮对话:能够处理复杂的多轮对话,提供详细和相关的回答。
  • 集成服务:与Google搜索、地图、日历等服务无缝集成,提供更为实用的对话体验。

应用场景

  • 个人助理:Bard用于智能手机助手、智能音箱等设备,为用户提供日常帮助。
  • 客户支持:帮助企业提升客户服务效率,提供快速、准确的自动化回复。

LaMDA(Google)

简介

LaMDA(Language Model for Dialogue Applications)是Google专为对话设计的大型语言模型,旨在提供更为自然和有意义的对话体验。尽管LaMDA是闭源的,但它在多个Google产品中得到了应用。

特点

  • 对话优化:LaMDA专门为对话优化,具备理解和生成自然对话的能力。
  • 上下文保持:能够在长时间对话中保持上下文一致性,使得对话更加流畅。
  • 多领域知识:具备广泛的知识覆盖,可以处理各种话题的对话。

应用场景

  • 对话系统:用于智能聊天机器人、虚拟助理等系统,提升用户互动体验。
  • 客户服务:在企业客户服务中,提供自动化和智能化的对话解决方案。

Claude(Anthropic)

简介

Claude是由Anthropic公司开发的一种先进的对话AI模型,致力于提供安全且高度可控的对话体验。尽管Claude是闭源的,但它以其对安全性和伦理性的关注而著称。
在这里插入图片描述

特点

  • 安全性:Claude在设计上特别注重对话的安全和伦理问题,避免有害输出。
  • 高可控性:提供了细粒度的控制选项,允许用户调整模型的行为和回答方式。
  • 对话深度:具备处理复杂和深入对话的能力,提供详细和有帮助的回答。

应用场景

  • 敏感环境:在需要高度安全和伦理考量的环境中使用,例如医疗咨询和法律咨询。
  • 客户支持:用于提供安全且可靠的客户支持服务,提升用户信任度。

MUM(Google)

简介

MUM(Multitask Unified Model)是Google开发的一种多任务统一模型,旨在提供超越传统搜索体验的能力。MUM不仅处理文本,还可以理解和生成图像、视频等多种数据形式。

特点

  • 多任务处理:MUM能够同时处理多种任务,如搜索、问答、翻译等。
  • 多模态支持:支持文本、图像、视频等多种数据形式的理解和生成。
  • 高度智能:具备深度理解能力,可以提供更为精确和相关的搜索结果。

应用场景

  • 搜索引擎:提升搜索引擎的智能化水平,提供更为精确和多样化的搜索结果。
  • 信息检索:在各种信息检索和数据分析任务中,提供强大的支持。

这些闭源大模型在各自的应用领域中展示了卓越的性能和广泛的应用前景,尽管它们的源代码和训练数据未公开,但通过商业化产品和服务,它们仍然为用户提供了强大的人工智能能力。

优势

  1. 资源充足

    • 闭源项目通常由公司资助,拥有充足的资金和资源进行长期开发和维护。
    • 可以雇佣专业团队进行专注开发,保证产品质量和稳定性。
  2. 商业化路径明确

    • 闭源软件可以通过销售许可证、订阅服务等方式直接盈利,商业模式清晰。
  3. 数据安全和控制

    • 公司可以严格控制代码和数据的访问,确保安全性和隐私保护。
  4. 一致性和整合性

    • 由于开发由一个团队或公司负责,闭源软件在设计和实现上更容易保持一致性和整合性。

挑战

  1. 创新速度较慢

    • 闭源项目依赖于内部团队的创新速度,可能比不上开源社区的集体智慧和多样化的创新。
  2. 透明性不足

    • 由于代码不公开,用户无法审查和验证代码的安全性和可靠性。
  3. 成本较高

    • 闭源软件通常需要购买许可证或订阅,可能增加用户的成本。

开源大模型与闭源大模型,你更好哪一方?

回到我们的主题。评价一个AI模型“好不好”“有没有发展”,首先就躲不开“开源”和“闭源”两条发展路径。对于这两条路径,实际上可以从数据隐私商业应用社区参与三个方向探讨。

数据隐私

开源大模型在数据隐私保护方面具有一定的优势。由于其代码公开,任何人都可以审查和验证模型的安全性和隐私保护措施。这种透明性有助于发现和修复潜在的安全漏洞,确保用户数据的安全。例如,BERT和T5等开源模型不仅提供了卓越的自然语言处理能力,还能让用户和开发者通过自主检查,确保没有隐藏的安全风险。

然而,闭源大模型则在数据隐私控制上更为严格。闭源模型通常由公司内部团队开发和维护,数据访问权限受到严格控制,能够更有效地保护用户隐私。例如,Google的LaMDA和OpenAI的GPT-4在商业应用中严格控制数据访问和使用,确保用户数据的安全性和隐私保护。

商业应用

在商业应用领域,闭源大模型往往具有更明确的商业化路径和资源优势。闭源项目通常由大型科技公司资助,拥有充足的资金和专业团队,能够提供高质量和稳定的服务。例如,OpenAI的GPT-4通过API提供广泛的商业应用,包括自动化文档生成和客户支持等,为企业带来显著的效率提升和成本降低。

另一方面,开源大模型在商业化上面临一些挑战。尽管开源模型通常是免费的,降低了开发者的进入门槛,但其商业化模式可能更复杂,主要依赖于服务和支持等增值业务。然而,开源模型也有其独特的优势,特别是在推动技术创新和降低初创企业的开发成本方面。例如,EleutherAI的GPT-Neo和GPT-J通过开源模式为中小企业和研究机构提供了强大的自然语言处理工具。

社区参与

开源大模型在社区参与和合作方面具有明显的优势。开源项目吸引了全球开发者和研究人员的广泛参与,促进了快速的迭代和创新。例如,Google的BERT和T5在开源社区的推动下,不断涌现出新的应用和改进版本。社区驱动的创新不仅能迅速发现和修复问题,还能在模型的基础上开发出更多元化的应用场景。开源模型的透明性和可访问性使得更多人能够学习和使用先进的技术,推动整个行业的进步。

相比之下,闭源大模型在社区参与方面的局限性较大。由于代码和数据不公开,外部开发者和研究人员难以直接参与模型的改进和创新。这种封闭性虽然有助于控制质量和保护知识产权,但也可能限制了模型的快速发展和应用多样性。然而,闭源模型的开发团队通常具备更高的专业水平和资源,能够在特定领域提供高质量的商业解决方案。例如,Google的LaMDA和Bard在对话系统中的应用体现了其在特定应用场景下的卓越性能。

结论

从长期发展的角度来看,我更看好开源大模型开源项目是为了分享这个世界,那么就可能必然会舍弃掉资源的保密性和私人性,但其在创新速度、透明性、教育和社区参与方面的优势非常明显,我认为瑕不掩瑜。因为当一个开源的项目足够大足够精彩,那么或许你在别人眼中就不只是技术分享者,更多是一个为计算机行业拥有显著贡献的创造者。

此外,许多成功的商业公司也在探索开源与闭源结合的模式,通过开放核心技术并提供增值服务来实现商业成功。这实际上也会促进公司之间的合作,从而促进商业化和行业内的发展。

然而,这并不意味着闭源大模型没有前景。对于某些需要高度安全性和控制的应用场景,闭源模式仍然是必要的。因此,具体选择哪种路径,还需要根据具体的应用场景和需求进行权衡。

总的来说,开源大模型和闭源大模型各有其优势和挑战。在数据隐私、商业应用和社区参与方面,它们展现出不同的特点和潜力。选择更看好哪一种路径,取决于你所重视的因素和目标。无论是开源还是闭源,推动AI技术的发展和应用,共同促进智能时代的到来,是我们作为掌舵者共同的目标。

核心技术并提供增值服务来实现商业成功。这实际上也会促进公司之间的合作,从而促进商业化和行业内的发展。

然而,这并不意味着闭源大模型没有前景。对于某些需要高度安全性和控制的应用场景,闭源模式仍然是必要的。因此,具体选择哪种路径,还需要根据具体的应用场景和需求进行权衡。

总的来说,开源大模型和闭源大模型各有其优势和挑战。在数据隐私、商业应用和社区参与方面,它们展现出不同的特点和潜力。选择更看好哪一种路径,取决于你所重视的因素和目标。无论是开源还是闭源,推动AI技术的发展和应用,共同促进智能时代的到来,是我们作为掌舵者共同的目标。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/640378.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

YoloV9实战与改进——专栏目录

摘要 🔥🚀本专栏教你如何嗨翻Yolov9!🚀🔥 🚀炸裂升级:嗨,小伙伴们!这里有一波Yolov9的升级大招,带你领略最新论文的精华!💥 什么注意…

ue引擎游戏开发笔记(47)——设置状态机解决跳跃问题

1.问题分析: 目前当角色起跳时,只是简单的上下移动,空中仍然保持行走动作,并没有设置跳跃动作,因此,给角色设置新的跳跃动作,并优化新的动作动画。 2.操作实现: 1.实现跳跃不复杂&…

得物小程序逆向+qt可视化(不含sku)

声明 本文章中所有内容仅供学习交流使用,不用于其他任何目的,抓包内容、敏感网址、数据接口等均已做脱敏处理,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关!wx a15018601872 本文章未…

loguru和print输出顺序乱序

执行代码&#xff1a; from loguru import logger for i in range(1000):print(i)logger.info(i)执行效果&#xff1a; 0 1 2 3 4 2024-05-25 09:52:01.974 | INFO | __main__:<module>:6 - 0 2024-05-25 09:52:01.974 | INFO | __main__:<module>:6 - 1…

Java面试八股之可重入锁ReentrantLock是怎么实现可重入的

可重入锁ReentrantLock是怎么实现可重入的 ReentrantLock实现可重入性的机制主要依赖于以下几个核心组件和步骤&#xff1a; 状态计数器&#xff1a;ReentrantLock内部维护一个名为state的整型变量作为状态计数器&#xff0c;这个计数器不仅用来记录锁是否被持有&#xff0c;…

【算法例题】n元钱买n只鸡

题目描述&#xff1a;公鸡5元1只&#xff0c;母鸡3元1只&#xff0c;小鸡1元3只&#xff0c;问&#xff1a;n元钱买n只鸡&#xff0c;怎么买&#xff1f; 解题思路&#xff1a;这题要用枚举算法&#xff0c;枚举鸡的数量&#xff0c;代码如下&#xff1a; ​#include <bit…

UE5 像素流与web 交互

总结下虚幻与网页的交互&#xff0c;这里将ue5 与js 交互传递参数记录下&#xff0c;其它的博主写的就是缺胳膊少腿的要么就是封闭收费&#xff0c;这个是在官方可以查询到。这里记录下&#xff1a; 点个关注不迷路&#xff1a; 具体的使用如下&#xff1a; 在你的游戏玩家类…

想要修改Excel表格内容,怎么移除编辑权限?

在使用Excel进行数据处理和管理时&#xff0c;我们经常会遇到需要保护工作表以防止误操作的情况。有时可能碰到“被保护单元格不支持此功能”的提示&#xff0c;本文将详细介绍这个问题的解决方案&#xff0c;帮助你取消单元格保护&#xff0c;使用所需的功能。 一、取消单元格…

01_Spark概述

文章目录 1.Spark概述Spark就是基于MR开发分布式计算分布式存储分布式传输集群中心化集群去中心化Spark集群中心化框架与系统引擎Driver 2.Spark核心模块3.spark和MR开发语言上处理方式Spark能否代替MR&#xff1f; 4.Spark运行模式部署Spark部署方式local模式 1.Spark概述 Sp…

汇编实现的操作系统

掌握X86汇编语言和GDB程序调试工具对于程序员来说是非常重要的_gdb 查看x86汇编-CSDN博客 掌握编译器和虚拟机的开发有哪些方面的好处-CSDN博客 Ville Mikael Turjanmaan开发的一个操作系统MenuetOS可运行在IA-32, x86-64平台上&#xff0c;完全用 64 位汇编语言编写。功能包…

【vue-1】vue入门—创建一个vue应用

最近在闲暇时间想学习一下前端框架vue&#xff0c;主要参考以下两个学习资料。 官网 快速上手 | Vue.js b站学习视频 2.创建一个Vue3应用_哔哩哔哩_bilibili 一、创建一个vue3应用 <!DOCTYPE html> <html lang"en"> <head><meta charset&q…

Unreal Engine5 Landscape地形材质无法显示加载

UE5系列文章目录 文章目录 UE5系列文章目录前言一、解决办法 前言 在使用ue5做地形编辑的时候&#xff0c;明明刚才就保存的Landscape地形完全消失不见&#xff0c;或者是地形的材质不见了。重新打开UE5发现有时候能解决&#xff0c;但大多数时候还是没有解决&#xff0c;我下…

AI应用案例:服务器智能分析管理系统

服务器硬件配置、性能状态、所运行的应用系统等信息分散于多个不同的信息管理系统。人为查询判断现有的服务器资源是否满足用户需求&#xff0c;且需结合资产管理系统与Maximo基础资源、性能监控、运维管理等各个系统互不关联&#xff0c;数据分散不能为运维管理提供完整一致的…

探索AI写作工具:五款推荐

在现实生活中&#xff0c;除了专业的文字工作者&#xff0c;各行各业都避免不了需要写一些东西&#xff0c;比如策划案、论文、公文、讲话稿、总结计划……等等。而随着科技的进步&#xff0c;数字化时代的深入发展&#xff0c;AI已经成为日常工作中必不可少的工具了&#xff0…

特征融合篇 | YOLOv8改进之利用新的空间金字塔池化FocalModulation取代SPPF

前言:Hello大家好,我是小哥谈。Focal Modulation Networks(FocalNets)的基本原理是替换自注意力(Self-Attention)模块,使用焦点调制(focal modulation)机制来捕捉图像中的长距离依赖和上下文信息。本文所做的改进是将新的空间金字塔池化FocalModulation取代SPPF模块。…

AWS Elastic Beanstalk 监控可观测最佳实践

一、概述 Amazon Web Services (AWS) 包含一百多种服务&#xff0c;每项服务都针对一个功能领域。服务的多样性可让您灵活地管理 AWS 基础设施&#xff0c;然而&#xff0c;判断应使用哪些服务以及如何进行预配置可能会非常困难。借助 Elastic Beanstalk&#xff0c;可以在 AW…

LLM大模型的7种推理框架分析

LLM的7种推理框架 Hugging Face的transformers 这是一个Python库&#xff0c;可以简化本地运行LLM的过程。 Transformers的优点&#xff1a; 自动模型下载提供代码片段非常适合实验和学习 Transformers的缺点&#xff1a; 需要对ML和NLP有深入了解需要编码和配置技能 2.L…

探寻最强性能云电脑:ToDesk云电脑、无影云、网易云游戏、易腾云横测大比拼

大家好&#xff0c;我是herosunly。985院校硕士毕业&#xff0c;现担任算法研究员一职&#xff0c;热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名&#xff0c;CCF比赛第二名&#xff0c;科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的…

Linux基础(二):环境搭建

本文准备从0开始&#xff0c;一步步搭建一套属于自己的Linux系统环境&#xff0c;这将是后续学Linux、用Linux、Linux环境编程、应用和项目部署、工具实验等一系列学习和实践的基石&#xff0c;希望对小伙伴们有帮助。提前备好Linux编程实验环境非常重要&#xff0c;建议人手一…

齐护K210系列教程(三十一)_视觉小车

视觉小车 齐护编程小车端程序动作说明联系我们 在经常做小车任务项目时会用的K210的视觉与巡线或其它动作结合&#xff0c;这就关系到要将K210的识别结果传送给小车的主控制器&#xff0c;K210为辅助传感器&#xff08;视觉采集&#xff09;。 这节课我们用K210识别图像&#x…