人工智能(一)架构

一、引言

    人工智能这个词不是很新鲜,早就有开始研究的,各种推荐系统、智能客服都是有一定的智能服务的,但是一直都没有体现出多高的智能性,很多时候更像是‘人工智障’。

    但是自从chatGpt3被大范围的营销和使用之后,人工智能逐渐体现出来他的智能性和高度的推理分析能力,虽然还是比不上有经验的业界选手,但是完全可以指导刚刚入行的业界菜鸟。

    他的范围也不再局限于软件行业,财务、法律、人事等等各种各样的行业都开始进行学习使用。但是大家对于他的实现原理和架构还是没有了解,只是听各种特征过程、神经网络、token、大模型之类的专业术语就感觉好像是两个世界的知识一样,其实只是因为AI已经被研究了很久,积累的底层比较多。

    作者经过一段时间的研究学习,对于AI也有了自己的一些理解,在这里进行分享,希望读者可以解开心中的疑惑,并且做好未来AI的学习应对。

二、架构

    人工智能的使用场景很多,对话、机器人、文本分析、视频图像处理等等。一方面既然是因为chatGpt,人工智能这个词又被炒热了,另外一方面对话分析又非常具有人工智能代表性,毕竟授人以鱼不如授人以渔,对话传递知识明显是更加智能的体现。作者就以对话模型作为分析的场景。

    在作者看来他的架构是这样的:

图片

1、神经网络

    神经网络是一种受人脑结构和功能启发的计算模型,它试图模拟生物神经系统的信息处理方式。基本的神经网络由大量的节点(或称为“神经元”)组成,这些节点通常被组织成多层。每个节点接收来自前一层节点的输入,对这些输入进行加权求和,然后通过一个非线性激活函数生成输出,该输出随后传递给下一层节点。

图片

2、深度学习框架

    深度学习框架是一种软件库或工具,它提供了构建、训练和部署深度学习模型所需的模块和接口。这些框架通常包含了预定义的多种神经网络层、优化算法、损失函数以及其他有助于简化深度学习模型开发的工具。代表性的有TensorFlow、PyTorch

图片

3、Transformer模型

    Transformer模型是一种基于自注意力机制的深度学习模型,Transformer模型在自然语言处理(NLP)领域取得了革命性的进展,尤其是在机器翻译、文本摘要、问答系统和文本生成等任务中表现出色。

  • Encoder (左侧): 编码器接收输入并构建其表示(其特征)。这意味着对模型进行了优化,以从输入中获得理解。

  • Decoder (右侧): 解码器使用编码器的表示(特征)以及其他输入来生成目标序列。这意味着该模型已针对生成输出进行了优化。

图片

4、数据集

    通常是从互联网上收集的大规模文本数据,包括书籍、文章、网页、新闻、论坛帖子、社交媒体内容等,经过清洗和预处理,更适合于模型训练,比如:

评论,情感"这部电影的剧情紧凑,特效震撼,非常推荐!",正面"演员的表演非常自然,导演把握得很好,值得一看。",正面"电影节奏太慢,情节也比较散乱,不太喜欢。",负面"虽然期待已久,但看完之后感觉很失望,剧情缺乏新意。",负面"音乐和摄影都很出色,给人留下深刻印象。",正面"特效做得很糟糕,完全破坏了观影体验。",负面

5、标记器Tokenizer


    将文本数据转换为模型能够理解的格式,就像计算机只会理解0、1一样,模型识别数据也只能识别数字,那就需要将数据集转换成模型认识的数字,他分为以下几步:

图片

分词(Tokenization):将文本字符串分割成更小的单元,这些单元可以是单词、子词(subwords)、字符等。例如,句子 "Hello, world!" 可能被分割成 ["Hello", ",", "world", "!"]。
编码(Encoding):将分词后的单元转换为数值ID,这些ID对应于模型的词汇表中的索引。例如,"Hello" 可能被转换为词汇表中的ID 1234。
添加特殊标记(Special Tokens):为了满足特定模型的要求,可能需要在序列的开始、结束或其他位置添加特殊标记,如 [CLS]、[SEP]、[PAD] 等。
截断和填充(Truncation and Padding):将序列截断或填充到模型所需的固定长度。

6、模型训练

    主要是通过导入大量的数据,进行处理之后给模型源代码进行训练,训练之后模型就有了权重。在作者看来,经过训练之后的权重就像是小孩学习之后有自己的判断能力,他的用处主要是:

预测/推断:训练后的权重捕捉了模型从训练数据中学习到的模式和关系。当新的输入数据被送入模型时,这些权重被用来计算预测结果,无论是分类标签、回归值还是其他类型的输出。
决策制定:在实际应用中,如自动驾驶、医疗诊断、股票交易等,训练后的模型可以根据其权重来做出决策或提供建议。
特征理解:在某些情况下,训练后的权重可以帮助我们理解模型是如何处理输入数据的,哪些特征对于预测结果更为重要

    预训练是训练模型前的一个操作:随机初始化权重,在没有任何先验知识的情况下开始训练。训练可能需要几周的时间。这是一个简单的例子:

​​​​​​​

import jiebaimport tensorflow as tffrom tensorflow.keras.preprocessing.text import Tokenizerfrom tensorflow.keras.preprocessing.sequence import pad_sequencesfrom tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import Embedding, LSTM, Dense
# 假设loadset是一个函数,用于加载数据集# 这里我们用一个占位符函数代替实际的加载过程def loadset():    # 这里应该是加载数据集的代码    # 返回数据和标签    return ["这是一个例句。", "这是另一个例句。"], [0, 1]
# 加载数据集texts, labels = loadset()
# 使用jieba进行分词texts = [" ".join(jieba.cut(text)) for text in texts]
# 使用Tokenizer进行词汇映射tokenizer = Tokenizer(num_words=10000)tokenizer.fit_on_texts(texts)sequences = tokenizer.texts_to_sequences(texts)
# 对序列进行填充以保证相同长度data = pad_sequences(sequences, maxlen=100)
# 构建模型model = Sequential()model.add(Embedding(10000, 128, input_length=100))model.add(LSTM(64))model.add(Dense(1, activation='sigmoid'))
# 编译模型model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
# 训练模型model.fit(data, labels, epochs=10, batch_size=32)

    微调是在模型经过预训练后完成的训练。要执行微调,首先需要获取一个经过预训练的语言模型,然后使用特定任务的数据集执行额外的训练。

    Transformers提供了一个 Trainer 类在数据集上微调任何预训练模型。​​​​​​​

from transformers import BertTokenizer, BertForSequenceClassification, Trainer, TrainingArgumentsfrom datasets import load_dataset
# 加载预训练的tokenizer和模型tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')model = BertForSequenceClassification.from_pretrained('bert-base-chinese', num_labels=2)
# 加载数据集,这里以'huggingface/datasets'中的'glue'数据集的'sst2'任务为例# 你可以替换为你自己的中文数据集dataset = load_dataset('glue', 'sst2')
# 对数据集进行预处理def preprocess_function(examples):    return tokenizer(examples['sentence'], padding='max_length', truncation=True)
encoded_dataset = dataset.map(preprocess_function, batched=True)
# 定义训练参数training_args = TrainingArguments(    output_dir='./results',          # 输出目录    num_train_epochs=3,              # 训练轮数    per_device_train_batch_size=16,  # 每个设备的训练batch大小    per_device_eval_batch_size=64,   # 每个设备的评估batch大小    warmup_steps=500,                # 预热步数    weight_decay=0.01,               # 权重衰减    logging_dir='./logs',            # 日志目录    logging_steps=10,)
# 初始化Trainertrainer = Trainer(    model=model,    args=training_args,    train_dataset=encoded_dataset['train'],    eval_dataset=encoded_dataset['validation'],)
# 开始训练trainer.train()

三、使用

    模型的使用以前在c端都是智能客服和学习机、推荐系统之类的角色,即使智能性上升也很难做出质的改变。

    至于机器人的确也是很大的使用方向,智能性提升,机器人才能发挥用武之地,但是作者认为目前的工业水准还不足以支撑机器人的智能行动,还是会局限在简单动作

    除了模型对话之外,主要还是要学习使用AI工具,比如制作视频图片等等,很多公司都用模型和音频软件打通,然后由用户对工具输入指令并且不断微调,这个过程会减少人力成本,毕竟软件和软件对接操作,总归比人和软件交互友好。

    至于技术人员对AI的使用,神经网络算法、深度学习框架已经偏向于基石,一方面是对参与者的要求很高,一方面是很难进行优化研究,我们以后的目光应该集中在大模型的使用和训练微调。

    有初步理解的读者应该能明白,数据集的质量和引导性对于模型的智能效果影响是很大的,所以各种使用场景、专业知识、工作环境的数据就会影响模型的运转的效率和准确性。

    未来的使用方向一定是ToB的,还有内部环境使用,就像作者公司内部已经使用模型进行代码检查了,使用起来主要是把改动代码传递给模型,让他按照固定的输出模板进行评论

    这个过程最复杂的反而是输入文本(Prompt)的不断调整。举个例子,你让模型做代码检查,总不能说,你给我检查一下吧,你要告诉模型扮演的角色,输出什么(比如代码可读性、可维护性和可扩展性的改进;优化建议,考虑时间复杂性和性能;不要检查代码注释和其他代码样式问题等等),答案需要是一个特定模板的json,这样才可以解析,因为还有拿这个给去做画面展示呢。模型的交互也是多次的,毕竟代码改动很多,但是模型输入长度是有限制的。   

    后续还要进行模型微调,比如公司的基础组件、工具类的数据描述,不然AI代码检查就不理解这些,总是猜测这种代码有没有问题 

    所以一方面是AI工具的学习使用,一方面是模型的训练微调,两个方向是后面AI的主流

四、总结

    作者通过对话大模型对人工智能的架构做了一些介绍,但是还有很多细节和技术点在一篇文章是说不清的:比如自注意力机制、模型怎么集成深度学习框架、特征工程、领域适应、权重调整引导等等。后续作者会开更加细化的文章进行论述。

    这一篇主要是为了让大家对人工智能的架构有一个了解,还有明白我们以后会怎么样使用它。

    AI的出现和兴起是不可避免的,目前他会大幅度影响知识类的行业,比如律师、医生之类的咨询服务,大家应该积极面对,先一步掌握才是应对变局的方法

    

图片

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/632094.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Hbuild-X运行ios基座app

一、说明 ios真机第一次运行的时候需要下载插件,这个都是自动监测,自动下载的,不用多说。ios真机运行是需要签名的,不然就会报以下错误。如何制作免费的签名证书呢,需要借助爱思助手来完成。 二、安装爱思助手 &…

吴恩达机器学习笔记:第 10 周-17大规模机器学习(Large Scale Machine Learning)17.3-17.4

目录 第 10 周 17、 大规模机器学习(Large Scale Machine Learning)17.3 小批量梯度下降17.4 随机梯度下降收敛 第 10 周 17、 大规模机器学习(Large Scale Machine Learning) 17.3 小批量梯度下降 小批量梯度下降算法是介于批量梯度下降算法和随机梯度下降算法之间的算法&am…

一行代码实现vip标志的显示

需求说明 在项目中,后期添加了一种用户类型。需要再用户头像右下角显示一个vip的标志。问题是只要有头像的地方都要显示。而有头像的地方很多,设置到的接口也很多。后面考虑通过一个工具类,将这个功能外挂到原来的业务需要的地方。 实现效果…

Java—如何判断两个浮点数相等

结论 一旦有浮点型数据参与运算的结果,一定不要使用 “ ” 与其比较。 提出问题 我们知道在Java中浮点数float 和 double 的值不能很精准的表示一个小数,因为会有精度损失。 下面来看一个例子: public class FloatTest {public static …

教程:在 Apifox 中将消息通知集成到钉钉、飞书等应用

Apifox 支持将「消息通知」集成到第三方应用平台,包括企业微信、钉钉、飞书、Webhook 和 Jenkins。具体可在项目的【项目设置 -> 通知设置 -> 外部通知】里新建一个通知事件,然后在弹出的界面中配置即可。 在配置界面可以选择需要的触发事件&#…

如何在WordPress中启用两因素身份验证?

在WordPress中启用两因素身份验证方法:安装和激活WordFence安全性、启用两因素验证。 使用您可以从任何位置登录的任何门户,建议启用两个因素身份验证以增加帐户的安全性。 这样,即使有人可以正确猜测你的密码,它们仍然需要获得2…

诸葛智能携手五大银行,以数据驱动的营销中台带来可预见增长

对于银行来说,客户是赖以生存的基础,也是保持活力的关键。尤其是大数据、人工智能等新兴技术的推动下,通过数据赋能产品升级和服务创新,深挖客户潜能,更是助推银行快步迈入高质量发展的新阶段。 在银行加速拥抱新质生…

32位处理的寻址方式

32位处理器兼容16位处理器的寻址方式,可以运行传统的16位代码。但是由于32位的处理器都拥有32位的寄存器和算数逻辑部件,而且同内存芯片之间的数据通路至少是32位的,因此,所有需要从寄存器或者内存地址处取得操作数的指令都被扩充…

Python专题:八、为整数增加小数点

1、题目 虽说很多人讨厌小数点,但是有时候小数点是必不可少的一项,请你使用强制类型转换为输入的整数增加小数点,并输出改变类型后的变量类型。 2、代码 import sysa float(int(input())) print(f"(a:.lf)",type(a),sep"\…

RTMP低延迟推流

人总是需要压力才能进步, 最近有个项目, 需要我在RK3568上, 推流到公网, 最大程度的降低延迟. 废话不多说, 先直接看效果: 数据经过WiFi发送到Inenter的SRS服务器, 再通过网页拉流的. 因为是打金任务, 所以逼了自己一把, 把RTMP推流好好捋一遍. 先说说任务目标, 首先是MPP编码…

什么是检索增强生成(Retrieval Augmented Generation)?RAG 架构如何实现?

检索增强生成(Retrieval Augmented Generation)时代 在不断发展的生成人工智能世界中,检索增强生成 (RAG) 标志着一项重大进步,它将检索模型的准确性与生成模型的创造性相结合,达到了准确&创新的更高层级。 这种…

vue嵌套路由

一、嵌套 children配置 1.父类路由 mymusic 2.子类路由 musicson 1.创建MusicSon组件 <template><div><p>从前和后来</p><p>唯一</p><p>运气来的似有若无</p></div> </template><script>export defaul…

关于电源3(整流滤波电路)

整流滤波电路 框图 一共有四种整流电路 以下是自己参考别人的文章https://blog.csdn.net/zhuguanlin121/article/details/130653498?ops_request_misc%257B%2522request%255Fid%2522%253A%2522171582622316800215096518%2522%252C%2522scm%2522%253A%252220140713.130102334…

【全开源】云界旅游微信小程序(源码搭建/上线/运营/售后/维护更新)

开启您的云端旅行新体验 一、引言 在快节奏的现代生活中&#xff0c;旅行成为了人们放松身心、探索世界的重要方式。让您的旅行更加便捷、高效&#xff0c;打造了云界旅游小程序&#xff0c;带您领略云端旅行的无限魅力。 二、小程序功能概览 云界旅游小程序集成了丰富的旅游…

SIP-7041 20W SIP广播网络有源音箱 校园广播20W木质SIP音箱

SIP-7041 20W SIP广播网络有源音箱 校园广播20W木质SIP音箱 一、描述 SIP-7041 20W SIP广播网络有源音箱 支持标准SIP协议 SIP-7041是我司的一款壁挂式网络有源音箱&#xff0c;具有10/100M以太网接口&#xff0c;可将网络音源通过自带的功放和喇叭输出播放&#xff0c;可达到…

二三维战场仿真系统

收费工具&#xff0c;白嫖党勿扰 收费金额1万元 1 概述 给某个公司做了一个战场仿真系统&#xff0c;该公司给了5W的辛苦费。现在把相关功能部分提取出来&#xff0c;给需要的同学。 2 功能说明 战场仿真系统&#xff0c;分为三个部分&#xff1a; 服务器&#xff0c;用来发…

澳鹏Appen入选大模型产业链基础层图谱及案例研究

近日&#xff0c;由亿欧、上海市人工智能行业协会&#xff08;SAIA&#xff09;主办的2024全球开发者大会“百模大战”商业发展讲坛成功举办。作为全球开发者大会的平行技术论坛之一&#xff0c;本场论坛聚焦大模型产业&#xff0c;分析大模型赛道的竞争格局&#xff0c;洞悉大…

visual studio snippet常用注释片段

Visual Studio 2022 添加自定义代码片段_vs2022 代码片段-CSDN博客 dclass.snippet: <?xml version"1.0" encoding"utf-8"?> <CodeSnippets xmlns"http://schemas.microsoft.com/VisualStudio/2005/CodeSnippet"> …

Hello, GPT-4o!

2024年5月13日&#xff0c;OpenAI 在官网正式发布了最新的旗舰模型 GPT-4o 它是一个 多模态模型&#xff0c;可以实时推理音频、视频和文本。 * 发布会完整版视频回顾&#xff1a;https://www.youtube.com/watch?vDQacCB9tDaw GPT-4o&#xff08;“o”代表“omni”&#xff0c…

haddoop三大核心组件

hadoop三大核心组件分别是hdfs、mapreduce和yarn。 1、hdfs&#xff1a;即分布式文件系统&#xff0c;用于存储hadoop集群中的大量数据。具有高容错性&#xff0c;可跨多个数据节点存储数据&#xff0c;并提供高吞吐量的数据访问&#xff1b; 2、mapreduce&#xff1a;用于大…