信息论、导论、模式识别(数据挖掘)、语义网络与知识图谱、深度学习、强化学习
(零)信息论
详见另一篇博文
信息论自总结笔记(仍然在更新)_信息论也更新了-CSDN博客https://blog.csdn.net/sinat_27382047/article/details/126905046
包括微积分、线性代数、概率论、离散数学
(一)AI导论
三大要素
搜索、推理、学习
形式化4要素
初始状态、后继函数、目标测试、路径耗散函数
一、搜索
完备性、最优性、时/空复杂度
性能量度
分支因子、目标结点深度、路径最大长度、搜索深度限制、搜索耗散
1.无信息搜索策略
广度优先、代价一致
深度优先、深度有限
迭代深入深度优先搜索
2.启发式搜索
贪婪最佳优先算法
A* -有效分支因子b*
3.局部搜索算法
模拟退火算法
遗传算法(GA)
4.约束满足问题
约束满足问题(CSPs)是一组对象,这些对象需要满足一些限制或条件。CSPs通常呈现高复杂性,需要同时透过启发式搜索和联合搜索的方法,在合理的时间内解决问题。
最小剩余启发式、度启发式;变量约束启发式
5.博弈搜索(对抗搜索)
(α-β剪枝)【夹逼剪枝(雾)】
AlphaGo核心方法
关键:
改进的蒙特卡洛树搜索MCTS 棋局图像化(19x19)从而可以使用CNN网络;
设计policy 和value 网络改进Monte Carlo模拟;
使用监督学习和强化学习训练这两个网络;
将以上方法整合进MCTS的框架;
Alpha Go Zero:self-play数据的生成和扩充
MCTS算法的主要步骤
MCTS算法主要包括以下四个步骤:
- 选择(Selection):从根节点开始,递归选择最优的子节点,最终到达一个叶子节点。选择过程使用Upper Confidence Bounds(UCB)策略,平衡探索和利用。
- 扩展(Expansion):如果当前叶子节点不是终止节点,则创建一个或多个子节点。
- 模拟(Simulation):从扩展节点开始,运行一个模拟直到博弈游戏结束。模拟过程中可以随机评估多次,取最优值或平均值来提升评估的可靠性。
- 回溯(Backpropagation):根据模拟结果更新树中节点的统计信息,包括胜利次数和总模拟次数等。
二、知识和推理
逻辑:表示信息的形式化语言
基于知识的确定性推理:命题逻辑、一阶逻辑:——Hunt the Wumpus 游戏
基于知识的不确定性推理:贝叶斯网(联合概率->条件概率 简化复杂度;贝叶斯网->剪枝方式:噪声或)、模糊逻辑;
基于案例的推理
知识图谱的推理
智能化智能体需要关于世界的知识以达到良好的决策;前向链接和反向链接都是用于以Horn Form表示的知识库的非常自然的推理算法。
三、人工神经网络(ANN Artificial Neural Network)
1.单层感知机及学习方法
前馈神经网(Feed-Forward Neural Networks)
最小均方误差(Least Mean Square,简称LMS)
自适应线性神经元(Adaline)
2.多层感知机( MLP Multi-Layer Perceptrons)与误差反向传播(BP Backpropagation)算法
无监督SOM网、无监督ART网、无监督Hopfield网
深度学习DBN、CNN、RNN
(二)语义网络(知识图谱)
WordNet、DBPedia
Embedding(嵌入)是机器学习和深度学习中的一种技术,它将高维数据映射到一个低维的向量空间中,以便能够更高效地处理和表示数据。Embedding 通常用于将离散对象(如单词、物品、节点等)表示为连续的向量形式,从而使得这些对象能够在数值空间中进行操作。
一、语义网络和知识图谱简介
实体三元组(Ent1, Relation, Ent2)
知识库是一个有向图
多关系数据(multi-relational data)
节点:实体/概念
边:关系/属性
关系事实= (头部实体,关系/属性,尾部实体)
知识图谱的生命周期
知识建模
建模领域知识结构
本体建模
知识获取
获取领域内的事实知识
信息抽取、文本挖掘
知识集成
估计知识的可信度,将碎片知识组装成知识网络
本体对齐、实体链接技术
知识存储/查询/应用
提供高性能知识服务
知识表示、查询、推理
二、知识表示与知识建模
谓词逻辑表示法特性
优点:
精确性:可以较准确地表示知识并支持精确推理。
通用性:拥有通用的逻辑演算方法和推理规则。
自然性:是一种接近于人类自然语言的形式语言系统。
模块化:各条知识相对独立,它们之间不直接发生联
系,便于知识的添加、删除和修改。
缺点:
表示能力差:只能表示确定性知识,不能表示非确定
性知识、过程性知识和启发式知识。
管理困难:缺乏知识的组织原则,知识库管理困难。
效率低:把推理演算与知识含义截然分开,往往使推
理过程冗长,降低了系统效率。
框架表示法特性
优点:
结构化:分层次嵌套式结构,既可以表示知识的内部
结构,又可以表示知识之间的联系。
继承性:下层框架可以从上层框架继承某些属性或值,
也可以进行补充修改,减少冗余信息并节省存储空间。
自然性:框架理论符合人类认知的思维过程。
模块化:每个框架是相对独立的数据结构,便于知识
的添加、删除和修改。
缺点:
不能表示过程性知识。
缺乏明确的推理机制。
三、知识抽取与挖掘
1.实体识别
分词
基于字典的分词方法
基于统计的分词方法:生成式方法(HMM :Hidden Markov Model),隐马尔可夫模型:分词+词性标注;
判别式方法(CRF条件随机场)
命名实体识别
基于字典的命名实体识别方法
基于统计的命名实体识别方法
• 基于HMM的NER方法
• 基于CRF的NER方法
• 基于深度学习的NER方法
基于LSTM + CRF的NER方法
基于膨胀卷积 IDCNN+CRF 的 NER
基于 BERT 的 NER 方法: 用 BERT
实体链接
给定实体指称项(mention)和它所在的文本,将其链接到给定知识库中的相应实体(entity)上。
主要步骤
候选实体的发现
给定实体指称项,链接系统根据知识、规则等信息找到实体指称项的候选实体 (实体引用表)候选实体的链接
系统根据指称项和候选实体之间的相似度等特征,选择实体指称项的目标实体
相关方法: 基于词袋子模型(BOW)计算相似度、类别特征(Bunescu EACL 2006)、实体流行度等特征(Han ACL 2011)、基于图的协同链接
异质知识图谱中的实体对齐AliNet (AAAI 2020)
结构化数据的知识抽取:R2RML
半结构化数据的知识抽取:RoadRunner
2.关系抽取
自动识别由一对概念和联系这对概念的关系构成的相关三元组
自然语言的表示学习
基本语言单元的语义表示
词的表示
分布式原则
更大语言单元的语义表示
句子的表示
语义组合原则
深度学习的本质:用数值(向量,矩阵等)表示各个语
言单元的语义(特征)
CNN、RNN、LSTM、Attention CNNs
Distant Supervision:使用知识库中的关系启发式的标注训练语料
1. 简单远距离监督方法 (Mintz et al.,ACL09)
2. Piecewise Convolutional Neural Networks (Zeng 2015)
3. Selective Attention over Instances (Lin 2016)
4. Multi-instance Multi-label CNNs (Jiang et al., 2016)
5. Multi-Instance With extra Entity Descriptin (Ji 2017)
6. Matching the Blanks: Distributional Similarity for RelationLearning(Ling 2019)
实体关系抽取工具:Deepdive
3.事件抽取
事件:特定的人、物在特定时间和特定地点相互作用的客观事实。一般是句子级的。
• 组成元素
• 触发词:表示事件发生的核心词,多为动词或名词;
• 事件类型:ACE2005 定义了8种事件类型和33种子类型。
• 论元:事件的参与者,主要由实体、值、时间组成。值是一种非实体的事件参与者,例如工作岗位 。
• 论元角色:事件论元在事件中充当的角色。 ACE2005共有35类角色
事件抽取的基本任务
• 事件触发词检测 Event (trigger) detection
• 事件触发词分类 Event trigger typing (一般和detection一起做,归结为detection的一部分)
• 事件论元识别 Event Argument Identification
• 事件论元角色识别 Event Argument Role Identification
事件抽取的典型方法
基于神经网络的方法:
网络结构:不同的网络结构捕捉文本中不同的信息
卷积神经网络(CNN)(Chen et al. ACL 2015, Nguyen et al.2015, Chen et al.2017)
多层感知机(MLN)(Liu et al. 2016, Liu et al.2017)
循环神经网络(RNN)
图神经网络 (GCN)
预训练语言模型 (PLM)
1.基于动态最大池化技术的卷积神经网络
2.基于有监督关注机制的多层感知机模型
3.基于RNN的联合事件抽取模型
4.基于RNN的Document-Level触发词抽取模型
5.基于论元感知池化的GCN事件抽取模型
基于提示语Prompt的文本分类
传统task-specific的有监督模式
预训练语言模型的研究思路通常是“pre-train, fine-tune”
融入了Prompt的新模式 “pre-train, prompt, and predict”
四、知识存储、推理和应用
掌握XML、RDF和OWL技术标准
1.图表示学习
传统图机器学习方法(节点级任务、边级任务、图级别任务)
节点表示学习(编码-解码、随机游走算法)
图神经网络(深度学习基础、图深度学习、GNN框架)
2.知识图谱嵌入
异质图和知识图谱嵌入
知识图谱补全
3.知识图谱推理
直接推理
多跳推理
复杂推理
4.注意力机制
QKV 模式(Query-Key-Value)
多头(multi-head )自注意力模型
Transformer 编码器
BERT– Bidirectional Encoder Representations from Transformers
(三)模式识别(数据挖掘+机器学习ML Machine learning)
数据挖掘的一大特点是人要做很多的特征工程(Feature Engineering)。用户往往需要深入理解数据,然后基于领域知识设计有用的特征。例如,如果处理财务数据,用户可能手动构建特征如“价格涨跌幅”或“移动平均”等。这个过程是半自动化的,需要专家介入。
数据挖掘带着数据获取和数据分析,但是分析的部分还是要人进行特征工程。深度学习的一个关键优势在于自动特征学习。通过多个隐藏层,深度学习能够从原始数据中自动提取高层次的特征,而无需手动进行特征工程。网络会通过反向传播学习最有用的特征,减少了对人工干预的需求。
- 数据挖掘 强调从数据中提取模式、规则和洞察,使用的算法比较多样化,通常需要手动设计特征。数据挖掘方法通常依赖于传统的统计方法和浅层的机器学习算法。这些算法通常需要大量的特征工程,用户需要对数据有深刻理解并设计特征。它的应用领域更偏向于从业务数据中提取有用的规则或模式。
- 深度学习 是机器学习的一个分支,它通过多层神经网络自动从大数据中学习复杂特征表示,能够处理更复杂的任务和数据。激活函数的引入只是深度学习与传统数据挖掘技术的一个区别,深度学习的本质区别在于其“深层次自动特征学习”和处理复杂非线性问题的能力。
数据、特征、算法、评估
一、机器学习的对比与区别
- 机器学习 是一个广泛的领域,其中包含了许多算法和方法,而不仅仅局限于 深度学习 和 强化学习。这些方法往往用于各种各样的任务,覆盖监督学习、无监督学习、半监督学习、概率模型、优化算法等多个领域。
- 深度学习 主要是基于多层神经网络的复杂学习方法,强调自动化的特征提取和模式识别。
- 强化学习 则是一种学习如何在一个动态环境中做出最佳决策的策略优化方法。
二、相关方法
以下是一些在机器学习中存在,但不在深度学习或强化学习中的重要内容:
1. 传统的监督学习算法(Supervised learning )
这些算法是机器学习中最基础的内容,不依赖深层网络结构。
- 线性回归:(比如最小二乘法)用于连续数值预测。基于线性关系来拟合数据。
- 逻辑回归:用于二分类问题,尽管叫“回归”,它实际上是一个分类算法。
- 支持向量机(SVM):用于分类、回归和异常检测,通过找到能够最大化分类间距的决策边界。
- K最近邻(KNN):基于距离度量,分类器将数据点划分为与其最近的 k 个点属于同一类的类别。
- 决策树:基于树形结构来做出分类决策。
- 随机森林:由多个决策树组成的集成方法,通过投票提高模型的预测准确性。
- 梯度下降法( Gradient Descent , GD ):梯度下降法是一种通用的优化算法,最初主要用于传统机器学习模型的训练。然而,它在深度学习中也被广泛应用。随机梯度下降法(SGD)用于更新模型参数,以最小化损失函数。
- 梯度提升机(GBM):通过多个弱学习器(通常是决策树)逐步改进模型性能,类似的还有 XGBoost、LightGBM 等现代变种。
- 奇异值分解( SVD ):将矩阵分解为二个正交矩阵与一个对角矩阵的乘积,用于数据压缩、推荐系统。
这些方法大多被称为“浅层模型”,因为它们通常没有复杂的层次结构,也不涉及深层神经网络。
2. 无监督学习(Unsupervised learning)
与监督学习不同,无监督学习不依赖标签数据,而是从数据的结构中挖掘潜在的模式。
- K-means 聚类:将数据划分为 k 个簇,通过迭代优化聚类中心位置,发现数据内部的结构或模式。
- Apriori算法:是著名的啤酒-纸尿裤算法。Apriori 算法开创性地使用基于支持度的剪枝技术(先验原理),使用逐层搜索(宽度优先)的迭代搜索方法,系统地控制候选项集指数增长。——关联分析( Association Analysis )又称关联挖掘,就是在交易数据、关系数据或其他信息载体中,查找存在于项目集合或对象集合之间的 频繁项集 ( Frequent Itemsets )和代表相关关系(或因果关系)的 关联规则 ( Association Rules )。规则发现算法:KID3 , AIS,SETM,Apriori,AprioriTid,AprioriHybrid。
- 层次聚类:基于数据点之间的距离或相似性来构建树状的聚类结构。
- 主成分分析(PCA):用于降维,通过投影将数据映射到较低维度的空间,同时保留最多的方差信息。
- 自组织映射(SOM):基于神经网络的无监督学习算法,用于数据的降维和聚类。
- 高斯混合模型(GMM):基于概率的聚类算法,假设数据是由多个高斯分布组成。
无监督学习不直接涉及深度学习或强化学习,而是用于探索数据的结构和模式。
3. 半监督学习
在这种方法中,模型在训练时使用的是部分有标签的数据,而非完全有标签的数据。
- 例如,半监督学习可能会用 10% 的标注数据加 90% 的无标注数据来提升模型的准确性。
- 标签传播:通过已知标签的数据点在相似性图上传播标签信息,推断无标签数据的类别。
4. 迁移学习
迁移学习是一种能够将一个领域的知识迁移到另一个领域中使用的技术,尤其是在小数据集或不同但相关的任务中很有用。虽然它经常与深度学习结合使用,但迁移学习的理念可以超出深度学习的框架。
- 在迁移学习中,训练好的模型可以在另一个相似任务上进行微调,减少训练数据的依赖。
5. 集成学习
集成学习通过结合多个模型来提高性能,集成的思想并不局限于深度学习网络。
- 袋装法(Bagging):如随机森林,多个弱模型(如决策树)一起进行投票或平均以提高预测性能。
- 提升法(Boosting):如 AdaBoost、XGBoost,它是通过让多个弱模型逐步改进误差来构建一个强模型。
集成学习可以用于不同类型的机器学习模型,它们并不局限于神经网络模型。
6. 概率图模型
- 贝叶斯网络:基于概率论的图结构模型,表示变量之间的条件依赖关系。它常用于分类、预测以及因果推断中。
- 马尔可夫随机场:通过表示变量之间的联合概率分布来建模图结构,常用于图像处理或社交网络分析。
这些模型强调概率和统计关系的建模,不依赖于深度学习的神经网络架构。
7. 核方法
核方法的核心在于通过非线性映射提升模型的能力,而不需要深层网络。
8. 进化算法
- 遗传算法(GA):基于进化的自然选择理论,通过选择、交叉和突变来优化问题求解。它与强化学习不同,不涉及直接的策略优化或值函数。
- 粒子群优化(PSO):模拟鸟群或鱼群的群体行为进行优化。
这些方法基于生物学的进化过程来寻找最优解,而不是通过反复训练更新权重。
9. 主动学习
主动学习是一种通过选择最有信息的样本进行标注,来优化模型的学习过程。它主要用于当标注数据的获取代价较高时,比如手动标注数据集时。不同于深度学习的全监督学习,主动学习通过少量精心挑选的数据点来训练模型。
(四)深度学习(DL Deep learning)
深度学习不太依赖于手动的特征工程。相反,它通过多层非线性激活函数自动学习数据的特征表示。深度学习的主要研究内容是基于神经网络架构的,说白了就是网络架构设计与优化,不会再像传统机器学习一样去考虑对数据的分析,主要就是神经网络设计。
深度学习的三个步骤:
定义网络,损失函数loss、优化
樱桃:纯强化学习;奶油:监督学习;蛋糕坯:自监督学习();
KL 散度、loss曲线、交叉熵
设 真实分布P 和 模型分布Q 两个概率分布
交叉熵
交叉熵是一种用来衡量两个概率分布之间差异的指标。
KL散度
KL 散度可以理解为我们使用模型分布 QQQ 来表示真实分布 PPP 时,损失了多少信息量。KL 散度值越大,意味着 QQQ 偏离 PPP 的程度越大;KL 散度为 0,表示两者完全相同。
KL 散度和交叉熵的关系
loss曲线
在模型训练过程中,损失曲线 是训练过程中的 KL散度随时间(或迭代次数)变化的图。通常情况下,KL 散度会随着训练逐渐下降,表明模型的预测分布 Q 逐渐接近真实分布 P。
对于XOR问题:
➢将输入映射到高维空间
◆优点:可以有效扩展模型的容量
◆缺点:没有充分编码先验信息,泛化能力不足
➢增加手工特征
◆优点:可以引入必要的特征提升判别力
◆缺点:需要人工设计
➢基于深度学习的算法
◆优点:提升模型容量
◆缺点:可解释性、黑盒子
一、深度前馈网络(FNN Feedforward Neural Network)
前馈:数据从输入,经中间层处理,到输出,无反馈连接,
多层感知机(MLP)
参数化的线性映射层(权重 ,偏置 ):网络层的映射
激活函数:提供非线性能力
由于这种仿生设计,主要是这几种问题:
不同神经元如何连接 1. 深度网络结构的设计问题 人工神经元·参数化的线性单元(胞体) 2. 线性单元参数的优化问题 人工神经元·激活函数(输出轴突) 3. 激活函数的设计问题
神经网络的拟合能力
通用近似定理
◆根据通用近似定理,对于具有线性输出层和至少一个使用“挤压”性质的
激活函数的隐藏层组成的神经网络【 两层 MLP】,只要其隐藏层神经元的数
量足够 【 足够宽 】,它可以以任意的精度来近似任何一个定义在实数空间
中的有界闭集函数 【 近似能力足够 】
反向传播算法(BP)
反向传播的流程: :
1. 初始化整个计算图
2. 在每个节点存储 (a) 前向传播的结果 (b) 目标与节点变量
的偏微分。
3. 将偏微分值初始化为0.
4. 反向访问每个节点,将对应的梯度叠加于偏微分值
5. 反向传播结束后基于累计梯度对主要参数进行更新
计算图:将网络结构表达为一个图,每个叶子节点达标一个输入变量或常量,在梯度反传时用到,便于进行梯度计算的优化。静态计算图是在编译时构建计算图,计算图构建好之后在程序运行
时不能改变。动态计算图是在程序运行时动态构建。两种构建方式各有优缺点。
激活函数:激活函数是神经网络非线性、非凸表达能力的重要构成。常见的激活函数包括 ReLU、Sigmoid、Tanh、GELU 等。
全连接神经网络(FCN)
二、深度网络的正则化训练
正则化:参数正则化、数据增广、Early Stop、BatchNorm
目标:减少泛化误差而非训练误差(以偏差换方差)
➢广义:用于防止神经网络过拟合的技巧或方法,如权重衰减,dropout,BatchNorm.
➢狭义:特指优化目标中引入的额外约束项(用于防止过拟合)
Dropout是一种有效的正则化技术,通过随机丢弃神经网络中的部分节点(即神经元),来防止过拟合,提高模型的泛化能力,并减少计算量。
三、深度网络的优化
梯度下降优化算法:SGD with Nesterov Momentum、RMSprop、Adam、二阶优化算法(Newton
、BFGS/L-BFGS、Gauss-Newton)
训练网络的基本策略
◆从一个确定可以工作的简单模型开始(使用标准数据集、标准模型、标准
损失函数)
◆去掉正则化技巧(如正则化、数据扩充、dropout)
◆对于微调模型,检查并确保其预处理与原始模型的一致性
◆检查并确保输入数据的正确性
◆从小数据的过拟合开始,并逐步增加数据进行测试。
◆逐步加入不同的正则化技巧,并测试其影响
确保数据的正确性、测试在随机输入上的结果、检查DataLoader后的数据、确保输入与输出的关联、手动检验数据集中的噪声、随机打乱数据集、减少类别不均衡、确保充足的训练数据、确保每个batch中类别的随机性、使用标准数据集、数据预处理、检查数据扩充、检查预训练模型的预处理、检查验证集的预处理、小数据集的过拟合、确保在小型数据集上能够很好地过拟合、检查权重初始化、尝试不同的超参数、减少正则化、更多的训练时间、尝试不同的优化器、梯度爆炸和梯度消失、增加或减小学习率、避免NaNs
四、卷积神经网络(CNN)
用于图像、视频等空间数据的处理
核心问题:卷积层、感受野
典型代表:LeNet-98、AlexNet、VGG-Net、Inception系列、ResNet(残差模块、恒等映射identity mapping)、DenseNet、FPN (Feature pyramid network)
经典的视觉任务:分类任务、语义分割(U-Net、DeepLabV3+)、目标检测(RCNN: Region-based CNN、Fast RCNN、Faster RCNN、YOLO、Mask R-CNN、Segment Anything)、实例分割;
五、循环神经网络(RNN) 和 长短期记忆网络(LSTM)
用于序列数据和时间序列建模。
主要问题:梯度消失、梯度爆炸
N-gram语言模型、双向RNN、BERT、Stacked RNN(4层用于RNN解码可以取得最好的效
果。对于更深层次,需要使用skip connection或dense connection,例如Transformer)、
为解决提出,通过使用门控网络来确保梯度的恰当回传(LSTM,HighwayNet)
代表模型:LSTM: Long Short-Term Memory、UGRNN:Update Gate Recurrent Neural Network、GRU: Gated Recurrent Unit
六、图卷积神经网络(GNN)
对于图这类数据结构的数据,如何设计神经网络?
空域卷积:Graph attention networks(GAT)、ChebNet,、SGCN、ChebNet
谱域卷积:谱分解(矩阵的特征值分解)、图傅里叶变换、基于拉普拉斯矩阵的图卷积、切比雪夫图卷积
DGCNN(聚合了点的局部特征、在经过多层迭代更好的捕捉到潜在的远距离相似特征、动态图
、需要为每一层计算KNN计算开销大)
七、变形神经网络(Transformer)
注意力机制,用于自然语言处理等领域。
注意力机制通过可变加权,相比 CNN \ RNN \ GNN 有更大的优势
参数缩放点积注意力 、自注意力、通道注意力(Squeeze-and-Excitation Network, SENet)、空间注意力 (Non-local Neural Networks)、时间注意力(Global Local Temporal Representation, GLTR)、分支注意力(Selective kernel networks, SKNet)、时空注意力
变形网络 Transformer
Swin Transformer、DETR、典型的预训练解码器:2018年推出的GPT(Generative Pre-Trained Transformer 生成式预训练转换器)、BERT
八、深度生成模型(GAN、扩散算法)
用于数据生成和样本增强。
生成模型(Generative model),生成模型定义了数据的概率分布,构建数据的生成分布以便可以生成与训练数据相似的样本。
生成任务需要对样本的概率分布进行建模;生成模型可以用于样本的概率估计;生成模型可以用于补全数据;生成模型可以通过无监督的方式学习数据分布的低维嵌套与基本结构。
生成模型,比如PixelRNN
变分自编码网络,比如VAE(Variational Auto Encoder),通过引入概率模型使得数据生成成为可能
生成对抗结构GAN (Generative adversarial networks),生成器:尝试生成可以欺骗判别器的样样本、判别器:尝试区分真实样本与虚假样本(缺点:经常会出现模式崩溃)
Deep Convolutional GAN、CycleGAN、ProgressiveGAN、BigGAN、StyleGAN
去噪扩散概率模型DDPM(Denoising Diffusion Probabilistic Models ),前向扩散:在输入中逐步加入噪声、逆向扩散:通过去噪声学习数据的生成
(五)强化学习(RL Reinforcement learning)
课程:
强化学习课程重温-(乱七八糟)笔记-CSDN博客https://blog.csdn.net/sinat_27382047/article/details/141104288实践:
强化学习实操入门随笔-CSDN博客https://blog.csdn.net/sinat_27382047/article/details/136553623
(六)其他
零、碎碎念 ,自己梳理的发展史
1996年那些互联网大佬开始发迹;我第一次接触电脑在2000年左右,2005年左右的上网时尚我没有赶上;我初中时2011年左右互联网社区开始普及,我记得是2014左右提出的云计算,还有时兴一阵的李开复的语音识别;在2015年左右移动互联网开始普及,那时还在设想元宇宙呢(没想到是2016短视频、移动平台直播的爆发年,以及共享单车所谓物联网的出现)后来是所谓的大数据,以及里程碑似的AlphaGO;(其实2017年开始已经有风格转绘了,还有后来的GAN图像生成)再后来我开始工作,2019年比较火的是docker等技术;直到2022年底出现的AI绘画、2022年11月30日出现的chatGPT,将2023年正在读AI专业研的我大受震撼。现在已经是2024年秋了,我却还在为毕业选题发愁……555
一、模式pattern 与 模型model
关于一些模型的罗列:
人工智能模型学习笔记-CSDN博客https://blog.csdn.net/sinat_27382047/article/details/137260066
二、关于智能决策
《智能决策技术及应用》笔记-CSDN博客https://blog.csdn.net/sinat_27382047/article/details/134795891