深度学习知识点:神经网络
- 前言
- 神经网络
- 激活函数的优缺点
- 为什么ReLU常用于神经网络的激活函数?
- 梯度消失和梯度爆炸的解决方案?梯度爆炸引发的问题?
- 如何确定是否出现梯度爆炸?
- 神经网络中有哪些正则化技术?
- 批量归一化(BN) 如何实现?作用?
- 神经网络中权值共享的理解?
- 对fine-tuning(微调模型)的理解?为什么要修改最后几层神经网络权值?
- 什么是Dropout?为什么有用?它是如何工作的?
- 如何选择dropout 的概率?
- 什么是Adam?Adam和SGD之间的主要区别是什么?
- 一阶优化和二阶优化的方法有哪些?为什么不使用二阶优化?
- 为什么Momentum可以加速训练?
- 什么时候使用Adam和SGD?
- batch size和epoch的平衡
- SGD每步做什么,为什么能online learning?
- 学习率太大(太小)时会发生什么?如何设置学习率?
- 神经网络为什么不用拟牛顿法而是用梯度下降?
- BN和Dropout在训练和测试时的差别?
- 若网络初始化为0的话有什么问题?
- sigmoid和softmax的区别?softmax的公式?
- 改进的softmax损失函数有哪些?
- 深度学习调参有哪些技巧?
- 神经网络调参,要往哪些方向想?
- 深度学习训练中是否有必要使用L1获得稀疏解?
- 神经网络数据预处理方法有哪些?
- 如何初始化神经网络的权重?神经网络怎样进行参数初始化?
- 为什么构建深度学习模型需要使用GPU?
- 前馈神经网络(FNN),递归神经网络(RNN)和 CNN 区别?
- 神经网络可以解决哪些问题?
- 如何提高小型网络的精度?
- 列举你所知道的神经网络中使用的损失函数
- 什么是鞍点问题?
- 网络设计中,为什么卷积核设计尺寸都是奇数?
- 参考
前言
- 本文是个人收集、整理、总结的一些人工智能知识点,由于本人水平有限,难免出现错漏,敬请批评改正。
- 由于本文是对知识点的收集和整理,图片基本来源于网络,图片若侵权,可联系删除。
- 更多精彩内容,可点击进入人工智能知识点
专栏、Python日常小操作专栏、OpenCV-Python小应用专栏、YOLO系列专栏、自然语言处理专栏或我的个人主页查看- 基于DETR的人脸伪装检测
- YOLOv7训练自己的数据集(口罩检测)
- YOLOv8训练自己的数据集(足球检测)
- YOLOv5:TensorRT加速YOLOv5模型推理
- YOLOv5:IoU、GIoU、DIoU、CIoU、EIoU
- 玩转Jetson Nano(五):TensorRT加速YOLOv5目标检测
- YOLOv5:添加SE、CBAM、CoordAtt、ECA注意力机制
- YOLOv5:yolov5s.yaml配置文件解读、增加小目标检测层
- Python将COCO格式实例分割数据集转换为YOLO格式实例分割数据集
- YOLOv5:使用7.0版本训练自己的实例分割模型(车辆、行人、路标、车道线等实例分割)
- 使用Kaggle GPU资源免费体验Stable Diffusion开源项目
神经网络
激活函数的优缺点
为什么ReLU常用于神经网络的激活函数?
1.在前向传播和反向传播过程中,ReLU相比于Sigmoid等激活函数计算量小;
2.避免梯度消失问题。对于深层网络,Sigmoid函数反向传播时,很容易就会出现梯度消失问题(在Sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失),从而无法完成深层网络的训练。
3.可以缓解过拟合问题的发生。Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。
4.相比Sigmoid型函数,ReLU函数有助于随机梯度下降方法收敛。
为什么需要激活功能?
激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。
梯度消失和梯度爆炸的解决方案?梯度爆炸引发的问题?
- 梯度消失:靠近输出层的hidden layer 梯度大,参数更新快,所以很快就会收敛;
而靠近输入层的hidden layer 梯度小,参数更新慢,几乎就和初始状态一样,随机分布。
另一种解释:当反向传播进行很多层的时候,由于每一层都对前一层梯度乘以了一个小数,因此越往前传递,梯度就会越小,训练越慢。 - 梯度爆炸:前面layer的梯度通过训练变大,而后面layer的梯度指数级增大。
①在深度多层感知机(MLP)网络中,梯度爆炸会引起网络不稳定,最好的结果是无法从训练数据中学习,而最坏的结果是出现无法再更新的 NaN 权重值。
②在RNN中,梯度爆炸会导致网络不稳定,无法利用训练数据学习,最好的结果是网络无法学习长的输入序列数据。
如何确定是否出现梯度爆炸?
- 模型不稳定,导致更新过程中的损失出现显著变化;
- 训练过程中模型梯度快速变大;
- 训练过程中模型权重变成 NaN 值;
- 训练过程中,每个节点和层的误差梯度值持续超过 1.0。
神经网络中有哪些正则化技术?
- L2正则化(Ridge);
- L1正则化(Lasso);
- 权重衰减;
- 丢弃法;
- 批量归一化;
- 数据增强;
- 早停法,
批量归一化(BN) 如何实现?作用?
- 实现过程: 计算训练阶段mini_batch数量激活函数前结果的均值和方差,然后对其进行归一化,最后对其进行缩放和平移。
- 作用:
1.可以使用更高的学习率进行优化;
2.移除或使用较低的 dropout;
3.降低L2权重衰减系数;
4.调整了数据的分布,不考虑激活函数,它让每一层的输出归一化到了均值为0方差为1的分布,这保证了梯度的有效性,可以解决反向传播过程中的梯度问题。
神经网络中权值共享的理解?
- 权值共享这个词是由LeNet5模型提出来的。以CNN为例,在对一张图偏进行卷积的过程中,使用的是同一个卷积核的参数。
- 比如一个3×3×1的卷积核,这个卷积核内9个的参数被整张图共享,而不会因为图像内位置的不同而改变卷积核内的权系数。
- 通俗说:就是用一个卷积核不改变其内权系数的情况下卷积处理整张图片。
对fine-tuning(微调模型)的理解?为什么要修改最后几层神经网络权值?
- 使用预训练模型的好处:在于利用训练好的SOTA模型权重去做特征提取,可以节省我们训练模型和调参的时间。
理由:
1.CNN中更靠近底部的层(定义模型时先添加到模型中的层)编码的是更加通用的可复用特征,而更靠近顶部的层(最后添加到模型中的层)编码的是更专业化的特征。微调这些更专业化的特征更加有用,它更代表了新数据集上的有用特征。
2.训练的参数越多,过拟合的风险越大。很多SOTA模型拥有超过千万的参数,在一个不大的数据集上训练这么多参数是有过拟合风险的,除非你的数据集像Imagenet那样大。
什么是Dropout?为什么有用?它是如何工作的?
- 背景:如果模型的参数太多,数据量又太小,则容易产生过拟合。为了解决过拟合,就同时训练多个网络。然后多个网络取均值。费时!
- 介绍:Dropout可以防止过拟合,在前向传播的时候,让某个神经元的激活值以一定的概率 P停止工作,这样可以使模型的泛化性更强。
Dropout效果跟bagging效果类似(bagging是减少方差variance,而boosting是减少偏差bias)。 - 加入dropout会使神经网络训练时间长,模型预测时不需要dropout,记得关掉。
- 具体流程:
i.随机删除(临时)网络中一定的隐藏神经元,输入输出保持不变,
ii.让输入通过修改后的网络。然后把得到的损失同时修改后的网络进行反向传播。在未删除的神经元上面进行参数更新
iii.重复该过程(恢复之前删除掉的神经元,以一定概率删除其他神经元。前向传播、反向传播更新参数)
如何选择dropout 的概率?
- input 的 dropout 概率推荐是 0.8, hidden layer 推荐是0.5
为什么dropout可以解决过拟合?
1.取平均的作用:
Dropout产生了许多子结构之后的操作,父神经网络有N个节点,加入Dropout之后可以看做在权值不变的情况下(参数共享)将模型数量扩增到指数级别
2.减少神经元之间复杂的共适应关系,迫使网络去学习更加鲁棒;
Dropout 在训练和测试的区别?
训练时随机删除一些神经元,在测试模型时将所有的神经元加入。
什么是Adam?Adam和SGD之间的主要区别是什么?
-
Adam是一种基于梯度下降的优化算法,特别适用于训练神经网络。与传统的随机梯度下降(SGD)优化器相比,Adam融合了动量(momentum)和自适应学习率的思想,使得参数更新更加稳定,加速收敛。
-
Adam算法的核心思想是计算每个参数的自适应学习率。在每次迭代中,它都会根据损失函数对每个参数的梯度的一阶矩估计和二阶矩估计动态调整学习速率。具体来说,Adam会存储过去一段时间的梯度的平均值和二次方平均值,并利用这些统计量来调整每个参数的学习率。
-
与SGD相比,Adam的主要优势在于其自适应学习率特性。SGD优化器是基于每个样本的梯度来更新模型参数的,其学习率是固定的。然而,Adam可以根据每个参数的不同特性自适应地调整学习率,这使得它在处理复杂非凸优化问题和大型神经网络时表现得更为出色。
-
然而,Adam也有一些局限性。例如,它需要额外的内存来存储和更新梯度的平均值和二次方平均值。对于小批量训练数据(batch size较小),Adam的效果可能不如SGD。因为Adam基于梯度的平均值和二次方平均值来调整学习率,而这些统计量可能受到小批量样本的偏差影响,导致学习率的调整不准确。
-
总体而言,Adam和SGD是两种不同类型的优化器,适用于不同规模和性质的问题。在选择使用哪种优化器时,需要根据具体问题的需求进行权衡。
SGD | Adam | |
---|---|---|
学习率调整方式 | 固定学习率 | 自适应学习率 |
稳定性 | 较低 | 较高 |
适用性 | 大规模数据集和计算资源有限的情况 | 复杂的非凸优化问题和大型神经网络 |
内存需求 | 较低 | 较高 |
对小批量数据的敏感性 | 较低 | 较高 |
一阶优化和二阶优化的方法有哪些?为什么不使用二阶优化?
- 一阶优化方法有:
SGD -> SGDM ->NAG -> AdaGrad -> AdaDelta / RMSProp(加速梯度下降) -> Adam -> Nadam
- 二阶优化
- 定义:对目标函数进行二阶泰勒展开,也就是二阶梯度优化方法
牛顿法 + BFGS法.
利用二阶泰勒展开,即牛顿法需要计算Hessian矩阵的逆,计算量大,在深度学习中并不常用。因此一般使用的是一阶梯度优化。
为什么Momentum可以加速训练?
- 动量其实累加了历史梯度更新方向,所以在每次更新时,要是当前时刻的梯度与历史时刻梯度方向相似,这种趋势在当前时刻则会加强;要是不同,则当前时刻的梯度方向减弱。动量方法限制了梯度更新方向的随机性,使其沿正确方向进行。
什么时候使用Adam和SGD?
Adam等自适应学习率算法对于稀疏数据具有优势,且收敛速度很快;
但精调参数的SGD(+Momentum)往往能够取得更好的最终结果
Adam+SGD 组合策略:先用Adam快速下降,再用SGD调优。
如果模型是非常稀疏的,那么优先考虑自适应学习率的算法;
在模型设计实验过程中,要快速验证新模型的效果,用Adam进行快速实验优化;
在模型上线或者结果发布前,可以用精调的SGD进行模型的极致优化。
batch size和epoch的平衡
SGD每步做什么,为什么能online learning?
online learning强调的是学习是实时的,流式的,每次训练不用使用全部样本,而是以之前训练好的模型为基础,每来一个样本就更新一次模型,这种方法叫做OGD(online gradient descent),目的是快速地进行模型的更新,提升模型时效性。而SGD的思想正是在线学习的思想。
学习率太大(太小)时会发生什么?如何设置学习率?
- 基于经验的手动调整
通过尝试不同的固定学习率,如3、1、0.5、0.1、0.05、0.01、0.005,0.0001等,观察迭代次数和loss的变化关系,找到loss下降最快关系对应的学习率。- 太小,收敛过程将变得十分缓慢;
- 太大,梯度可能会在最小值附近来回震荡(loss爆炸),甚至可能无法收敛。
- 基于策略的调整
①fixed 、exponential、polynomial
②自适应动态调整。adadelta、adagrad、ftrl、momentum、rmsprop、sgd
③Logit:对它取对数。
神经网络为什么不用拟牛顿法而是用梯度下降?
- 牛顿法原理:使用函数f(x)的泰勒级数的前面几项来寻找方程f(x)= 0的根。
BN和Dropout在训练和测试时的差别?
- BN:
训练时:是对每一个batch的训练数据进行归一化,也即是用每一批数据的均值和方差。
测试时:都是对单个样本进行测试。这个时候的均值和方差是全部训练数据的均值和方差,这两个数值是通过移动平均法求得。
当一个模型训练完成之后,它的所有参数都确定了,包括均值和方差,gamma和bata。
- Dropout
只有在训练的时候才采用,是为了减少神经元对部分上层神经元的依赖,类似将多个不同网络结构的模型集成起来,减少过拟合的风险。
若网络初始化为0的话有什么问题?
w初始化全为0,很可能直接导致模型失效,无法收敛。
sigmoid和softmax的区别?softmax的公式?
改进的softmax损失函数有哪些?
- Large Margin Softmax Loss (L-Softmax)
加了一个margin,要保证大于某一个阈值。这样可以尽量实现让类间间距更大化,类内距离更小。 - Center Loss
通过将特征和特征中心的距离和softmax loss一同作为损失函数,使得类内距离更小,有点L1,L2正则化。
深度学习调参有哪些技巧?
- 准备数据
1.1 保证有大量、高质量并且带有干净标签的数据;
1.2 样本要随机化,防止大数据淹没小数据;
1.3 样本要做归一化. - 预处理:0均值和1方差化
- minibatch:建议值128,不要用过大的数值,否则很容易过拟合
- 梯度归一化:其实就是计算出来梯度之后,要除以minibatch的数量。
- 学习率
- 用一个一般的lr开始,然后逐渐的减小它;
- 建议值是0.01,适用于很多NN的问题,一般倾向于小一点;
- 对于调度学习率的建议:如果在验证集上性能不再增加就让学习率除以2或者5,然后继续,学习率会一直变得很小,到最后就可以停止训练了。
- 很多人用的一个设计学习率的原则就是监测一个比率(范数和权值范数之间的比率),如果这个比率在10-3附近,如果小于这个值,学习会很慢,如果大于这个值,那么学习很不稳定,由此会带来失败。
- 使用验证集,可以知道什么时候开始降低学习率,和什么时候停止训练。
- 权重初始化的选择:
- 用高斯分布乘上一个很小的数
- 在深度网络中,随机初始化权重,使用SGD的话一般处理的都不好,这是因为初始化的权重太小了。这种情况下对于浅层网络有效,但是当足够深的时候就不行了,因为weight更新的时候,是靠很多weight相乘的,越乘越小,有点类似梯度消失。
- 如果训练RNN或者LSTM,务必保证gradient的norm被约束在15或者5(前提还是要先归一化gradient),这一点在RNN和LSTM中很重要。
- Adam收敛速度的确要快一些,可结果往往没有sgd + momentum的解好(如果模型比较复杂的话,sgd是比较难训练的,这时候用adam较好)
- 如果使用LSTM来解决长时依赖的问题,记得初始化bias的时候要大一点
- 尽可能想办法多的扩增训练数据,如果使用的是图像数据,不妨对图像做一点扭转之类的操作,来扩充数据训练集合。
- 使用dropout。
- early stop,发现val_loss没更新,就尽早停止。
- 评价最终结果的时候,多做几次,然后平均一下他们的结果。
神经网络调参,要往哪些方向想?
- 损失函数的选择是否是合适的
- 学习率的选取是否合适
- batch size选择是否合适
- 训练样本是否正常,是否需要增强
- 是否有设置batch normlaztion(数据归一化)
- 激活函数的类型需要选取恰当
- 选取合适的优化算法(例如梯度下降,Adam等)
- 是否存在过拟合
深度学习训练中是否有必要使用L1获得稀疏解?
没必要。对于加了L1正则的神经网络,大部分深度学习框架自带的优化器训练获得不了稀疏解;如果稀疏解的模式是无规律的,这种稀疏意义不大。
神经网络数据预处理方法有哪些?
- 中心化/零均值,归一化
如何初始化神经网络的权重?神经网络怎样进行参数初始化?
- 将所有的参数初始化为0
- 对w随机初始化
- Xavier初始化:尽可能的让输入和输出服从相同的分布,这样就能够避免后面层的激活函数的输出值趋向于0
- 何氏初试法
如果权重初始化太小,会导致神经元的输入过小,随着层数的不断增加,会出现信号消失的问题;也会导致sigmoid激活函数丢失非线性的能力,因为在0附近sigmoid函数近似是线性的。如果参数初始化太大,会导致输入状态太大。
对sigmoid激活函数来说,激活函数的值会变得饱和,从而出现梯度消失的问题。
为什么构建深度学习模型需要使用GPU?
- VGG16(在DL应用中经常使用16个隐藏层的卷积神经网络)大约具有1.4亿个参数,又称权重和偏见。如果用传统的方法,训练这种系统需要几年的时间。
- 神经网络的计算密集部分由多个矩阵乘法组成,可以简单地通过同时执行所有操作,而不是一个接一个地执行,要使用GPU(图形处理单元)而不是CPU来训练神经网络。
前馈神经网络(FNN),递归神经网络(RNN)和 CNN 区别?
- FNN 是指在一个vector内部的不同维度之间进行一次信息交互。
- CNN是以逐次扫描的方式在一个vector的局部进行多次信息交互。
- RNN就是在hidden state上增加了loop,看似复杂,其实就是从时间维度上进行了展开。是在不同时刻的多个vectors之间进行信息交互。
神经网络可以解决哪些问题?
如何提高小型网络的精度?
- 模型蒸馏技术;
- 利用AutoML进行网络结构的优化。
列举你所知道的神经网络中使用的损失函数
- 欧氏距离,交叉熵,对比损失,合页损失
什么是鞍点问题?
- 梯度为0,海森矩阵不定的点,不是极值点。
网络设计中,为什么卷积核设计尺寸都是奇数?
① 保证像素点中心位置,避免位置信息偏移
② 填充边缘时能保证两边都能填充,原矩阵依然对称
参考
[1] https://blog.csdn.net/cc13186851239
- 由于本人水平有限,难免出现错漏,敬请批评改正。
- 更多精彩内容,可点击进入人工智能知识点
专栏、Python日常小操作专栏、OpenCV-Python小应用专栏、YOLO系列专栏、自然语言处理专栏或我的个人主页查看- 基于DETR的人脸伪装检测
- YOLOv7训练自己的数据集(口罩检测)
- YOLOv8训练自己的数据集(足球检测)
- YOLOv5:TensorRT加速YOLOv5模型推理
- YOLOv5:IoU、GIoU、DIoU、CIoU、EIoU
- 玩转Jetson Nano(五):TensorRT加速YOLOv5目标检测
- YOLOv5:添加SE、CBAM、CoordAtt、ECA注意力机制
- YOLOv5:yolov5s.yaml配置文件解读、增加小目标检测层
- Python将COCO格式实例分割数据集转换为YOLO格式实例分割数据集
- YOLOv5:使用7.0版本训练自己的实例分割模型(车辆、行人、路标、车道线等实例分割)
- 使用Kaggle GPU资源免费体验Stable Diffusion开源项目