深度学习——神经网络中前向传播、反向传播与梯度计算原理

一、前向传播

1.1 概念

神经网络的前向传播(Forward Propagation)就像是一个数据处理的流水线。从输入层开始,按照网络的层次结构,每一层的神经元接收上一层神经元的输出作为自己的输入,经过线性变换(加权求和)和非线性变换(激活函数)后,将处理后的结果传递给下一层神经元。这个过程一直持续,直到输出层产生最终的输出结果。它是神经网络进行预测的主要步骤,数据按照正向的方向在网络中流动。

主要作用是根据给定的输入和当前神经网络的参数(权重和偏置),生成模型对该输入的预测输出。这个输出可以用于判断模型对输入数据的分类结果(如在分类任务中)或预测的数值(如在回归任务中)。

1.2 计算过程

以一个简单的全连接神经网络为例。

(1)输入层处理:将原始数据输入到神经网络的输入层。假设输入层有 n 个神经元,隐藏层有 m 个神经元,输出层有 p 神经元。输入数据为 x = ( x 1 , x 2 , … , x n ) x= (x_1, x_2, \ldots, x_n) x=(x1,x2,,xn)

(2)隐藏层计算:数据从输入层进入隐藏层后,通过线性组合和激活函数进行处理。对于输入层到隐藏层的连接,设权重矩阵为 W 1 W_1 W1 维度为(m x n),偏置向量为 b 1 b_1 b1 维度为(m x 1)。隐藏层的输入为 z 1 = W 1 x + b 1 z_1=W_1x+b_1 z1=W1x+b1 ,然后通过激活函数 f f f (如 ReLU( f ( z ) = m a x ( 0 , z ) f(z)=max(0,z) f(z)=max(0,z))、Sigmoid ( f ( z ) = 1 1 + e − z f(z)=\frac{1}{1+e^{-z}} f(z)=1+ez1)等)得到隐藏层的输出 a 1 = f ( z 1 ) a_1=f(z_1) a1=f(z1)

(3)输出层生成结果:隐藏层的输出作为输出层的输入,经过类似隐藏层的计算过程得到最终的输出。从隐藏层到输出层,设权重矩阵为 W 2 W_2 W2 维度为(p x m),偏置向量为 b 2 b_2 b2 维度为(p x 1)。输出层的输入为 z 2 = W 2 a 1 + b 2 z_2=W_2a_1+b_2 z2=W2a1+b2 ,再通过激活函数(如果需要)得到最终的输出 y = f ( z 2 ) y=f(z_2) y=f(z2)。例如,在一个多分类任务中,输出层可能使用 Softmax 激活函数将输出转化为各个类别上的概率分布。
在这里插入图片描述

二、反向传播

2.1 概念

反向传播(Backward Propagation)是一种用于计算神经网络中梯度的有效算法。它是基于链式法则,从输出层开始,反向计算损失函数关于网络中每个参数(权重和偏置)的梯度,以便在训练过程中更新参数,使得模型的预测输出与真实标签之间的损失函数值最小化。

主要作用是为神经网络的训练提供梯度信息。在训练过程中,通过使用梯度下降等优化算法,根据反向传播计算得到的梯度来更新网络的参数,使得神经网络能够逐渐学习到输入数据和输出标签之间的复杂关系,从而提高模型的预测准确性。

2.2 计算过程

首先,需要定义一个损失函数 L ,用于衡量模型的预测输出 y ^ \hat{y} y^ 与真实标签 y y y 之间的差异。

常见的损失函数有均方误差(MSE)(用于回归问题)
L = 1 n ∑ i = 1 n ( y ^ i − y i ) 2 L = \frac{1}{n} \sum_{i=1}^{n} (\hat{y}_i - y_i)^2 L=n1i=1n(y^iyi)2
交叉熵损失(Cross Entropy Loss) ( 用于分类问题)
L = − ∑ i = 1 n y i log ⁡ ( y ^ i ) L = -\sum_{i=1}^{n} y_{i} \log (\hat{y}_{i}) L=i=1nyilog(y^i)

交叉熵损失适用于多分类任务,也常结合 Softmax 使用。二元交叉熵损失(Binary Cross Entropy Loss)适用于二分类任务,也常结合 Sigmoid 使用。
L = − [ y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ] L = -\left[ y \log(\hat{y}) + (1 - y) \log(1 - \hat{y}) \right] L=[ylog(y^)+(1y)log(1y^)]

在这里假设损失函数选用MSE,激活函数选用线性激活函数( f ( x ) = x f(x)=x f(x)=x)。

(1)以计算损失函数关于权重 W 2 W_2 W2 的梯度为例,根据链式法则 ∂ L ∂ W 2 = ∂ L ∂ z 2 ∂ z 2 ∂ W 2 \frac{\partial L}{\partial {W}_2} = \frac{\partial L}{\partial {z}_2} \frac{\partial {z}_2}{\partial {W}_2} W2L=z2LW2z2

  • 先计算 ∂ L ∂ z 2 \frac{\partial L}{\partial {z}_2} z2L ,它取决于损失函数的形式和激活函数的导数。由于 z 2 z_2 z2经过激活函数 f 得到 y ,即 y = f ( z 2 ) y=f(z_2) y=f(z2) 。所以 ∂ L ∂ z 2 = ∂ L ∂ y ⋅ ∂ y ∂ z 2 \frac{\partial L}{\partial z_2} = \frac{\partial L}{\partial y} \cdot \frac{\partial y}{\partial z_2} z2L=yLz2y

    • 对于 ∂ L ∂ y \frac{\partial L}{\partial y} yL,这取决于损失函数。

      • 对于 MSE 损失函数 L = 1 n ∑ i = 1 n ( y ^ i − y i ) 2 L = \frac{1}{n} \sum_{i=1}^{n} (\hat{y}_i - y_i)^2 L=n1i=1n(y^iyi)2 ,对 y 求偏导, ∂ L ∂ y = 2 n ∑ i = 1 n ( y ^ i − y i ) \frac{\partial L}{\partial y} = \frac{2}{n} \sum_{i=1}^{n} (\hat{y}_i - y_i) yL=n2i=1n(y^iyi)
    • 对于 ∂ y ∂ z 2 \frac{\partial y}{\partial z_2} z2y ,这取决于激活函数 f 的导数。

      • 例如,如果激活函数是线性函数 y = z 2 y=z_2 y=z2 (即( f ( z 2 ) = z 2 f(z_2)=z_2 f(z2)=z2)),那么 ∂ y ∂ z 2 = 1 \frac{\partial y}{\partial z_2}=1 z2y=1
      • 如果激活函数是 Sigmoid 函数 y = 1 1 + e − z 2 y = \frac{1}{1 + e^{-z_2}} y=1+ez21 ,那么 ∂ y ∂ z 2 = y ( 1 − y ) \frac{\partial y}{\partial z_2}=y(1-y) z2y=y(1y)
      • 如果激活函数是 ReLU 函数 y = max ⁡ ( 0 , z 2 ) y = \max(0, z_2) y=max(0,z2) ,当 z 2 > 0 z_2>0 z2>0 时, ∂ y ∂ z 2 = 1 \frac{\partial y}{\partial z_2}=1 z2y=1 ,当 z 2 ≤ 0 z_{2} \leq 0 z20 时, ∂ y ∂ z 2 = 0 \frac{\partial y}{\partial z_2}=0 z2y=0
    • ∂ L ∂ y \frac{\partial L}{\partial y} yL ∂ y ∂ z 2 \frac{\partial y}{\partial z_2} z2y相乘得到 ∂ L ∂ z 2 \frac{\partial L}{\partial {z}_2} z2L

  • 接着计算 ∂ L ∂ W 2 \frac{\partial L}{\partial {W}_2} W2L 。由前向传播得到的 z 2 = W 2 a 1 + b 2 z_2=W_2a_1+b_2 z2=W2a1+b2 ,可知 ∂ z 2 ∂ W 2 = a 1 \frac{\partial \mathbf{z}_2}{\partial {W}_2}=a_1 W2z2=a1 。所以可求出 ∂ L ∂ W 2 \frac{\partial L}{\partial {W}_2} W2L

(2)计算损失函数关于偏置 b 2 b_2 b2 的梯度。根据链式法则 ∂ L ∂ b 2 = ∂ L ∂ z 2 ⋅ ∂ z 2 ∂ b 2 \frac{\partial L}{\partial b_2} = \frac{\partial L}{\partial z_2} \cdot \frac{\partial z_2}{\partial b_2} b2L=z2Lb2z2 ∂ z 2 ∂ b 2 = 1 \frac{\partial z_2}{\partial{b}_2}=1 b2z2=1 ,可求出 ∂ L ∂ b 2 \frac{\partial L}{\partial b_2} b2L

(3)类似地,可以计算出关于其他权重和偏置的梯度,如 ∂ L ∂ W 1 \frac{\partial L}{\partial {W}_1} W1L ∂ L ∂ b 1 \frac{\partial L}{\partial b_1} b1L 等。
在这里插入图片描述

三、梯度下降

3.1 梯度下降

梯度下降(Gradient Descent)是一种常用的优化算法,广泛应用于神经网络以及众多机器学习模型的训练过程中,目的是通过迭代的方式来最小化目标函数(比如神经网络中的损失函数)的值。它的基本思想是沿着目标函数梯度(导数)的反方向更新模型参数,以逐步降低目标函数的值,直到找到一个局部最小值(在非凸函数情况下)或全局最小值(在凸函数情况下)。
在这里插入图片描述

对于一个损失函数(可微函数) L ( θ ) L(\theta) L(θ) (其中 θ \theta θ 表示模型的参数,如神经网络中的权重和偏置),函数在某一点的梯度 ∇ L ( θ ) \nabla L(\theta) L(θ) 表示函数在该点上升最快的方向。那么,梯度下降算法就是朝着与梯度相反的方向,即 − ∇ L ( θ ) -\nabla L(\theta) L(θ) 来更新参数。

具体的更新公式为 θ new = θ old − α ∇ L ( θ old ) \theta_{\text{new}} = \theta_{\text{old}} - \alpha \nabla L(\theta_{\text{old}}) θnew=θoldαL(θold)

其中 α \alpha α 是学习率(Learning Rate),它决定了每次更新参数的步长大小。如果学习率过大,可能会导致算法无法收敛,甚至发散;如果学习率过小,算法收敛速度会非常慢。
在这里插入图片描述
下面介绍一下常用的随机梯度下降(Stochastic Gradient Descent,SGD)。

每次迭代只使用一个随机选择的样本 ( x i , y i ) (x_i,y_i) (xi,yi) 来计算梯度并更新参数。即计算 ∇ L ( f ( x i ; θ ) , y i ) \nabla L(f(x_i; \theta), y_i) L(f(xi;θ),yi) ,然后 θ new = θ old − α ∇ L ( f ( x i ; θ ) , y i ) \theta_{\text{new}} = \theta_{\text{old}} - \alpha \nabla L(f(x_i; \theta), y_i) θnew=θoldαL(f(xi;θ),yi)

优点:计算速度快,因为每次只需要处理一个样本,能够快速地对参数进行更新,在处理大规模数据集时优势明显。

缺点:由于每次使用一个样本,梯度的估计会有很大的噪声,导致更新过程比较不稳定,可能会在最小值附近出现震荡,收敛速度可能会比较慢。

3.2 梯度爆炸

梯度爆炸(Gradient Explosion)是在训练神经网络时可能出现的一种不良现象。简单来说,就是在计算神经网络中参数的梯度时,梯度的值变得异常大,这会导致在使用基于梯度的优化算法(比如常见的随机梯度下降及其变种)去更新网络参数时,参数会以一种极不稳定且不合理的方式进行大幅度变化,进而使得网络难以收敛,甚至无法正常训练下去。

主要产生的原因有:

  • 深层网络的链式求导法则影响:在深度神经网络中,反向传播算法依据链式求导法则来计算梯度。对于一个有很多层的网络,每一层的误差对前面各层参数的梯度是通过层层相乘的方式来传递的。如果每一层的局部梯度都稍大于 1,那么经过多层传递后,梯度就会呈指数级增长,最终导致梯度爆炸。
  • 不合适的初始化参数:如果神经网络的权重初始化不当,比如将权重初始化为较大的值,那么在一开始进行反向传播计算梯度时,就很容易产生较大的梯度,后续随着训练迭代,这种较大梯度可能不断累积,引发梯度爆炸。
  • 激活函数选择问题:部分激活函数(如 Sigmoid 函数在输入值较大或较小时),其导数趋近于 0 或者非常大,当网络中较多神经元的激活函数处于这样的区间时,会导致梯度计算出现异常大的值,进而可能引发梯度爆炸情况。

3.3 梯度消失

梯度消失(Gradient Vanishing)同样是在神经网络训练过程中出现的棘手问题。它指的是在反向传播计算参数梯度时,梯度的值变得极小,近乎趋近于零,使得在利用基于梯度的优化算法更新网络参数时,参数几乎无法得到有效调整,进而影响网络的学习和收敛能力,导致网络难以训练出理想的性能表现。

主要产生的原因有:

  • 深层网络的链式求导法则影响:当网络层数较多时,如果每一层的局部导数都小于 1,经过多层相乘传递后,梯度就会呈指数级衰减。
  • 权重初始化不合理:如果权重初始值设置得太小,在开始反向传播计算梯度时,得到的梯度值本身就比较小,随着训练迭代,在经过多层网络的传递过程中,小梯度不断相乘累积,就容易造成梯度越来越小,直至出现梯度消失状况。
  • 激活函数特性:像 Sigmoid 函数,其导数在输入值较大或较小时趋近于 0。对于较深的神经网络,经过若干层后,神经元的输入很容易落入导数接近 0 的区间,这样后续反向传播计算梯度时,每层传递过来的梯度都会乘上这个极小的导数,从而使得梯度不断变小,最终出现梯度消失现象。Tanh 函数也存在类似的情况,在两端极限位置导数接近 0,同样可能引发梯度消失问题。

左边:梯度消失现象。右边:梯度爆炸现象。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/944704.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

面试突击-JAVA集合类(持续更新...)

前言 这篇文档非常适合面试突击人群,java集合类是面试高频问点,阅读完此文章可以直接应对面试官一切问题,最终吊打面试官。 概览 Java 集合,也叫作容器,主要是由两大接口派生而来:一个是 Collection接口&am…

Ps:创建数据驱动的图形 - 数据组

在 Photoshop 的“变量” Variables对话框中,可以为某一图层定义(或关联)变量并指定变量类型和变量值。 请参阅: 《Ps:创建数据驱动的图形 - 定义变量》 每个实例的变量值的集合构成一个数据组 Data Set。在相应的数据…

小猫可以吃面包吗?

在宠物饲养日益普及的当下,小猫的饮食健康成为众多铲屎官关注的焦点。其中,小猫是否可以吃面包这一问题引发了不少讨论。 从面包的成分来看,其主要原料是面粉、水、酵母和盐,部分还会添加糖、油脂、鸡蛋、牛奶等。面粉富含碳水化…

OSI七层模型和交换机

概念讲解 OSI(Open System Interconnection,开放系统互连)七层模型是一种网络通信的参考模型,它将网络通信的功能分为七个层次,每个层次负责特定的任务。 七层模型记忆口诀:物(物理层&#xf…

算法题(19):多数元素

审题: 数组不为空且一定存在众数。需要返回众数的数值 思路: 方法一:哈希映射 先用哈希映射去存储对应数据出现的次数,然后遍历找到众数并输出 当然也可以在第一次映射的过程中就维护一个出现次数最多的数据,这样子就可…

【Chrome】浏览器提示警告Chrome is moving towards a new experience

文章目录 前言一、如何去掉 前言 Chrome is moving towards a new experience that allows users to choose to browse without third-party cookies. 这是谷歌浏览器(Chrome)关于隐私策略更新相关的提示 提示:以下是本篇文章正文内容&…

低代码开源项目Joget的研究——基本概念和Joget7社区版应用

大纲 1. 基本概念1.1 Form1.1.1 Form1.1.1.1 概述1.1.1.2 主要特点和用途1.1.1.3 创建和使用 Form1.1.1.4 示例 1.1.2 Section1.1.2.1 概述1.1.2.2 主要特点和用途1.1.2.3 示例 1.1.3 Column1.1.4 Field1.1.5 示例 1.2 Datalist1.2.1 Datalist1.2.1.1 主要特点和用途1.2.1.2 创…

安装winserver2008R2虚拟机步骤

一、服务器系统介绍 1.1什么是服务器? 服务器英文名称为“Server”,指的是网络环境下为客户机(Client)提供某种服务的专用计算机,服务器安装有网络操作系统(如Windows 2000 Server、Linux、Unix等)和各种服务器应用系统软件(如Web服务、电子…

在开发嵌入式系统时,尤其是处理大数时,会遇到取值范围的问题。51单片机通常没有内建大整数支持,因此我们需要采用不同的方法来解决这一问题

00 两种可行方法分别是: 使用数组存储每一位数据并进行进位运算:通过将大数按位拆分成数组,然后实现逐位加法、进位等操作。使用符号变量进行计算:将数值分成低位和高位,分别用符号变量进行计算。 01:使用…

uniapp通过v-if进行判断时,会出现闪屏?【已解决】

1.问题:按钮切换时,通过v-if来判断,会出现闪烁情况,影响用户体验 2.v-if 闪烁问题可能的原因 ‌条件切换频繁‌:如果 v-if 指令的条件在短时间内频繁切换,会导致元素不断被销毁和重新创建,从而…

FME教程:一键批量调换图斑X、Y坐标,解决因为坐标弄反了,导致GIS弹窗提示“范围不一致”警告问题

目录 一、实现效果 二、实现过程 1.读取数据 2.提取坐标 3.调换图斑的X、Y坐标 4.输出成果 5.模板的使用 三、总结 在工作中有时候会出现因为失误导致图斑的X、Y坐标弄反,在GIS中打开是会提示“范围不一致”警告的弹窗警告,如果重做工作量非常大…

MySQL数据库——索引结构之B+树

本文先介绍数据结构中树的演化过程,之后介绍为什么MySQL数据库选择了B树作为索引结构。 文章目录 树的演化为什么其他树结构不行?为什么不使用二叉查找树(BST)?为什么不使用平衡二叉树(AVL树)&a…

探索贝叶斯魔法和误差的秘密

引言 今天我们要一起学习两个神秘的魔法概念:贝叶斯魔法和误差的秘密。这些概念听起来可能有点复杂,但别担心,我会用最简单的方式来解释它们。 一、贝叶斯魔法 贝叶斯魔法是一种预测的魔法,它帮助我们理解在不确定的情况下事情…

FFmpeg:详细安装教程与环境配置指南

FFmpeg 部署完整教程 在本篇博客中,我们将详细介绍如何下载并安装 FFmpeg,并将其添加到系统的环境变量中,以便在终端或命令行工具中直接调用。无论你是新手还是有一定基础的用户,这篇教程都能帮助你轻松完成 FFmpeg 的部署。 一、…

BGP特性实验

实验拓扑 实验需求及解法 本实验模拟大规模BGP网络部署,使用4字节AS号,传递IPv6路由。 预配说明: sysname R1 ospfv3 1router-id 1.1.1.1 # firewall zone Localpriority 15 # interface Serial1/0/0link-protocol pppipv6 enable ipv6 ad…

【Rust自学】7.6. 将模块拆分为不同文件

喜欢的话别忘了点赞、收藏加关注哦(加关注即可阅读全文),对接下来的教程有兴趣的可以关注专栏。谢谢喵!(・ω・) 7.6.1. 将模块的内容移动到其他文件 如果在模块定义时模块名后边跟的是;而不是代码块&#…

Dockerfile构建SpringBoot镜像并推送到docker公共镜像仓库Docker-hub

💅 写在前面 前期准备工作主要有:准备好必要的环境,确保安装了docker,以及有一个Spring boot项目。 tips:本文所有操作均在宿主机上的 VMware (centos 7)中进行.😽 使用Dockerfile构建SpringBoot镜像 ⭐…

基于Spring Boot + Vue3实现的在线商品竞拍管理系统源码+文档

前言 基于Spring Boot Vue3实现的在线商品竞拍管理系统是一种现代化的前后端分离架构的应用程序,它结合了Java后端框架Spring Boot和JavaScript前端框架Vue.js的最新版本(Vue 3)。该系统允许用户在线参与商品竞拍,并提供管理后台…

一文大白话讲清楚CSS盒子模型和块级格式化上下文(BFC)

一文大白话讲清楚CSS盒子模型和块级格式化上下文(BFC) 1.啥是个CSS盒子 鞋盒你家总有吧,方方正正,有长度有高度。css盒子跟这个八九不离十当我们编写html页面时,写了很多的元素,比如"div",&quo…

【VulnOSv2靶场渗透】

文章目录 一、基础信息 二、信息收集 三、漏洞探测 四、提权 一、基础信息 Kali IP: 192.168.20.146 靶机IP:192.168.20.152 二、信息收集 nmap -sS -sV -p- -A 192.168.20.152 开放了22、80、6667等端口 22端口:openssh 6.6.1p1 80端口&…