【课程总结】Day10:卷积网络的基本组件

前言

由于接下来的课程内容将围绕计算机视觉展开,其中接触最多的内容是卷积、卷积神经网络等…因此,本篇内容将从卷积入手,梳理理解:卷积的意义、卷积在图像处理中的作用以及卷积神经网络的概念,最后利用pytorch搭建一个神经网络。

卷积的理解

卷积其实是一个数学概念

在第一次接触到"卷积"的概念时,我与大多数人的想法类似,首先想的问题是,“卷积"到底是怎样的一个"卷”?

在网上搜索卷积的概念之后,我初步了解到卷积本质上是一个数学问题,它的表示如下:

( f ∗ g ) ( t ) = ∫ − ∞ ∞ f ( τ ) g ( t − τ ) d τ (f * g)(t) = \int_{-\infty}^{\infty} f(\tau)g(t-\tau) d\tau (fg)(t)=f(τ)g(tτ)dτ

以上的表示过于抽象,所以通过搜索B站的视频,找到了介绍卷积较为形象的示例。

卷积的理解示例(吃饭问题)

示例:如果用图示来表示一个人的吃饭情况,那么他进食的过程和消化的过程可以用如下图来分别表示

进食过程:用f函数来表示进食,横坐标是时间,纵坐标是进食(也就是吃东西)了多少。

消化过程:消化的过程与进食是独立,吃的东西进入胃里面会进行消化,这个过程可以用g函数来表示。横坐标是时间,纵坐标是剩余食物的比例。

此时,如果我们想知道这个人在下午2点时,胃里还剩多少食物。这个问题如果直接求解是不好求解的,但是如果借助上面的两个函数,就比较容易可以求得,具体如下:

  • 首先,通过f函数求积分,可以得到14点之前所有吃的东西;
  • 其次,假设该人在12点吃了一碗米饭,那么通过g函数可以求得:14点~12点时,米饭还剩余的比率;
  • 然后:将12点吃的米饭f(12) 与 14点米饭剩余的比率g(14-12)相乘,就可以得到米饭在14点时还剩余多少。
  • 依次类推,如果吃了多个食物,那么在14点食物剩余的比例就可以如下表示

由此,推导得到这个人在t时刻,胃里剩余食物的比例可以用如下的公式表示:

上面的公式因为是求吃饭问题场景下的食物剩余比例,所以积分上下限是0~t;如果是将此问题场景换成其他场景,只需要把公式中做微调如下,即可求更加广泛的问题:

( f ∗ g ) ( t ) = ∫ − ∞ ∞ f ( τ ) g ( t − τ ) d τ (f * g)(t) = \int_{-\infty}^{\infty} f(\tau)g(t-\tau) d\tau (fg)(t)=f(τ)g(tτ)dτ

卷积:在一个系统中,输入不稳定、输出稳定的情况下,可以用卷积求系统的存量。

例如:

在一个热力系统中,可以利用卷积计算:燃料持续添加 f ( τ ) f(\tau) f(τ)和燃料持续燃烧 g ( t − τ ) g(t-\tau) g(tτ)下,燃烧过程中产生的总热量。

在一个信号系统中,信号持续输入 f ( τ ) f(\tau) f(τ)和系统的响应 g ( t − τ ) g(t-\tau) g(tτ)下,信号对系统产生影响的累积效果。

上述对卷积的理解,还可以换一种角度(例如:蝴蝶效应)来理解:

在t时刻发生了一件事,t时刻之前很多事情都会产生影响,而其中x时刻对t时刻的影响(g函数)是随着时间逐步减弱的。

卷积是如何卷的

对于上述的f函数和g函数在t时刻的对应关系,可以用如下图表示:

  • 在t时刻进食的食物f(t),此时在消化过程g(t)时刚开始,所以对应g(t)函数图的最左侧;

  • 在t时刻之前时刻进食的食物f(t),则对应对应消化过程g(t)的第二个点(从左向右)。

    备注:此处对于上图其他点的理解,得用逆转的思想来理解。

将上图的g函数做翻转,上下两图的对应关系就更加清晰。因为这个翻转,所以称之为"卷积"。

卷积在图像处理中的作用

在《【课程总结】Day8(下):计算机视觉基础入门》中,我们学习了解过:

  • 图片本质上就是一个二维的矩阵;
  • 通过一个3×3的矩阵与原图进行相乘再相加的计算,可以得到一个新的图片。
  • 通过设计不同的3×3矩阵内容,可以得到不同的新图片。

在上图这个计算过程中,其与卷积有着相同之处:

  • 计算过程相同:先相乘再相加(计算周围像素点与中间像素点)
  • 计算整体情况相同:对源像素依次扫一遍,得到一个结果

上图计算过程,本质上是计算周围像素点中间像素点的影响,因此套用吃饭问题可以如下图来理解:

上图中左下角的点对中心点的影响,可以换做是x时刻的事件对t时刻的影响,以此来理解图像中卷积的意义。

至此,在图像处理中:

  • 卷积过程:计算周围像素点对中心点像素的影响
  • f函数:即为输入的原图片
  • g函数:即为卷积核,其规定了要对原图片如何影响

卷积神经网络的理解

卷积神经网络一般是用来做图像识别的,通过卷积神经网络可以将下面的图片中的X分别识别出来。

  • 通过对图片进行特征提取,可以得到图像中的像素情况
  • 但实际场景中X一般不是规规整整的写的(如下图),这种情况人是可以一眼识别都是X,但是计算机在像素计算时,由于下面两个像素点不同,是无法识别两个表示的是一个东西。

虽然上述图片的整体像素不同,但是仔细看,可以看到局部是相同的:

所以,如果利用之前学习的机器学习思想:

  • 将图片(本质是矩阵)作为输入
  • 将卷积核作为待调整的参数
  • 让卷积运算作为机器学习的一部分
  • 让机器学习寻找特征,寻找过程中:
    • 可以将一个卷积的操作,作为另外一个卷积的输入
    • 对于一个特征矩阵,可以利用不同的卷积核,生成不同的特征矩阵
    • 将这些输入输出全部连接到一起

由此,我们得到一个与人体神经系统类似的网络,卷积神经网络。

卷积网络组件

BatchNorm层

定义

Batch Normalization是一种用于神经网络的技术,通过在神经网络的每一层对输入进行归一化处理,即将每个特征维度的数据归一化为均值为0、方差为1的分布,以减少内部协变量转移(Internal Covariate Shift)。

作用
  • 加速收敛:Batch Normalization有助于加速神经网络的收敛速度,减少训练时间。
  • 减少梯度消失/爆炸:通过归一化输入,可以减少梯度消失或爆炸的问题。
  • 正则化效果:Batch Normalization在一定程度上具有正则化的效果,有助于防止过拟合。
计算公式

对于输入 (x),Batch Normalization的计算公式如下:
x ^ = x − μ σ 2 + ϵ \hat{x} = \frac{x - \mu}{\sqrt{\sigma^2 + \epsilon}} x^=σ2+ϵ xμ

y = γ x ^ + β y = \gamma \hat{x} + \beta y=γx^+β

其中:

  • μ \mu μ 是均值
  • s i g m a 2 sigma^2 sigma2 是方差
  • γ \gamma γ β \beta β 是可学习的缩放和偏移参数
  • ϵ \epsilon ϵ是一个很小的数,用于避免除以零

ReLU层

定义

ReLU是一种简单而有效的激活函数,其数学表达式为 f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x),即当输入 (x) 大于零时输出为 (x),否则输出为零。

作用
  • 非线性:ReLU引入了非线性,有助于神经网络学习复杂的模式和特征。
  • 稀疏性:ReLU的输出在负值部分为零,可以使网络更加稀疏,减少参数之间的相关性,有助于防止过拟合。
  • 计算速度:ReLU的计算速度快,且不存在复杂的指数运算,适合大规模深度学习模型。

线性层

定义

线性层是神经网络中的基本层之一,其输出是输入特征的线性组合。在线性层中,每个输入特征与对应的权重相乘,然后将所有结果相加得到输出。

作用

线性层的计算公式为:output = input * weight + bias,其中weight是权重矩阵,bias是偏置项。线性层的作用是对输入进行线性变换。

Dropout层

定义

Dropout是一种在神经网络训练过程中随机丢弃一部分神经元的技术。在每次训练迭代中,随机选择一部分神经元不参与前向传播和反向传播,从而减少神经网络的复杂度和提高泛化能力。

作用
  • 减少过拟合:Dropout有助于减少神经网络的过拟合风险,提高模型的泛化能力。
  • 增加模型鲁棒性:通过随机丢弃神经元,使得模型对输入数据的扰动更加稳健。
  • 避免协同适应:Dropout可以减少神经元之间的协同适应,提高模型的鲁棒性。

其思想非常类似于集成学习,在训练(正向传播)的时候,随机进行失活(让一部分参数置为0),相当于训练了多个弱分类器;在预测的时候,dropout层失效(由于数学期望是一样的)

试验代码
import torch
from torch import nn


dropout = nn.Dropout(p=0.5)
X = torch.randn(10)

运行结果:

右上可以看到,dropout会50%概率将X中的值置为0。

卷积网络搭建

LeNet简介

LeNet5诞生于1994年,是最早的卷积神经网络之一,其作用主要用来进行手写字符的识别与分类。由于LeNet网络结构比较简单,但是刚好适合神经网络的入门学习。

LeNet结构

如图所示,LeNet共分为7层,分别是:

  • C1,卷积层
  • S2,池化层
  • C3,卷积层
  • S4,池化层
  • C5,卷积层
  • F6,全连接层
  • OUTPUT,全连接层
输入层
  • 定义:LeNet的输入层接受原始图像数据,并将每个像素的灰度值作为输入信号传递给下一层的卷积层。输入层的作用是将原始数据转换为神经网络可以理解和处理的格式,为后续的特征提取和分类任务奠定基础。

  • 参数:输入层为尺寸32 × 32的图片。

一般来说不将输入层视为网络层次结构之一,上面讲的"7层"也不包括输入层。

卷积层C1
  • 定义:卷积层C1是LeNet模型中的第一个卷积层,用于提取输入图像的特征。

  • 功能:卷积层C1的主要特点和功能如下:

    • 卷积操作:卷积层C1使用多个卷积核(也称为滤波器)对输入图像进行卷积操作。每个卷积核都是一个小的二维矩阵,通过在输入图像上滑动并与局部区域进行点乘操作,从而提取特定的特征。
    • 特征映射:每个卷积核在卷积操作后会生成一个特征映射(feature map),表示了输入图像中某种特定特征的分布情况。通过使用多个卷积核,卷积层C1可以同时提取多种特征。
    • 非线性激活函数:在卷积操作后,通常会应用非线性激活函数(如ReLU)来引入非线性性,帮助网络学习更复杂的特征。
  • 主要参数

    • 输入: 32 × 32的图像

    • 卷积核种类: 6

    • 卷积核大小: 5 × 5

    • 输出特征图数量: 6

      每个卷积核分别与输入图像进行卷积运算,共得到6份输出

    • 输出特征图大小: 28 × 28

      输出图大小的计算方法:原图片的大小 - 卷积核大小 + 1 = 输出图片大小
      如图所示:5(原图) - 3(卷积核) + 1 = 3(输出图)

池化层S2
  • 定义:池化层(Pooling Layer)是深度学习神经网络中常用的一种层类型,用于减少特征图的空间维度,从而降低模型复杂度、减少参数数量,并且有助于防止过拟合。

  • 作用

    • 减少特征图的空间尺寸:通过池化操作(如最大池化、平均池化等),将特征图的某个区域(池化窗口)内的值进行汇总,从而降低特征图的空间维度。这有助于减少后续层的计算量,提高计算效率。
    • 提取特征:池化层可以帮助网络提取特征的不变性,即使输入图像发生轻微平移、旋转或缩放,提取到的特征仍然具有稳定性。
  • 常见池化操作有两种:最大池化(Max Pooling)和 平均池化(Average Pooling)

以最大池化为例:采用2 × 2的滤波器(filter),最大池化的结果如上,即对每个2 × 2的区域取最大值。

  • 主要参数:
    • 输入: 28 × 28的特征图(6张)
    • 采样区域: 2 × 2
    • 输出特征图大小: 14 × 14
    • 输出特征图数量: 6
卷积层C3
  • 定义:卷积层C3是LeNet模型中的第三个卷积层,用于进一步提取输入特征图的更高级别特征。其输出将作为下一层的输入,经过池化层等操作逐步提取更加抽象和高级的特征。

  • 主要功能和作用

    • 多通道卷积:卷积层C3通常会使用多个卷积核对前一层(一般是池化层S2)的特征图进行卷积操作。每个卷积核对应一个输出特征图,通过多通道卷积操作实现对不同特征的提取。
    • 局部连接:与全连接层不同,卷积层C3中的神经元只与输入图像的局部区域连接,这样可以减少参数数量和计算复杂度。
  • 主要参数

    • 输入: 14 × 14的特征图(6张)

    • 卷积核种类: 16

      因此卷积层C3能够提取出更多细微的特征

    • 卷积核大小: 5 × 5

    • 输出特征图数量: 16

    • 输出特征图大小: 10 × 10

      输出特征图的边长为14 - 5 + 1 = 10

池化层S4
  • 定义:池化层S4通常紧跟在卷积层C3之后,用于对卷积层提取的特征图进行下采样和降维,以减少计算量、提高计算效率,并增强模型的鲁棒性。
  • 主要功能和作用
    • 下采样:池化层S4通过对输入特征图的局部区域进行池化操作(如最大池化、平均池化),将每个池化窗口内的值进行汇总,从而减少特征图的空间维度。
    • 降维:池化操作可以降低特征图的分辨率,减少参数数量,有助于防止过拟合,提高模型的泛化能力。
    • 平移不变性:池化操作可以提高模型对输入数据的平移不变性,即输入数据发生轻微平移时,池化层的输出保持稳定。
  • 主要参数
    • 输入: 10 × 10的特征图(16张)

    • 采样区域: 2 × 2

      在这里,采样方式为4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,并将结果通过sigmoid函数。

    • 输出特征图大小: 5 × 5

    • 输出特征图数量: 16

卷积层C5
  • 定义:卷积层C5是LeNet模型中的第五个卷积层,也是整个网络中的最后一个卷积层。卷积层C5的主要作用是进一步提取输入特征图的高级别特征,并将这些特征用于后续的分类任务。

  • 主要作用:通过卷积层C5的特征提取操作,网络可以学习和理解输入数据的更加抽象和复杂的特征,从而提高模型对不同类别的区分能力。

  • 主要参数:

    • 输入: 5 × 5的特征图(16张)
    • 卷积核种类: 120
    • 卷积核大小: 5 × 5
    • 输出: 120维向量
  • 算法:
    每个卷积核与16张特征图做卷积,得到的结果求和,再加上一个偏置,结果通过sigmoid函数输出。

全连接层F6
  • 定义:全连接层F6是LeNet模型中的最后一个层,用于将卷积层提取的特征进行分类和预测。

  • 主要功能:

    • 全连接层F6在LeNet模型中扮演着连接卷积层特征提取和最终分类预测的桥梁作用,负责将高级别的特征映射转换为最终的输出结果,实现对输入数据的分类和识别。
    • 全连接层F6的输出通常是一个向量,每个元素对应一个类别或回归值的预测结果。在分类任务中,通常会使用softmax函数对输出进行归一化,得到各个类别的概率分布,从而实现对输入数据的分类预测。
  • 主要参数:

    • 输入: 120维向量
    • 输出: 84维向量
  • 算法: 计算输入向量和权重向量之间的点积,再加上一个偏置,结果通过sigmoid函数输出。

    F6层有84个结点,本质上对应一张7×12的比特图。实际上,ASCII码就可以用一张7×12的比特图来表示,每个像素若为-1则表示白色,1表示黑色。该全连接层的设计也是利用了这一思想。

全连接层OUTPUT
  • 输入: 84维向量

本质上是一张7×12的比特图,表示经过我们多层处理最终得到的一张"数字图像"。

  • 输出: 10维向量
    OUTPUT层共有10个结点y0、y1、…、y9,分别对应着数字0到9。
LeNet整体工作示意图

LeNet代码实现

import torch
from torch import nn

class ConvBlock(nn.Module):
    """
    一层卷积块:
        - 卷积层
        - 批规范化层
        - 激活层
    """
    def __init__(self, in_channels, out_channels, kernel_size=3, stride=1, padding=1):
        super().__init__()
        self.conv = nn.Conv2d(in_channels=in_channels, out_channels=out_channels,
                             kernel_size=kernel_size, stride=stride, padding=padding)
        self.bn = nn.BatchNorm2d(num_features=out_channels)  # 批规范化层
        self.relu = nn.ReLU()  # ReLU激活函数
    
    def forward(self, x):
        x = self.conv(x)  # 卷积操作
        x = self.bn(x)  # 批规范化操作
        x = self.relu(x)  # 激活操作

class LeNet(nn.Module):
    def __init__(self):
        super().__init__()
        
        # 特征提取部分
        self.feature_extractor = nn.Sequential(
            # 第一层卷积块
            ConvBlock(in_channels=1, out_channels=6, kernel_size=5, stride=1, padding=0),
            nn.MaxPool2d(kernel_size=2, stride=2, padding=0),  # 最大池化层
            
            # 第二层卷积块
            ConvBlock(in_channels=1, out_channels=6, kernel_size=5, stride=1, padding=0),
            nn.MaxPool2d(kernel_size=2, stride=2, padding=0)  # 最大池化层
        )
        
        # 分类部分
        self.classifier = nn.Sequential(
            nn.Flatten(),  # 展平操作
            nn.Linear(in_features=400, out_features=120),  # 第一个全连接层
            nn.ReLU(),  # ReLU激活函数
            nn.Linear(in_features=120, out_features=84),  # 第二个全连接层
            nn.ReLU(),  # ReLU激活函数
            nn.Linear(in_features=84, out_features=10)  # 输出层
        )
        
    def forward(self, x):
        # 1. 特征提取
        x = self.feature_extractor(x)
        # 2. 分类
        x = self.classifier(x)
        
        return x

model = LeNet()
model

内容小结

  • 卷积神经网络

    • 卷积本质上是一个数学问题,表示方法为 ( f ∗ g ) ( t ) = ∫ − ∞ ∞ f ( τ ) g ( t − τ ) d τ (f * g)(t) = \int_{-\infty}^{\infty} f(\tau)g(t-\tau) d\tau (fg)(t)=f(τ)g(tτ)dτ
    • 卷积可以理解为:在一个系统中,不稳定输入f和稳定输出g的情况下,用卷积求系统的存量。
    • 卷积还可以理解为:在t时刻发生一件事,用卷积求t时刻之前事情f(x)对t时刻的影响。
    • 图像的卷积是利用卷积核对原图片的二维矩阵进行相乘再相加的计算,本质上是计算周围像素点中间像素点的影响。
    • 因为图像多种多样的形式存在,其整体显示不同,但是局部却是相同的;人是很容易看出来的,而让机器也像人一样识别出图像的话,就需要利用卷积进行局部特征提取。
    • 神经网络的学习过程就是将图片作为输入,将卷积核作为待调整的参数,通过机器学习的方式让机器在卷积运算中寻找特征,从而固定卷积核。
    • 神经网络的学习过程中,可以将有一个卷积的操作,作为另外一个卷积的输入;同时特征矩阵可以利用不同的卷积核生成不同的特征矩阵,这种输入输出全部连接在一起的形式与人体神经网络非常类似,因此叫卷积神经网络。
  • 卷积网络组件

    • Batch Norm层:对每一层对输入进行归一化处理,即将每个特征维度的数据归一化为均值为0、方差为1的分布。
    • ReLU层通过 f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)引入了非线性,有助于神经网络学习复杂的模式和特征。
    • Dropout层随机选择一部分神经元不参与前向传播和反向传播,从而减少神经网络的复杂度和提高泛化能力。
  • LeNet

    • LeNet共分为7层,3个卷积层、2个池化层、2个全链接层。
    • LeNet的整体工作过程:通过2层卷积+池化对图片进行特征提取,然后展平再利用2个全连接层,将高级别的特征映射转换为最终的输出结果,实现对输入数据的分类和识别。

参考资料

B站:【卷积神经网络】为什么卷积哪儿都能用?

B站:【从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变】

CSDN:深度学习入门(一):LeNet-5教程与详解

CSDN:LeNet讲解+代码实现,训练MNIST数据集

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/735356.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Vue76-路由对浏览器历史记录的影响

一、push模式 默认是push 二、replace模式 替换当前记录! (当前指针指向的那一条记录) 三、小结

只有一个鸿蒙好?还是鸿蒙、安卓、IOS并存好?

这个话题,现在很敏感,为了防止被喷,我提前且清楚的交待我的观点:我双手欢迎鸿蒙、欢迎仓颉,而且我已经用行动来支持,比如2021年刚发布ArkUI时,我就第一时间上手了,且这几年一直在跟进…

图解Transformer

图解Transformer Transformer模型是在论文《Attention is All You Need》中提出的。它的TensorFlow实现作为Tensor2Tensor包的一部分是可用的。哈佛大学的自然语言处理小组创建了一个指南,用PyTorch实现对论文进行了注释。在这篇文章中,我们将尝试简化一…

【IEEE独立出版、有确定的ISBN号】第三届能源与电力系统国际学术会议 (ICEEPS 2024)

第三届能源与电力系统国际学术会议 (ICEEPS 2024) 2024 3rd International Conference on Energy and Electrical Power Systems 连续2届会后4-5个月EI检索,检索稳定! 成功申请IEEE出版! 特邀院士、Fellow 报告! 一、大会信息 …

如何恢复丢失的文件?免费为 Mac 恢复数据

丢失 Mac 上的重要文件是一件非常痛苦的事情。无论是重要的工作文件、重要文件还是心爱的照片,意外删除它们或出现系统错误都会非常令人沮丧。别担心;有办法:奇客数据恢复Mac版。这款免费的 Mac 文件恢复软件就像您文件的救星 - 当出现问题时…

【密码学】分组密码

文章目录 分组密码的模式分组密码与流密码模式明文分组与密文分组 ECB模式ECB定义ECB特点对ECB模式的攻击改变分组顺序攻击 CBC模式CBC定义初始化向量IVCBC特点对CBC模式的攻击对初始向量进行反转攻击填充提示攻击 CFB模式CFB定义对CFB模式的攻击重放攻击 OFB模式OFB定义CFB模式…

深入学习-Gradle-自动化构建技术(二)Groovy-筑基

但是,如果你这个类或变量要用于其它模块的,建议不要使用 def,还是应该使用 Java 中的那种强类型定义方式,因为使用强类型的定义方式,它不能动态转换为其它类型,它能够保证外界传递进来的值一定是正确的。如…

程序猿大战Python——面向对象——私有权限

私有属性 目标:掌握私有属性的使用。 为了更好的限制属性的访问和包含隐私,可以给属性设置私有权限。 当把属性设置为私有属性后,则该属性只能被本类直接访问。 定义私有属性语法: self.__属性名 设置和获取私有属性值语法&am…

Interleaving Retrieval with Chain-of-Thought Reasoning for ... 论文阅读

Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions 论文阅读 文章目录 Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions 论文阅读 Abstract介绍相关工作开放域QA提…

【物联网】NB-IoT

目录 一、什么是NBIOT 二、NB-IoT的特点 三、NBIOT的工作状态 四、移远NB-IoT模块及AT指令 一、什么是NBIOT NB-IoT(Narrow Band Internet of Things)窄带物联网,构建于蜂窝网络,所占用的带宽很窄,只需约180KHz&am…

易基因:【表观遗传学基础】如何研究DNA甲基化

大家好,这里是专注表观组学十余年,领跑多组学科研服务的易基因。 表观遗传学近几年取得的一系列研究进展,确实吸引着越来越多的关注!为了帮大伙儿梳理一下表观遗传学的基本概念和研究方法,小编打算开一个系列专题&…

工业数字孪生:智能制造的新引擎

数字孪生技术:智能制造的新引擎 一、数字孪生技术的基本概念与工业应用 1.1 数字孪生的定义与原理 数字孪生技术是一种先进的集成技术,它通过在数字空间创建一个精准物理对象的虚拟模型,使得我们可以在数字空间中模拟、分析和预测物理实体…

LeetCode35.搜索插入位置

LeetCode刷题记录 文章目录 📜题目描述💡解题思路⌨C代码 📜题目描述 给定一个排序数组和一个目标值,在数组中找到目标值,并返回其索引。 如果目标值不存在于数组中,返回它将会被按顺序插入的位置。 请必须…

概率论与数理统计(期末自用总结版)

本篇内容仅供学习参考,均为自用!!! 如有错误,欢迎指正!!!

模板初阶【C++】

文章目录 模板的作用模板的原理模板分为两大类——函数模板和类模板函数模板语法函数模板实例化模板函数的方式模板函数的类型转换既有函数模板又有已经实现的函数,会优先调用哪一个? 类模板语法模板类实例化对象模板类的模板参数可以有缺省值类模板中的…

Android实战之app版本更新升级全文章(二)

BaseAndroid.checkUpdate(MainActivity.this, 2, “http://f5.market.mi-img.com/download/AppStore/0f4a347f5ce5a7e01315dda1ec35944fa56431d44/luo.footprint.apk”, “更新了XXX\n修复OOO”, false); 看看效果图 界面有点丑,自己修改下吧 当然啦&#xff0c…

Oracle中递归查询(START WITH……CONNECT BY……)

一、基本语法 在Oracle中START WITH……CONNECT BY……一般用来查找存在父子关系的数据,也就是树形结构的数据。 SELECT * FROM TABLE WHERE 条件3 START WITH 条件1 CONNECT BY 条件2;start with [condition]:设置起点,用来限制第一层的数…

Springboot整合MinIO实现系统文件的便捷式管理实例

一、MinIO简介 1.基础描述 MinIO 是一个高性能的对象存储系统,用于存储大量非结构化数据。它以简洁、高效、可靠和高扩展性著称,能够胜任各种数据密集型任务。MinIO 采用了与 Amazon S3 兼容的 API,使得用户无需额外学习即可上手使用。下面…

Ubuntu iso 镜像下载 步骤截图说明

Ubuntu镜像下载,在这个网址: Enterprise Open Source and Linux | Ubuntu 步骤如下图所示: 1、登入网址 2、点击Get Ubuntu 3、点击Download Ubuntu Desktop 后续点击Downloadload 24.04 LTS直接下载就行 如果需要下载其它版本&#xf…

设计模式学习之——单例模式

文章目录 单例模式什么叫做单例模式单例模式的动机 单例模式的引入思考 饿汉式单例和懒汉式单例饿汉式单例懒汉式单例 单例模式总结1.主要优点2.主要缺点3.适用场景 单例模式 什么叫做单例模式 顾名思义,简单来说,单…