动手学深度学习29 残差网络ResNet

动手学深度学习29 残差网络ResNet

  • ResNet
  • 代码
    • ReLU的两种调用
      • 1. 使用 `torch.nn.ReLU` 模块
      • 2. 使用 `torch.nn.functional.relu` 函数
      • 总结
  • QA
  • 29.2 ResNet 为什么能训练处1000层的模型
  • ResNet的梯度计算
    • 怎么处理梯度消失的
  • QA

ResNet

在这里插入图片描述

更复杂模型包含小模型,不一定改进,但是加更深的层更复杂的模型至少不会变差。
在这里插入图片描述
复杂模型包含小模型,当要新加的层没有学到任何东西的时候,模型仍旧是可以学到前面层已经学到了的知识。可以认为是嵌入了小网络,允许先学习小网络。
在这里插入图片描述
从vgg过来。1*1卷积是为了改变通道数,和ResNet块输出的通道数保持一致,这样能做对应位置元素加法。
在这里插入图片描述
核心:加了一个加法。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

152个卷积层。层数越高精度越高。34个卷积层用的比较多。刷榜经常用152【实际使用很少,训练太贵】
在这里插入图片描述
ResNet的思想 Residual Connections(残差连接)当前经常使用,例如 bert, transformer。

不管再深,总是先训练好小网络,再往深层训练。
在这里插入图片描述

代码

用了比较大的输入。调优ResNet–把输入搞小或者调小config?

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2l

class Residual(nn.Module):
  def __init__(self, input_channels, num_channels, use_1x1conv=False, strides=1):
    super().__init__()
    self.conv1 = nn.Conv2d(input_channels, num_channels, kernel_size=3, padding=1, stride=strides)
    self.conv2 = nn.Conv2d(num_channels, num_channels, kernel_size=3, padding=1)
    if use_1x1conv:
      self.conv3 = nn.Conv2d(input_channels, num_channels, kernel_size=1, stride=strides)
    else:
      self.conv3 = None
    self.bn1 = nn.BatchNorm2d(num_channels)
    self.bn2 = nn.BatchNorm2d(num_channels)

  def forward(self, X):
    Y = F.relu(self.bn1(self.conv1(X)))
    Y = self.bn2(self.conv2(Y))
    if self.conv3:
      X = self.conv3(X)
    Y += X
    return F.relu(Y)

# 只传输入输出通道数 不设置使用残差连接 不改变高宽
blk = Residual(3, 3)
X = torch.rand(4, 3, 6, 6)
Y = blk(X)
# stride 不传参 默认为1
print(Y.shape)  # torch.Size([4, 3, 6, 6])

# stride=2 高宽减半 输出通道数加倍
blk = Residual(3,6, use_1x1conv=True, strides=2)
print(blk(X).shape)  # torch.Size([4, 6, 3, 3])

# 设置第一个网络块 7*7卷积 stride=2 3*3池化层 stride=2  高宽降低4倍
b1 = nn.Sequential(nn.Conv2d(1, 64, kernel_size=7, stride=2, padding=3), 
           nn.BatchNorm2d(64), 
           nn.ReLU(), 
           nn.MaxPool2d(kernel_size=3, stride=2, padding=1))

# 残差块
def resnet_block(input_channels, num_channels, num_residuals, first_block=False):
  blk = []
  for i in range(num_residuals):
    if i == 0 and not first_block:
      blk.append(Residual(input_channels, num_channels, use_1x1conv=True, strides=2))
    else:
      blk.append(Residual(num_channels, num_channels))
  return blk

b2 = nn.Sequential(*resnet_block(64, 64, 2, first_block=True))
b3 = nn.Sequential(*resnet_block(64, 128, 2))
b4 = nn.Sequential(*resnet_block(128, 256, 2))
b5 = nn.Sequential(*resnet_block(256, 512, 2))

net = nn.Sequential(b1, b2, b3, b4, b5,
           nn.AdaptiveAvgPool2d((1,1)),
           nn.Flatten(), 
           nn.Linear(512, 10))

# 用了比较大的输入数据 高宽224 VGG用的是96高宽
X = torch.rand(size=(1, 1, 224, 224))
for layer in net:
  X = layer(X)
  print(layer.__class__.__name__, 'output shape:\t', X.shape)

lr, num_epochs, batch_size = 0.05, 10, 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=96)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
torch.Size([4, 3, 6, 6])
torch.Size([4, 6, 3, 3])
Sequential output shape:	 torch.Size([1, 64, 56, 56])
Sequential output shape:	 torch.Size([1, 64, 56, 56])
Sequential output shape:	 torch.Size([1, 128, 28, 28])
Sequential output shape:	 torch.Size([1, 256, 14, 14])
Sequential output shape:	 torch.Size([1, 512, 7, 7])
AdaptiveAvgPool2d output shape:	 torch.Size([1, 512, 1, 1])
Flatten output shape:	 torch.Size([1, 512])
Linear output shape:	 torch.Size([1, 10])
loss 0.012, train acc 0.997, test acc 0.913
1557.1 examples/sec on cuda:0

在这里插入图片描述

d2l.load_data_fashion_mnist(batch_size, resize=224)
loss 0.027, train acc 0.993, test acc 0.876
354.8 examples/sec on cuda:0

在这里插入图片描述

ReLU的两种调用

在 PyTorch 中,可以通过多种方式调用 ReLU(Rectified Linear Unit)激活函数。以下是几种常见的方法:

1. 使用 torch.nn.ReLU 模块

torch.nn.ReLU 是一个 PyTorch 模块,可以直接在模型中作为层来使用。

import torch
import torch.nn as nn

# 创建一个 ReLU 模块实例
relu = nn.ReLU()

# 示例输入张量
input_tensor = torch.tensor([-1.0, 0.0, 1.0, 2.0])

# 应用 ReLU 激活函数
output_tensor = relu(input_tensor)
print(output_tensor)

2. 使用 torch.nn.functional.relu 函数

torch.nn.functional.relu 是一个函数,可以直接应用于张量。这在编写自定义前向传播方法时非常有用。

import torch
import torch.nn.functional as F

# 示例输入张量
input_tensor = torch.tensor([-1.0, 0.0, 1.0, 2.0])

# 应用 ReLU 激活函数
output_tensor = F.relu(input_tensor)
print(output_tensor)

总结

  • torch.nn.ReLU:作为模块使用,适合在构建模型时作为层的一部分。
  • torch.nn.functional.relu:作为函数使用,适合在自定义的前向传播方法中调用。

QA

1 lenet batch_size > 1000 大部分图片都是相似的,影响收敛精度。
2 当f(x)=x+g(x)时,如果x的效果已经很好,那么g(x)训练可能拿不到梯度,做梯度反传的时候,梯度会是一个很小的值,那么ResNet在做更深的网络的时候,不会让模型变得更坏,一般会变好。
3 绿色线-cos学习率 【效果挺好】 调参简单–调个最大值最小值。
在这里插入图片描述
4 残差怎么理解
layer2在layer1的基础上训练一些误差,在layer1的基础上做叠加。底层网络没有fit好的东西,加深的网络继续去fit。
在这里插入图片描述
5 * 解包裹传递参数 把list列表参数解包裹传参
6 两个BN有自己的参数要学 参数不一样
7 nn.ReLU(inplace=True) 原地更新参数 省一点内存
8 输入尺寸的确定,是由数据和框架确定?
9 当训练数据中加入了大量的噪音,测试精度会大于训练精度,在实际使用中 经常测试精度会大于训练精度。
达不到100%识别,本身技术水平达不到+数据集也会有标错的
10 不能假设数据集是完全正确的。还有数据人本身都无法分辨–hardcase。关心数据里面的误差。比较容易的case模型很容易训练好。

29.2 ResNet 为什么能训练处1000层的模型

https://www.bilibili.com/video/BV1554y157E3/?spm_id_from=autoNext&vd_source=eb04c9a33e87ceba9c9a2e5f09752ef8

ResNet的梯度计算

避免梯度消失:把乘法变加法。

怎么处理梯度消失的

假设省略loss, 希望偏y偏w不要很小,学习的不要很慢。
把网络加深,加一些层。
梯度怎么展开的–链式法则
导数和真实值预测值的区别是有一定关系的,预测比较好的情况下,导数会很小,做乘法后整体梯度会比原来梯度小很多。
假设残差网络为y" , 当g(x)的梯度很小的时候,加和的梯度也会比原来很小。大数+小数=大数 大数*小数=小数。当靠近底部的层,梯度会很小,避免梯度消失。
靠近数据端的w是很难训练的,由于有跳转,在训练一开始的时候,靠近数据端的网络就会拿到比较大的梯度。
在这里插入图片描述

QA

1 在靠近输入的学习率设大一些 靠近输出的lr学习率设小一些 可以缓解梯度消失的问题,但是调数比较难【设多大多小】。当超过浮点数的精度,计算会出问题, 小到很小梯度会为0, 精度fp16问题更明显一些。残差连接不需要调太多的东西。
2 梯度是累乘的, 深层的网络,梯度值和误差值有关,梯度回传越往网络底层会慢慢吸收掉误差,误差会越小。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/689014.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

公司刚来的00后真卷,上班还没2年,跳到我们公司起薪20k。。。

前言 现在都说要躺平了,但该说不说的,一样都在卷,你信了就输了。 前段时间我们公司来了个卷王,工作2年左右吧,跳槽到我们公司起薪20K,真的比我还牛。后来才知道人家是真的卷啊!都不当人了&…

初识C++ · 模板进阶

目录 前言: 1 非类型模板参数 2 按需实例化 3 模板特化 4 模板的分离编译 前言: 前面模板我们会了简单的使用,这里带来模板的进阶,当然,也就那么几个知识点,并不太难。 1 非类型模板参数 先来看这样…

【Framework系列】Excel转Json,配置表、导表工具介绍

今天来介绍一下Framework系列的配置部分,这一部分归属于Framework-Design之中。读过《Framework系列介绍》的小伙伴应该了解整个Framework框架是由多个工程项目组成,没看过的小伙伴可以点击链接了解一下。 Framework-Design设计的初衷是给策划同学用的&a…

谁懂啊!第一次用AI绘画做表情包,居然直接爆收入了!

大家好,我是设计师阿威 我的第一套表情包上周六上午11点终于在微信的表情商店上架啦! 为什么说“终于”? 那是因为背后是无数次的努力–>被退回–>反复修改–>再提交–>再被退回–>再精心修改–>终于通过啦!…

Python实现调用并执行Linux系统命令

😎 作者介绍:我是程序员洲洲,一个热爱写作的非著名程序员。CSDN全栈优质领域创作者、华为云博客社区云享专家、阿里云博客社区专家博主。 🤓 同时欢迎大家关注其他专栏,我将分享Web前后端开发、人工智能、机器学习、深…

Pyramid Vision Transformer, PVT(ICCV 2021)原理与代码解读

paper:Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions official implementation:GitHub - whai362/PVT: Official implementation of PVT series 存在的问题 现有的 Vision Transformer (ViT) 主要设计…

豆包引领AI大模型PC端新潮流,预示行业薪资待遇与就业前景的广阔前景

前言 在AI大模型技术迅速发展的浪潮中,豆包AI助手凭借其独特的PC端布局,成为了行业的先行者。这一举措不仅体现了对市场需求和用户习惯的深度洞察,更预示着AI大模型领域薪资待遇和就业前景的广阔空间。 豆包AI助手通过推出PC客户端&#x…

tomcat-valve通过servlet处理请求

上一节说到请求url定位servlet的过程,tomcat会把请求url和容器的映射关系保存到MappingData中,org.apache.catalina.connector.Request类实现了HttpServletRequest,其中定义了属性mappingDataprotected final MappingData mappingData new M…

国产Sora免费体验-快手旗下可灵大模型发布

自从OpenAI公布了Sora后,震爆了全世界,但由于其技术的不成熟和应用的局限性,未能大规模推广,只有零零散散的几个公布出来的一些视频。昨日,快手成立13周年,可灵(Kling)大模型发布&am…

【vue3|第7期】 toRefs 与 toRef 的深入剖析

日期:2024年6月6日 作者:Commas 签名:(ง •_•)ง 积跬步以致千里,积小流以成江海…… 注释:如果您觉得有所帮助,帮忙点个赞,也可以关注我,我们一起成长;如果有不对的地方&#xff…

vs2017中C2440错误:“初始化”:无法从const char[6]转换为char*问题解决

本文摘要:本文已解决 Python FileNotFoundError 的相关报错问题,并总结提出了几种可用解决方案。同时结合人工智能GPT排除可能得隐患及错误。 😎 作者介绍:我是程序员洲洲,一个热爱写作的非著名程序员。CSDN全栈优质领…

LLM系列: LLama2

推理流程 从输入文本,到推理输出文本,LLama2模型处理流程如下: step1 Tokenization 输入数据:一个句子或一段话。通常表示成单词或字符序列。 Tokenization即对文本按单词或字符序列切分,形成Token序列。Token序列再…

【Vue2源码学习分析】

# 文件结构 源码目录 # 调试环境搭建 安装依赖: npm i安装rollup: npm i -g rollup修改dev脚本,添加sourcemap,package.json "dev": "rollup -w -c scripts/config.js --sourcemap --environment TARGET:web- full-dev",运行开发命令…

LabVIEW阀性能试验台测控系统

本项目开发的阀性能试验台测控系统是为满足国家和企业相关标准而设计的,主要用于汽车气压制动系统控制装置和调节装置等产品的综合性能测试。系统采用工控机控制,配置电器控制柜,实现运动控制、开关量控制及传感器信号采集,具备数…

后端进阶-分库分表

文章目录 为什么需要分库为什么需要分表 什么时候需要分库分表只需要分库只需要分表 分库分表解决方案垂直分库水平分库垂直分表水平分表 分库分表常用算法范围算法hash分片查表分片 分库分表模式客户端模式代理模式 今天跟着训练营学习了分库分表,整理了学习笔记。…

Spring系统学习 -Spring IOC 的XML管理Bean之bean的获取、依赖注入值的方式

在Spring框架中,XML配置是最传统和最常见的方式之一,用于管理Bean的创建、依赖注入和生命周期等。这个在Spring中我们使用算是常用的,我们需要根据Spring的基于XML管理Bean了解相关Spring中常用的获取bean的方式、依赖注入值的几种方式等等。…

C++ Thread多线程并发记录(8)生产者-消费者模型与信号量(条件变量)

一.生产者-消费者模型 生产者-消费者模型是一个十分经典的多线程并发协作模式。所谓的生产者-消费者,实际上包含了两类线程,一种是生产者线程用于生产数据,另一种是消费者线程用于消费数据,为了解耦生产者和消费者的关系&#xff…

苹果Safari怎么清理缓存?原来快速清除浏览器的历史记录那么容易

在数字化时代,互联网已经成为我们日常生活中不可或缺的一部分。我们使用各种设备,如智能手机、平板电脑和笔记本电脑来浏览网页、获取信息、娱乐和社交。而在这些设备中,iPhone无疑是最受欢迎的选择之一。iPhone搭载的Safari浏览器以其简洁的…

three.js官方案例(animation / multiple)webgl_animation_multiple.html学习笔记

目录 ​编辑 1 骨架工具(SkeletonUtils) 1.1 clone方法 2 蒙皮网格(SkinnedMesh) 3 自测 4 webgl_animation_multiple.html全部脚本 1 骨架工具(SkeletonUtils) 用于操控 Skeleton、 SkinnedMesh、和…

Spring AI 第二讲 之 Chat Model API 第八节Anthropic 3 Chat

Anthropic Claude 是一系列基础人工智能模型,可用于各种应用。对于开发人员和企业来说,您可以利用 API 访问,直接在 Anthropic 的人工智能基础架构之上进行构建。 Spring AI 支持用于同步和流式文本生成的 Anthropic 消息 API。 Anthropic …