深入学习pytorch笔记

两个重要的函数

  • dir(): 一个内置函数,用于列出对象的所有属性和方法
    在这里插入图片描述

  • help():一个内置函数,用于获取关于Python对象、模块、函数、类等的详细信息
    在这里插入图片描述

Dateset类

  • Dataset:pytorch中的一个类,开发者在训练和测试时,用一个子类去继承Dataset类,继承和重写Dataset类中方法和属性,以加载数据集。
class Dataset(object):
    """An abstract class representing a Dataset.
    All other datasets should subclass it. All subclasses should override
    ``__len__``, that provides the size of the dataset, and ``__getitem__``,
    supporting integer indexing in range from 0 to len(self) exclusive.
    """
 
    def __getitem__(self, index):
        raise NotImplementedError
 
    def __len__(self):
        raise NotImplementedError
 
    def __add__(self, other):
        return ConcatDataset([self, other])
  • def getitem(self, index):必须重写,用于以加载数据集。
  • def len(self):可不重写,用于计算数据集中样本个数。
    在这里插入图片描述

TensorBoard

  • TensorBoard 是pytorch中一组用于数据可视化的工具,包含在TensorFlow库。
  • SummaryWriter类:用于在给定目录中创建事件文件,在训练时,将数据添加到文件中,用于显示。使用SummaryWriter类创建对象时,若没有给出事件文件名,则默认的事件文件名为run。

损失函数

  • torch.nn.loss():PyTorch 中的一个类,用于计算L1 损失函数,即计算了预测值与实际值之间的L1范数(即绝对差值)。
  • 在创建torch.nn.L1Loss(reduction)对象时,可以传入一个可选的参数reduction,它决定了如何从每个样本的损失中聚合得到最终的损失。
    1. reduction=‘mean’:计算所有样本损失的平均值作为最终损失。默认情况下,reduction参数的值为’mean’,即计算所有样本损失的平均值作为最终损失。
    2. reduction=‘none’:不进行任何聚合操作,直接返回每个样本的损失。
    3. reduction=‘sum’:计算所有样本损失的总和作为最终损失。
    4. reduction= ‘mean_none’: 计算所有样本损失的平均值,但是不除以样本数,即不进行归一化。
    5. reduction=‘sum_none’:计算所有样本损失的总和,但是不乘以样本数,即不进行归一化。
  • 在调用torch.nn.L1Loss()对象时,要传入预测值和实际值。
    在这里插入图片描述
  • torch.nn.MSELoss():PyTorch库中的一个类,用于计算均方误差。MSE损失函数的计算方式是:对于每个样本,计算预测值与真实值之间的平方差,然后取这些平方差的平均值。具体公式为:loss = 1/n Σ (y_pred - y_true)^2,其中n是样本数量。
    在这里插入图片描述
  • torch.nn.CrossEntropyLoss:是PyTorch库中的一个类,用于计算交叉熵损失。
  • 在创建对象时,torch.nn.CrossEntropyLoss()参数:
    1. weight: 类别权重。这是一个一维的tensor,用于为每个类别指定不同的权重。默认值是None,这时所有的类别权重都相等。如果指定了类别权重,那么在计算损失时,每个类别的损失将会根据其对应的权重进行加权平均。
    2. reduction: 损失的归约方式。这个参数决定了如何将交叉熵损失的值从样本级别降低到批次级别。可能的值有:‘none’(不进行归约,返回每个样本的交叉熵损失),‘mean’(对所有样本的交叉熵损失取平均),‘sum’(将所有样本的交叉熵损失相加)。默认值是’mean’。
    3. ignore_index: 被忽略的类别索引。如果设置了该参数,那么在计算交叉熵损失时,该类别对应的损失将被忽略。这个参数主要用于处理数据集中的无效类别或不需要分类的类别。默认值是-100。
  • 在调用torch.nn.CrossEntropyLoss的对象时,需要传入两个参数:
    1. input:这是一个一维或二维张量,表示模型的输出。对于每个输入样本,输出应该是一个长度为类别数量的向量,每个元素表示该类别与输入样本的相似度。
    2. target:这是一个一维张量,表示每个输入样本的正确类别标签。
      在这里插入图片描述

优化器(参数更新)

  • torch.optim.SGD:PyTorch 中的一个类,它实现了随机梯度下降(Stochastic Gradient Descent)算法。
  • 创建类对象时,torch.optim.SGD(params,lr,momentum,dampening,weight_decay,nesterov)的参数:
    1. params:要优化的参数,通常是模型中的参数。
    2. lr:学习率。控制参数更新的步长。默认值是0.01。
    3. momentum:动量。这个参数会考虑之前梯度的方向,使得优化器具有一定的"惯性",有助于加速训练。默认值是0。
    4. dampening:阻尼。这个参数可以防止动量过大导致震荡。默认值是0。
    5. weight_decay:权重衰减。可以防止过拟合,通过对参数本身进行惩罚来控制模型的复杂度。默认值是0,表示不进行权重衰减。
    6. nesterov:是否使用 Nesterov 动量。如果为 True,会使用 Nesterov 动量,否则使用标准 momentum。默认值是False
  • 创建优化器后,我们可以通过调用 optimizer.zero_grad() 清除之前的梯度,然后通过反向传播计算新的梯度,最后使用 optimizer.step() 更新模型的参数。

import torch
from torch import nn
from torch.nn import Sequential,Conv2d,MaxPool2d,Flatten
from torch.nn import Linear
from torch.utils.tensorboard import SummaryWriter
import torchvision
import torchvision.transforms
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor(),
                                       download=True)
dataloader = DataLoader(dataset, batch_size=64)


class MY_Dodule(nn.Module):
    def __init__(self):
        super(MY_Dodule,self).__init__()
        self.model = Sequential(
            Conv2d(3, 32, kernel_size=5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, kernel_size=5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, kernel_size=5, padding=2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024,64),
            Linear(64,10)
        )

    def forward(self,input):
        output = self.model(input)
        return output


my_module = MY_Dodule()
loss = nn.CrossEntropyLoss()
optim = torch.optim.SGD(my_module.parameters(),lr=0.1)
for epoch in range(20):
    running_loss = 0.0
    for data in dataloader:
        images,targets = data
        input = images
        output = my_module(input)  # 前向转播
        result_loss = loss(output,targets)  # 计算损失
        optim.zero_grad()  # 清除之前的梯度
        result_loss.backward() # 反向转播
        optim.step() #梯度更新
        running_loss += result_loss
        pass
    print(running_loss)
    pass


网络模型的使用和修改

  • torchvision.models.vgg16(pretrained,progress):PyTorch 中的一个类,是用来加载预训练的 VGG-16 模型的函数。

    1. pretrained:布尔型,决定是否从 PyTorch 的预训练模型库中加载训练好的权重。如果设为 True,则返回的模型会包含在大规模图像分类任务上训练得到的权重。如果设为 False,则模型不包含预训练的权重,你需要自己训练模型。默认为False。
    2. progress:布尔型,决定是否显示下载预训练模型过程的进度条。如果设为 True,则在下载预训练模型时会显示进度条。默认为True。
  • 在 VGG-16 模型中添加层:model是torchvision.models.vgg16()示例化对象,model.classifier.add_module(str,nn.Module)这个函数接受两个参数。

    1. 模块名称(str):这是你想要添加的模块的名称。你可以自己定义一个有意义的名称,以便在后续的代码中引用这个模块。
    2. 模块对象(nn.Module):这是你想要添加的模块本身。这个模块可以是任何PyTorch定义的神经网络层或者你自己定义的层。
  • 在 VGG-16 模型中修改层:model是torchvision.models.vgg16()示例化对象,model.classifier[n] = nn.Module

    1. n:VGG-16 模型中修改层的层号
    2. nn.Module:修改后的模块本身。这个模块可以是任何PyTorch定义的神经网络层或者你自己定义的层。
      在这里插入图片描述

网络模型的保存与读取

  • torch.save(model, ‘model.pth’):PyTorch 中的一个函数,模型model的权重和参数,保存在指定文件model.pth中。
  • model = torch.load(‘model.pth’):PyTorch 中的一个函数,根据model.pth文件,加载保存的模型并返回给变量 model
  • torch.save(model.state_dict(), ‘model.pth’): 将模型model参数(权重和偏置等,不包括模型的结构),以字典的形式保存到指定的文件 ‘model.pth’ 中。
  • model.load_state_dict(torch.load(‘model.pth’)):torch.load()函数读取文件中模型的参数信息,加载到model模型中。请注意,这种方式要求你在加载模型时已经知道模型model的结构。

模型训练流程(以CIFAR10为例)

  • 第一步:准备数据集,包括训练集和测试集
import torchvision

# 准备训练集
train_data = torchvision.datasets.CIFAR10("dataset",train=True,transform=torchvision.transforms.ToTensor(),
                                          download=True)

# 准备测试集
test_data = torchvision.datasets.CIFAR10("dataset",train=False,transform=torchvision.transforms.ToTensor(),
                                          download=True)
  • 第二步:计算数据长度
# 计算数据集长度
train_data_size = len(train_data)
test_data_size = len(test_data)
print("训练数据集的长度:{}".format(train_data_size))
print("测试数据集的长度:{}".format(test_data_size))
  • 第三步:用dataloader()加载数据集,将数据集划分为批量子集
# dataloader()加载数据集
train_dataloader = DataLoader(train_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)
  • 第四步:搭建神经网络,一般用一个单独python文件保存
import torch
from torch import nn

class My_Module(nn.Module):
    def __init__(self):
        super(My_Module,self).__init__()
        self.model = nn.Sequential(
            nn.Conv2d(3, 32, kernel_size=5, stride=1, padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32 ,32, kernel_size=5, stride=1, padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32,64,5,1,2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(64*4*4,64),
            nn.Linear(64,10),

        )

    def forward(self,input):
        output = self.model(input)
        return output


if __name__ == '__main__':
    my_module = My_Module()
    input = torch.ones((64, 3, 32, 32))
    output = my_module(input)
    print(output.shape)
  • 第五步:创建网络模型
# 创建网络模型
my_module = My_Module()
  • 第六步:定义损失函数
loss_f = nn.CrossEntropyLoss()
  • 第七步:定义优化器,进行梯度下降
# 定义优化器,进行梯度下降
learning_rate = 0.01  # 学习效率
optimizer = torch.optim.SGD(my_module, lr=learning_rate)

  • 第八步:设置训练网络模型的一些参数
# 设置训练网络模型的一些参数
total_train_step = 0  # 记录训练次数
total_test_step = 0  # 记录测试次数
epoch = 10 # 训练的轮次
writer = SummaryWriter("P27")  # 添加tensorboard

  • 第九步:训练网络模型
# 训练网络模型
for i in range(epoch):
    print("------第{}轮训练开始------".format(i + 1))

    for data in train_dataloader:
        images ,targets = data
        input = images
        output = my_module(input)  # 前向传播
        loss = loss_f(output, targets)  # 计算损失
        loss.backward()  # 反向转播
        optimizer.zero_grad()  #
        optimizer.step() # 梯度下降

        total_train_step = total_train_step + 1
        print("训练次数:{},loss:{}".format(total_train_step, loss.item()))

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/184545.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

什么是高防CDN?CDN的设计原理及应用场景是什么?

随着互联网的快速发展,人们对网络的速度和稳定性要求也越来越高。CDN技术作为网络优化的重要手段,被越来越多的企业和网站所采用。现在我为大家介绍一下CDN的设计原理以及应用场景。 一.高防CDN技术概述 高防CDN是一种应用了高级防御技术的内容分发网络…

【大数据】Docker部署HMS(Hive Metastore Service)并使用Trino访问Minio

本文参考链接置顶: Presto使用Docker独立运行Hive Standalone Metastore管理MinIO(S3)_hive minio_BigDataToAI的博客-CSDN博客 一. 背景 团队要升级大数据架构,需要摒弃hadoop,底层使用Minio做存储,应用…

配置mvn打包参数,不同环境使用不同的配置文件

方法一: 首先在/resource目录下创建各自环境的配置 要在不同的环境中使用不同的配置文件进行Maven打包,可以使用Maven的profiles特性和资源过滤功能。下面是配置Maven打包参数的步骤: 在项目的pom.xml文件中,添加profiles配置…

Lubuntu 23.10用户可使用LXQt 1.4桌面

导读在众多 Lubuntu 用户的要求下,Lubuntu 开发人员决定将 LXQt 1.4 桌面环境向后移植到最新的 Lubuntu 23.10 (Mantic Minotaur) 版本。 是的,您没看错,您现在可以使用官方的 Lubuntu Backports PPA(个人软…

“java.lang.IllegalStateException: No ConfigurableListableBeanFactory set“,缺少配置

一、错误分析 做品优购项目的运营商安全登录时,运行项目后,浏览器访问模板页,模板页的表格无法正常显示,报错信息如下: SEVERE: StandardWrapper.Throwable java.lang.IllegalStateException: No ConfigurableLista…

window.requestAnimationFrame+localStorage+canvas实现跨窗口小球连线效果

文章目录 前言效果代码后言 前言 hello world欢迎来到前端的新世界 😜当前文章系列专栏:前端系列文章 🐱‍👓博主在前端领域还有很多知识和技术需要掌握,正在不断努力填补技术短板。(如果出现错误,感谢大家…

session、cookie的区别

前言 cookie存在于客户端(浏览器),session存在于服务端。session的主要信息存在于服务器,在客户端只存放一个sessionid(基于cookie的),每次请求,客户端都会自动把sessionid发送到服…

儿童在线学习系统 宝宝云幼儿园服务微信小程序的设计与实现

综合运用所学的程序设计基础、数据结构、数据库原理及应用、高级语言程序设计、面向对象程序设计、软件需求分析与建模、软件设计与体系结构、软件测试等课程知识,设计开发一个较实用的应用系统。 通过该设计可以巩固并提高软件工程专业学生的软件需求分析、设计、开…

css实现图片绕中心旋转,鼠标悬浮按钮炫酷展示

vue模板中代码 <div class"contentBox clearfix home"><div class"circle"><img class"in-circle" src"../../assets/img/in-circle.png" alt""><img class"out-circle" src"../../as…

【小尘送书-第十二期】计算机考研精炼1000题——助力每一个考研人成功上岸

大家好&#xff0c;我是小尘&#xff0c;欢迎你的关注&#xff01;大家可以一起交流学习&#xff01;欢迎大家在CSDN后台私信我&#xff01;一起讨论学习&#xff0c;讨论如何找到满意的工作&#xff01; &#x1f468;‍&#x1f4bb;博主主页&#xff1a;小尘要自信 &#x1…

flutter,uni-app开发调试ios

一、申请ios开发者账号 二、ios开发者配置 ios 开发者需要配置的地方 https://developer.apple.com/account/resources/certificates/list Certificates&#xff08;证书&#xff09;: 作用&#xff1a; 证书用于对应用程序和开发者进行身份验证&#xff0c;确保安全性和可…

企业数字化转型转什么?怎么转?这份攻略请收好

目录 -01-数字化转型“是什么” -02-数据驱动推动企业数字化转型 -03-企业数字化转型的行动路线图 数字化转型&#xff0c;转什么&#xff1f;怎么转&#xff1f;这些问题仍在困扰不少企业&#xff0c;也是每个企业转型升级不得不思考的重要问题。对此&#xff0c;中关村数字…

Docker Desktop 安装使用教程

一、前言 作为开发人员&#xff0c;在日常开发中&#xff0c;我们需要在本地去启动一些服务&#xff0c;如&#xff1a;redis、MySQL等&#xff0c;就需要去下载这些在本地去启动&#xff0c;操作较为繁琐。此时&#xff0c;我们可以使用Docker Desktop&#xff0c;来搭建我们需…

【SpringCloud】微服务的扩展性及其与 SOA 的区别

一、微服务的扩展性 由上一篇文章&#xff08;没看过的可点击传送阅读&#xff09;可知&#xff0c; 微服务具有极强的可扩展性&#xff0c;这些扩展性包含以下几个方面&#xff1a; 性能可扩展&#xff1a;性能无法完全实现线性扩展&#xff0c;但要尽量使用具有并发性和异步…

hive 报错return code 40000 from org.apache.hadoop.hive.ql.exec.MoveTask解决思路

参考学习 https://github.com/apache/hive/blob/2b57dd27ad61e552f93817ac69313066af6562d9/ql/src/java/org/apache/hadoop/hive/ql/ErrorMsg.java#L47 为啥学习error code 开发过程中遇到以下错误&#xff0c;大家觉得应该怎么办&#xff1f;从哪方面入手呢&#xff1f; 1.百…

系列二、Spring整合单元测试

一、概述 Spring中获取bean最常见的方式是通过ClassPathXmlApplicationContext 或者 AnnotationConfigApplicationContext的getBean()方式获取bean&#xff0c;那么在Spring中如何像在SpringBoot中直接一个类上添加个SpringBootTest注解&#xff0c;即可在类中注入自己想要测试…

小程序:project.config.json / project.private.config.json / 项目配置文件 /拉取代码产生冲突 / 如何解决

一、理解project.config.json / project.private.config.json project.config.json 文件是项目的配置文件&#xff0c;它包含了关于小程序的一些基本信息&#xff0c;例如小程序的名称、App ID、开发者信息以及页面路径等。这个文件一般不会被提交到版本控制系统中&#xff0c;…

个人财务管理软件CheckBook Pro mac中文版特点介绍

CheckBook Pro mac是一款Mac平台的个人财务管理软件&#xff0c;主要用于跟踪个人收入、支出和账户余额等信息。 CheckBook Pro mac 软件特点 简单易用&#xff1a;该软件的用户界面非常简洁明了&#xff0c;即使您是初学者也可以轻松上手。 多账户管理&#xff1a;该软件支持…

ubuntu22.04 arrch64版操作系统编译zlmediakit

脚本 系统没有cmake&#xff0c;需要通过apt先进行下载&#xff0c;下面的脚本已经包含了 # 安装依赖 gcc-c.x86_64 这个不加的话会有问题 sudo yum -y install gcc gcc-c libssl-dev libsdl-dev libavcodec-dev libavutil-dev ffmpeg git openssl-devel gcc-c.x86_64 ca…