LeNet5实战——衣服分类

  • 搭建模型
  • 训练代码(数据处理、模型训练、性能指标)——> 产生权重w ——>模型结构c、w
  • 测试

配置环境

Pycharm刚配置的环境找不到了-CSDN博客

model.py

导入库

import torch  
from torch import nn  
from torchsummary import summary

模型搭建

 note:

  • stride 步幅为1,和默认值一样,不用写
  • padding=0,和默认一样不用写

代码

import torch  
from torch import nn  
from torchsummary import summary  
  
  
class LeNet(nn.Module):  
    #初始化  
    def __init__(self):  
        super(LeNet,self).__init__()  
        self.c1=nn.Conv2d(in_channels=1,out_channels=6,kernel_size=5,padding=2)  
        self.sig=nn.Sigmoid()  
        self.s2=nn.AvgPool2d(kernel_size=2,stride=2)  
        self.c3=nn.Conv2d(in_channels=6,out_channels=16,kernel_size=5)  
        self.s4=nn.AvgPool2d(kernel_size=2,stride=2)  
  
        self.flatten=nn.Flatten()  
        self.f5 = nn.Linear(in_features=400,out_features=120)  
        self.f6 = nn.Linear(in_features=120, out_features=84)  
        self.f7 = nn.Linear(in_features=84, out_features=10)  
  
    def forward(self,x):  
        x = self.sig(self.c1(x))#经过卷积和激活  
        x=self.s2(x)  
        x=self.sig(self.c3(x))  
        x=self.s4(x)  
        x=self.flatten(x)  
        x=self.f5(x)  
        x=self.f6(x)  
        x=self.f7(x)  
        return x  
  
if __name__=="__main__":  
    device = torch.device("cuda" if torch.cuda.is_available()else "cpu")  
    print(device)  
    model = LeNet().to(device)#实例化  
    print(summary(model,input_size=(1,28,28)))

前向传播结果

plot.py

模型加载

下载数据集

打包数据

为什么要移除一维? 

因为之前将数据打包成64一组,数据格式为64 *28 * 28 * 1,把64移除,剩下的28* 28 * 1就是图片格式

 获取图片数据

 可视化数据(图片)

代码

from torchvision.datasets import FashionMNIST  
from torchvision import transforms#处理数据集  
import torch.utils.data as Data  
import numpy as np  
import matplotlib.pyplot as plt  
from model import LeNet # 导入模型(没有训练的模型)  
  
def train_val_data_process():  
    train_data = FashionMNIST(root='./data',  
                              train=True,  
                              transform=transforms.Compose([transforms.Resize(size=28), transforms.ToTensor()]),  
                              # 转换成张量形式方便应用  
                              download=True)  
    train_data,val_data = Data.random_split(train_data,lengths=(round(0.8*len(train_data)),round(0.2*len(train_data))))#随机划分数据  
  
    train_dateloader = Data.DataLoader(dataset=train_data,  
                                       batch_size=128,  
                                       shuffle=True,  
                                       num_workers=8)#进程  
  
    val_dateloader = Data.DataLoader(dataset=val_data,  
                                       batch_size=128,  
                                       shuffle=True,  
                                       num_workers=8)  
  
    return train_dateloader,val_dateloader  

可视化结果

一批次的图片(64张)

model_train.py

导入库

import copy  
import time  
  
import torch  
from torchvision.datasets import FashionMNIST  
from torchvision import transforms  # 处理数据集  
import torch.utils.data as Data  
import numpy as np  
import matplotlib.pyplot as plt  
from model import LeNet  # 导入模型(没有训练的模型)  
import torch.nn as nn  
import pandas as pd
  • FashionMNIST数据集由Zalando研究团队创建,包含了10个不同类别的灰度图像。每个图像的尺寸为28x28像素,共有训练集和测试集两部分。(衣服分类数据集)
  • transforms模块提供了一种方便的方式来对图像数据进行常见的预处理操作,如缩放、裁剪、旋转、翻转、标准化等。它还可以用于将图像数据转换为张量(Tensor)格式,并根据需要进行其他转换操作。
  • torch.utils.data是PyTorch中的一个模块,提供了用于数据加载和预处理的工具类和函数。它提供了一种方便的方式来处理和准备数据,以供机器学习模型的训练和评估使用。torch.utils.data模块中的两个重要类是DatasetDataLoader
  • torch.nn模块包含了许多常用的神经网络层类,提供了各种损失函数。
  • pandas是一个功能强大且灵活的数据处理和分析库,它提供了高性能、易于使用的数据结构和数据分析工具

train_val_data_process()

代码

def train_val_data_process():  
    train_data = FashionMNIST(root='./data',  
                              train=True,  
                              transform=transforms.Compose([transforms.Resize(size=28), transforms.ToTensor()]),  
                              # 转换成张量形式方便应用  
                              download=True)  
    train_data, val_data = Data.random_split(train_data, lengths=(  
    round(0.8 * len(train_data)), round(0.2 * len(train_data))))  # 随机划分数据  
  
    train_dataloader = Data.DataLoader(dataset=train_data,  
                                       batch_size=32,  
                                       shuffle=True,  
                                       num_workers=2)  # 进程  
  
    val_dataloader = Data.DataLoader(dataset=val_data,  
                                    shuffle=True,  
                                     num_workers=2)  
  
    return train_dataloader, val_dataloader

FashinMNIST

FashionMNIST是一个用于图像分类的数据集,包含了10个类别的服装图像。 指定root参数为'./data'train参数为Truetransform参数为一个transforms.Compose对象,以及download参数为True,可以下载并加载FashionMNIST数据集。

transforms.Compose对象是一个数据预处理的组合,这里使用了transforms.Resize将图像大小调整为28×28,并使用transforms.ToTensor将图像转换为张量形式。

Data.random_split

将train_data按照8|2的比例随机划分给train_data和val_data

Data.DataLoader

  • dataset:指定要加载的数据集,这里是train_data,即训练数据集。
  • batch_size:指定每个批次中的样本数量,这里是32,表示每次加载32个样本。
  • shuffle:指定是否在每个迭代周期前打乱数据顺序,这里设置为True,表示在每个迭代周期前打乱数据顺序。
  • num_workers:指定用于数据加载的线程数,这里设置为2,表示使用2个进程进行数据加载。

train_model_process

代码

def train_model_process(model, train_dataloader, val_dataloader, num_epochs):  
    # 设定训练所用到的设备,有GPU用GPU,没有则用CPU  
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")  
    # 使用Adam优化器,学习率为0.001(adam——优化的梯度下降法)  
    optimizer = torch.optim.Adam(model.parameters(), lr=0.001)  
    # 损失函数为交叉熵函数  
    criterion = nn.CrossEntropyLoss()  
    # 将模型放到训练设备中  
    model = model.to(device)  
    # 赋值当前模型的参数  
    best_model_wts = copy.deepcopy(model.state_dict())  
  
    # 初始化参数  
    # 最高精准度  
    best_acc = 0.0  
    # 训练集损失函数列表  
    train_loss_all = []  
    # 验证集损失函数列表  
    val_loss_all = []  
    # 训练集精度列表  
    train_acc_all = []  
    # 验证集精度列表  
    val_acc_all = []  
    # 当前时间  
    since = time.time()  
  
    for epoch in range(num_epochs):  
        print("Epoch {}/{}".format(epoch, num_epochs - 1))  
        print("-" * 10)  
  
        # 初始化参数  
        # 训练集损失函数  
        train_loss = 0.0  
        # 训练集准确度  
        train_corrects = 0  
        # 验证集损失函数  
        val_loss = 0.0  
        # 验证集准确度  
        val_corrects = 0  
        # 训练集样本数量  
        train_num = 0  
        # 验证集样本数量  
        val_num = 0  
  
        # 对每一个mini-batch训练和计算  
        for step, (b_x, b_y) in enumerate(train_dataloader):  
            # 将特征放入到训练设备中  
            b_x = b_x.to(device)  
            # 将标签放入到训练设备中  
            b_y = b_y.to(device)  
            # 设置模型为训练模式  
            model.train()  
  
            # 前向传播过程,输入为一个batch,输出为一个batch中对应的预测  
            output = model(b_x)  
            # 查找每一行中最大值对应的行标  
            pre_lab = torch.argmax(output, dim=1)  
  
            # 模型的输出和标签计算损失函数  
            loss = criterion(output, b_y)  
  
            # 将梯度初始化为0  
            optimizer.zero_grad()  
            # 反向传播计算  
            loss.backward()  
            # 根据网络反向传播的梯度信息来更新网络的参数,以起到降低loss函数计算值的作用  
            optimizer.step()  
            # 对损失函数进行累加  
            train_loss += loss.item() * b_x.size(0)  
            # 如果预测正确,则准确度train_corrects+1  
            train_corrects += torch.sum(pre_lab == b_y.data)  
            # 当前用于训练的样本数量  
            train_num += b_x.size(0)  
  
        for step, (b_x, b_y) in enumerate(val_dataloader):  
            b_x = b_x.to(device)  
            b_y = b_y.to(device)  
  
            # 设置模型为验证模式  
            model.eval()  
  
            output = model(b_x)  
            pre_lab = torch.argmax(output, dim=1)  
            loss = criterion(output, b_y)  
  
            val_loss += loss.item() * b_x.size(0)  
            val_corrects += torch.sum(pre_lab == b_y.data)  
            val_num += b_x.size(0)  
  
        # 计算并保存每一次迭代的loss值  
        train_loss_all.append(train_loss / train_num)  
        # 计算并保存训练集的准确率  
        train_acc_all.append(train_corrects.double().item() / train_num)  
  
        val_loss_all.append(val_loss / val_num)  
        val_acc_all.append(val_corrects.double().item() / val_num)  
  
        print('{} Train Loss:{:.4f} Train Acc:{:.4f}'.format(epoch, train_loss_all[-1], train_acc_all[-1]))  
        print('{} Val Loss:{:.4f} Val Acc: {:.4f}'.format(epoch, val_loss_all[-1], val_acc_all[-1]))  
  
        # 寻找最高准确度的权重  
        if val_acc_all[-1] > best_acc:  
            best_acc = val_acc_all[-1]  
            best_model_wts = copy.deepcopy(model.state_dict())  
  
        # 训练耗时  
        time_use = time.time() - since  
        print("训练耗费的时间:{:0f}m{:0f}s".format(time_use // 60, time_use % 60))  
  
    # 选择最优参数  
    # 加载最高准确率下的模型参数  
    torch.save(best_model_wts, 'E:/CODE/python/LeNet5/best_model.pth')  
  
    train_process = pd.DataFrame(data={"epoch": range(num_epochs),  
                                           "train_loss_all": train_loss_all,  
                                           "val_loss_all": val_loss_all,  
                                           "train_acc_all": train_acc_all,  
                                           "val_acc_all": val_acc_all})  
  
    return train_process

 准备

 一个迭代周期

初始化参数

对一批次的数据进行训练
遍历数据

for循环

for step, (b_x, b_y) in enumerate(train_dataloader): 是一个 for 循环语句的语法结构,用于迭代遍历一个可迭代对象 train_dataloader。 在每次循环迭代中,enumerate(train_dataloader) 将返回一个 (step, (b_x, b_y)) 的元组,其中: step 是当前迭代的索引值,表示当前是第几个迭代步骤。 (b_x, b_y) 是从 train_dataloader 中获取的一个批次的数据。

前向传播

模型的输出和标签计算损失函数

损失函数-----评估模型输出与真实标签之间的差异的函数

反向传播

更新网络并预测判断

 对一批次数据进行验证

注意

验证没有反向传播过程,因为验证数据在训练过程中主要用于评估模型的性能,而不是用于参数更新。在验证阶段,参数更新可能会导致模型在验证集上过拟合,并且会增加计算开销。因此,验证阶段只需要进行前向传播和损失计算,以获取模型在验证集上的性能指标,而不需要进行反向传播和参数更新。

一批次结束,计算并保存损失值和准确率

寻找最高准确度的权重

选择最优参数并返回

matplot_acc_lost

代码

def matplot_acc_lost(train_process):  
    plt.figure(figsize=(12, 4))  
    plt.subplot(1, 2, 1)  # 一行两列第一幅图  
    plt.plot(train_process["epoch"], train_process.train_loss_all, 'ro-', label="train loss")  
    plt.plot(train_process["epoch"], train_process.val_loss_all, 'bs', label="val loss")  
    plt.legend()  
    plt.xlabel("epoch")  
    plt.ylabel("loss")  
  
    plt.subplot(1, 2, 2)  # 一行两列第二幅图  
    plt.plot(train_process["epoch"], train_process.train_loss_all, 'ro-', label="train loss")  
    plt.plot(train_process["epoch"], train_process.val_loss_all, 'bs-', label="val loss")  
    plt.xlabel("epoch")  
    plt.ylabel("acc")  
    plt.legend()  
    plt.show()

 结果

modemodel_test.py

test_data_process

def test_data_process():  
    test_data = FashionMNIST(root='./data',  
                             train=False,  
                             transform=transforms.Compose([transforms.Resize(size=28), transforms.ToTensor()]),  
                             # 转换成张量形式方便应用  
                             download=True)  
  
    test_dataloader = Data.DataLoader(dataset=test_data,  
                                      batch_size=1,  
                                      shuffle=True,  
                                      num_workers=0)  
  
    return test_dataloader

test_model_process

def test_model_process(model, test_dataloader):  
    device = "cuda" if torch.cuda.is_available() else 'cpu'  
    model = model.to(device)  
  
    test_corrects=0.0  
    test_num=0  
  
    #只进行前向传播计算,不计算梯度,从而节省内存,加快运行速度  
    with torch.no_grad():  
        for test_data_x,test_data_y in test_dataloader:  
            test_data_x=test_data_x.to(device)  
            test_data_y=test_data_y.to(device)  
  
            model.eval()  
            #前向传播过程,输入为测试数据集,输出为对每个样本的预测值  
            output=model(test_data_x)  
            #查找每一行中最大值对应的行标  
            pre_lab=torch.argmax(output,dim=1)  
  
            test_corrects += torch.sum(pre_lab==test_data_y.data)  
            test_num += test_data_x.size(0)  
  
    #计算测试准确率  
    test_acc=test_corrects.double().item() / test_num  
    print("测试的准确率为:",test_acc)

 torch.no_grad

torch.no_grad()是一个上下文管理器,用于在代码块中禁用梯度计算和参数更新。当进入torch.no_grad()的上下文中时,PyTorch会自动将requires_grad属性设置为False,从而禁止梯度的计算和参数的更新。

torch.no_grad()常用于评估模型或进行推断过程,不需要计算梯度的情况下,可以提高代码的执行效率并减少内存消耗。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/432048.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

三步骤找到用户真正痛点 提高需求分析质量

用户痛点对于需求分析具有至关重要的作用,这直接关系着需求分析结果是否真正满足用户需求,关系着最终研发的产品是否能够满足市场的需求,是否能够在竞争激烈的市场中脱颖而出。因此找到用户真正痛点至关重要。 1、什么是痛点 痛点是消费者心理…

Unity2013.1.19_DOTS_Burst compiler

Unity2013.1.19_DOTS_Burst compiler DOTS是一种新产品,现在尚在起步阶段。由于它处于持续发展中,随着我们努力使其达到最佳状态,您将看到API会不断演变和日趋成熟。 DOTS包含以下元素: 实体组件系统(ECS) - 提供使用面向数据的…

Linux下下载安装JDK配置Java环境变量

Linux下下载安装JDK配置Java环境变量 1. 下载JDK 下载链接:(https://www.oracle.com/java/technologies/javase/jdk17-archive-downloads.html) 2. 上传至服务器并解压 可通过shell工具进行上传,我这里是上传安装在/opt目录 解压jdk-17.0.10_linux-x64_b…

【DevOps云实践】不同Azure Function的类型

【DevOps云实践】不同Azure Function的类型 Azure函数是由Microsoft Azure提供的无服务器计算服务,允许开发人员构建和部署应用程序而不必担心底层基础设施。使用Azure函数,您可以根据不同的触发器执行代码,并支持多种类型的函数以满足不同的用例。在本博客文章中,我们将探…

html实体字符,已拿offer入职

面试知识点 主要内容包括html,css,前端基础,前端核心,前端进阶,移动端开发,计算机基础,算法与数据结构,设计模式,项目等等。 html 1.浏览器页面有哪三层构成&#xff0c…

CSS的行内样式与内联样式,web前端服务端开发

面试题: Html 1,html语义化 2,meta viewport相关 3,canvas 相关 CSS 1,盒模 戳这里领取完整开源项目:【一线大厂前端面试题解析核心总结学习笔记Web真实项目实战最新讲解视频】 型 1.1,ie…

主备DNS服务器搭建并验证

目录 1. 配置静态网络 2. 配置主备DNS 2.1 DNS备服务器(第二个虚拟机) 2.2 两个虚拟机操作 2.3 备用服务器(第二个虚拟机)执行 2.4 两个虚拟机都添加DNS: 3. 验证 3.1 主DNS服务验证: 3.2 备用DNS服务器验证&am…

005-CSS-兼容适配

兼容&适配 简介媒体查询px、rpx、em、rem、vw、vh、vm 像素单位概念IOS 对 fixed 布局兼容问题刘海屏、全面屏兼容适配 简介 前端兼容问题主要包含:不同浏览器兼容、Web端不同分辨率适配、H5移动端适配: 不同浏览器兼容主要针对的是 IE 浏览器&…

阿里云服务器2核4G多少钱?支持多少在线?并发数性能测试

阿里云2核4G服务器多少钱一年?2核4G配置1个月多少钱?2核4G服务器30元3个月、轻量应用服务器2核4G4M带宽165元一年、企业用户2核4G5M带宽199元一年。可以在阿里云CLUB中心查看 aliyun.club 当前最新2核4G服务器精准报价、优惠券和活动信息。 阿里云官方2…

为什么被蜜蜂蛰了会肿得像馒头

有的人却只是一点点小鼓包。 病情分析:蜜蜂体内存在一种有毒物质,其主要成分是蚁酸,这种成分进入人体后,会和血液发生反应,导致皮肤表现出红肿和瘙痒的症状。一些人群还会对蜜蜂表现出过敏反应,此类人群在…

Linux Ubuntu 部署SVN

最近需要在ubuntu server上部署一个svn,记录 不需要特定版本 如果不需要特定版本,这样安装就是最简单的 sudo apt update然后开始安装 sudo apt install subversion等到安装完成之后执行查看版本命令,如果正常输出那就没问题了 svnadmin …

环境配置、如何安装OpenHarmony HAR

OpenHarmony HAR OpenHarmony js/ts三方库使用的是OpenHarmony静态共享包,即HAR(Harmony Archive),可以包含js/ts代码、c库、资源和配置文件。通过HAR,可以实现多个模块或者多个工程共享ArkUI组件、资源等相关代码。HAR不同于HAP&#xff0c…

07-prometheus的自定义监控-pushgateway工具组件

一、概述 pushgateway用于自定义监控节点、节点中服务的工具,用户可以通过自定义的命令获取数据,并将数据推送给pushgateway中; prometheus服务,从pushgateway中获取监控数据; 二、部署pushgateway 我们可以“随便”找…

十四 超级数据查看器 讲解稿 背景和颜色

十四 超级数据查看器 讲解稿 背景和颜色 点击打开新页面播放视频教程 点击访问应用宝下载 讲解稿全文: 大家好,我们讲解一下 超级数据查看器 背景和颜色设置。 首先,我们打开超级数据查看器。 这节课设置的是 列表和详情界面的背景 和顶栏颜色。 …

小程序学习

一、第一天 1、小程序体验 2、注册账号 小程序 (qq.com) 3、开发工具下载 下载 / 稳定版更新日志 (qq.com) 4、目录结构 "navigationBarBackgroundColor": "#00b26a" 配置头部背景色 4、wxml模板介绍 5、wxss 6、js文件 7、宿主环境 1、通信主体 2…

腾轩科技传媒讲解企业怎样做整合营销推广才有效果

当今信息爆炸的时代,企业如何才能从浩渺的市场中脱颖而出,触达目标消费者,实现品牌与销售的双增长?腾轩科技传媒讲解的整合营销推广正是解决这一问题的关键所在。它不仅仅是一种营销策略,更是一种全新的思维方式&#…

猫狗分类图像识别

根据深度学习的基本框架,我们要做以下工作: 1,构建神经网络。 2,预处理数据。 3,用训练集训练权重。 4,用测试集进行测试。 首先我们从创建神经网络开始: 先上代码: import torc…

【C++进阶】哈希(万字详解)—— 学习篇(上)

🎇C学习历程:入门 博客主页:一起去看日落吗持续分享博主的C学习历程博主的能力有限,出现错误希望大家不吝赐教分享给大家一句我很喜欢的话: 也许你现在做的事情,暂时看不到成果,但不要忘记&…

web学习笔记(二十五)BOM

目录 1.BOM概述 1.1什么是BOM 1.2BOM的构成 2.windom常用属性汇总 3.window常用方法汇总 4.window对象常见事件汇总 5.this总结: 1.BOM概述 1.1什么是BOM BOM(Browser Object Model)就是浏览器对象模型(整个浏览器),他的核心对象是window,BOM缺…

力扣大厂热门面试算法题 - 动态规划

爬梯子、跳跃游戏、最小路径和、杨辉三角、接雨水。每题做详细思路梳理,配套Python&Java双语代码, 2024.03.05 可通过leetcode所有测试用例。 目录 70. 爬楼梯 解题思路 完整代码 Python Java 55. 跳跃游戏 解题思路 完整代码 Python 代码…