【深度学习入门篇 ⑤ 】PyTorch网络模型创建

【🍊易编橙:一个帮助编程小伙伴少走弯路的终身成长社群🍊】

大家好,我是小森( ﹡ˆoˆ﹡ ) ! 易编橙·终身成长社群创始团队嘉宾,橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官、CSDN人工智能领域优质创作者 。 


今天我们学习PyTorch的网络模型创建,全面概括该怎么创建模型!

神经网络的创建步骤

  1. 定义模型类,需要继承nn.Module
  2. 定义各种层,包括卷积层、池化层、全连接层、激活函数等等
  3. 编写前向传播,规定信号是如何传输的

可以用 torchsummary 查看网络结构,如果没有的话,使用pip命令进行安装 

pip install torchsummary

 Module: 神经网络的模板

所有的神经网络模块都应该继承该模块

import torch.nn as nn
import torch.nn.functional as F
class Model(nn.Module):
    def _init__( self):
        super()._init_()
        self.conv1 = nn.Conv2d(1,20,5)
        self.conv2 = nn.Conv2d( 20,20,5)
    def forward( self, x):
        x = F.relu( self.conv1(x))
        return F.relu(self.conv2(x) )
    

神经网络中常见的各种层

常见的层包括:卷积层,池化层,全连接层,正则化层,激活层

导入层有两种方法:

一种是将其看作一个类,在torch.nn里面

另一种是将其看作一个函数,在torch.nn.functional里面可以调用

全连接层 

全连接层又称为线性层,所以函数名叫 Linear,执行的操作是𝑦=𝑥𝐴𝑇+𝑏

torch.nn.Linear(in_features, out_features, bias=True, device=None, dtype=None)
  • in_feature代表输入数
  • out_features代表输出数,即神经元数量
import torch
import torch.nn as nn
m = nn.Linear(2,3)
input = torch.randn(5,2)
output = m( input)
print(output.size() )

输出:

torch.Size([5, 3])

先搭建个只有一层的网络,用 torchsummry 查看网络结构

import torch  
import torch.nn as nn  
from torchsummary import summary  
  
class NeuralNetwork(nn.Module):  
    def __init__(self):  
        super().__init__()  
        self.fc = nn.Linear(10, 1, bias=False) 
  
    def forward(self, x):  
        x = self.fc(x)  
        return x  
  
if __name__ == '__main__':  
    network = NeuralNetwork()  
    summary(network, (10,))  # 这里调用 torchsummary 来打印网络结构

 输出:

----------------------------------------------------------------
        Layer (type)               Output Shape         Param #
================================================================
            Linear-1                    [-1, 1]              10
================================================================
Total params: 10
Trainable params: 10
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.00
Forward/backward pass size (MB): 0.00
Params size (MB): 0.00
Estimated Total Size (MB): 0.00
----------------------------------------------------------------

Process finished with exit code 0

我们再自定义输入到网络中:

if __name__ == '__main__':
    network = NeuralNetwork()
    network.to('cuda')

    input = torch.randn(10)
    input = input.to('cuda')
    print('input=', input)

    output = network(input)
    print('output=', output)

    result = output.detach().cpu().numpy()
    print('result=', result)
  •  detach()用于从计算图中分离出一个张量(Tensor),使其成为一个新的张量,这个新张量不再需要计算梯度(即不会参与反向传播)

打印结果:

input= tensor([ 0.5767, -1.2199,  0.4407,  0.6083, -0.1758,  0.2291, -0.8924,  1.1664,
         0.3445,  0.7242], device='cuda:0')
output= tensor([-0.0183], device='cuda:0', grad_fn=<SqueezeBackward4>)
result= [-0.01834533]

激活函数

常见的激活函数包括 sigmoidrelu,以及softmax,学会他们怎么用,就会用其他激活函数了

Sigmoid

sigmoid是早期的激活函数

 函数的示意图:

m = nn.Sigmoid()
input = torch.randn(5)
output = m(input)

print(input)
print(output)
# 输出

tensor([ 0.6759, -0.8753, -0.3187,  0.0088,  2.0625])
tensor([0.6628, 0.2942, 0.4210, 0.5022, 0.8872])
ReLU

ReLU激活函数常放在全连接层、以及卷积层后面

m = nn.ReLU()    # 或m = F.ReLU()
input = torch.randn(5)
output = m(input)

print(input)
print(output)

# 输出
tensor([-2.8164,  0.8885, -0.9526,  0.3723, -0.2637])
tensor([0.0000, 0.8885, 0.0000, 0.3723, 0.0000])
Softmax

softmax是在分类当中经常用到的激活函数,用来放在全连接网络的最后一层

 

m = nn.Softmax(dim=1)
input = torch.randn(4,3)
output = m(input)

print(input)
print(output)

# 输出
tensor([[ 0.1096,  0.7095,  0.5996],
        [-0.6431, -0.0555,  0.5332],
        [-0.2367, -0.1851,  0.4029],
        [-1.0242,  1.9747,  2.0828]])
tensor([[0.2245, 0.4090, 0.3665],
        [0.1655, 0.2979, 0.5366],
        [0.2532, 0.2667, 0.4801],
        [0.0230, 0.4621, 0.5149]])

随机失活Dropout

当 FC层过多,容易对其中某条路径产生依赖,从而使得某些参数未能训练起来

为了防止上述问题,在 FC层之间通常还会加入随机失活功能,也就是Dropout

dropout的作用是随机失活的,通常加载FC层之间

m = nn.Dropout(p=0.5)
input = torch.randn(6,6)
output = m(input)

print(input)
print(output)

输出:

tensor([[-2.1174,  0.1180, -1.2979,  0.3600, -1.0417, -1.3583],
        [-0.2945,  1.0038, -0.9205,  2.5044, -1.2789,  0.4402],
        [-0.4641,  1.3378,  0.1766,  0.1972,  1.6867, -1.7123],
        [-1.1137,  1.1291, -0.1404,  0.6881,  0.3442,  0.7479],
        [ 2.4966, -2.5837,  2.0277, -1.0195,  0.2140, -0.1453],
        [-0.9259,  1.2443, -0.2939,  0.0304, -0.1057, -0.7959]])
tensor([[-4.2347,  0.0000, -0.0000,  0.0000, -0.0000, -2.7165],
        [-0.5890,  2.0076, -0.0000,  0.0000, -2.5579,  0.0000],
        [-0.0000,  0.0000,  0.3533,  0.3945,  3.3733, -3.4246],
        [-0.0000,  2.2581, -0.0000,  1.3763,  0.0000,  0.0000],
        [ 0.0000, -0.0000,  4.0554, -0.0000,  0.0000, -0.0000],
        [-0.0000,  2.4887, -0.5878,  0.0608, -0.0000, -0.0000]])

至此,一个全连接网络就可以构建了。

案例1:全连接网络处理一维信息

搭建以下的网络结构

组合全连接层,dropout层,激活函数,我们就可以构建出一个完整的全连接网络结构,代码如下

import torch
import torch.nn as nn
from torchsummary import summary


class NeuralNetwork(nn.Module):
    def __init__(self):
        super().__init__()
        self.relu = nn.ReLU()
        self.softmax = nn.Softmax(dim=1)
        self.dropout = nn.Dropout(p=0.5)
        self.fc_1 = nn.Linear(1000, 100)
        self.fc_2 = nn.Linear(100, 50)
        self.fc_3 = nn.Linear(50, 10)


    def forward(self,x):
        x = x.view(-1, 1000)  # 将输入的维度变成1000
        x = self.dropout(self.relu(self.fc_1(x)))
        x = self.dropout(self.relu(self.fc_2(x)))
        x = self.softmax(self.fc_3(x))
        return x

if __name__ == '__main__':
    network = NeuralNetwork()
    network.to('cuda')
    input = torch.randn(10, 1000)
    input = input.to('cuda')
    output = network(input)
    result = output.detach().cpu().numpy()
    print('result=', result)
    summary(network, (1000,))

输出:

result= [[0.08132502 0.0739548  0.09398187 0.10661174 0.12098686 0.11598682
  0.09127808 0.11483455 0.10602687 0.0950134 ]
 [0.09192658 0.08138597 0.07189317 0.12415235 0.11198585 0.11625377
  0.11482875 0.09960157 0.11294526 0.07502676]
 [0.09182167 0.05779037 0.14180492 0.09080649 0.11460604 0.09648075
  0.10017563 0.08380282 0.10664819 0.11606318]
 [0.07540213 0.09515596 0.11200604 0.11029708 0.14663948 0.08727078
  0.06854413 0.07956128 0.10746382 0.1176593 ]
 [0.07536343 0.091349   0.1040979  0.08714981 0.11877389 0.14497975
  0.08420233 0.08688229 0.11904272 0.08815894]
 [0.08312867 0.05986795 0.12148032 0.10792468 0.10400964 0.1238383
  0.11305461 0.08796311 0.11383145 0.08490121]
 [0.07948367 0.09183787 0.08272586 0.11967309 0.12150185 0.10853862
  0.09249827 0.10322765 0.102726   0.09778718]
 [0.09022301 0.09465341 0.08689808 0.08957365 0.14267558 0.1025212
  0.08516254 0.08472932 0.12696771 0.09659547]
 [0.08116906 0.12094414 0.09831021 0.12145476 0.12512349 0.10931041
  0.09090355 0.08238174 0.07898384 0.0914188 ]
 [0.10484971 0.08653011 0.09862521 0.1086348  0.09272213 0.0991234
  0.08527588 0.10124511 0.10974825 0.11324544]]
----------------------------------------------------------------
        Layer (type)               Output Shape         Param #
================================================================
            Linear-1                  [-1, 100]         100,100
              ReLU-2                  [-1, 100]               0
           Dropout-3                  [-1, 100]               0
            Linear-4                   [-1, 50]           5,050
              ReLU-5                   [-1, 50]               0
           Dropout-6                   [-1, 50]               0
            Linear-7                   [-1, 10]             510
           Softmax-8                   [-1, 10]               0
================================================================
Total params: 105,660
Trainable params: 105,660
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.00
Forward/backward pass size (MB): 0.00
Params size (MB): 0.40
Estimated Total Size (MB): 0.41
----------------------------------------------------------------

案例2:全连接网络处理二维图像

搭建以下的网络结构

使用全连接网络处理二维图像信息,当二维特征(Feature Map)转为一维特征时,需要从高维压缩成一维

这时候可以用 tensor.view(),或者用nn.Flatten(start_dim=1)

import torch
import torch.nn as nn
from torchsummary import summary


class NeuralNetwork(nn.Module):
    def __init__(self):
        super().__init__()
        self.relu = nn.ReLU()
        self.softmax = nn.Softmax(dim=1)
        self.dropout = nn.Dropout(p=0.5)
        self.fc_1 = nn.Linear(3*256*256, 100)
        self.fc_2 = nn.Linear(100, 10)
        self.fc_3 = nn.Linear(10,5)


    def forward(self,x):
        x = x.view(-1, 3*256*256)
        x = self.dropout(self.relu(self.fc_1(x)))
        x = self.dropout(self.relu(self.fc_2(x)))
        x = self.softmax(self.fc_3(x))
        return x

if __name__ == '__main__':
    network = NeuralNetwork()
    network.to('cuda')
    input = torch.randn((4,3,256,256))   # 4个样本,每个样本3通道,256*256像素
    input = input.to('cuda')
    output = network(input)
    result = output.detach().cpu().numpy()
    print('result=', result)
    summary(network, (3, 256, 256))

输出:

result= [[0.17621297 0.14625552 0.19215888 0.2527377  0.23263492]
 [0.16786984 0.16124012 0.1907313  0.2352923  0.24486642]
 [0.17400946 0.16431957 0.18192714 0.23585317 0.2438907 ]
 [0.1535219  0.18567167 0.18704179 0.16786435 0.30590025]]
----------------------------------------------------------------
        Layer (type)               Output Shape         Param #
================================================================
            Linear-1                  [-1, 100]      19,660,900
              ReLU-2                  [-1, 100]               0
           Dropout-3                  [-1, 100]               0
            Linear-4                   [-1, 10]           1,010
              ReLU-5                   [-1, 10]               0
           Dropout-6                   [-1, 10]               0
            Linear-7                    [-1, 5]              55
           Softmax-8                    [-1, 5]               0
================================================================
Total params: 19,661,965
Trainable params: 19,661,965
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.75
Forward/backward pass size (MB): 0.00
Params size (MB): 75.00
Estimated Total Size (MB): 75.76
----------------------------------------------------------------

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/797677.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

0/1背包

0/1背包 背包问题是DP最经典的类型之一&#xff0c;而0/1背包是最经典最基础的背包问题。 一个背包体积为 v v v&#xff0c;现有 n n n种物品&#xff0c;第 i i i个物品对应体积为 c i c_i ci​&#xff0c;价值为 w i w_i wi​&#xff0c;每件物品最多可放1次&#xff0c;…

初识影刀:EXCEL根据部门筛选低值易耗品

第一次知道这个办公自动化的软件还是在招聘网站上&#xff0c;了解之后发现对于办公中重复性的工作还是挺有帮助的&#xff0c;特别是那些操作非EXCEL的重复性工作&#xff0c;当然用在EXCEL上更加方便&#xff0c;有些操作比写VBA便捷。 下面就是一个了解基本操作后&#xff…

如何追踪ping连接中的所有路由器的数量和IP

如何快速判断ping连接经过的路由器个数和IP&#xff1f; 方法一&#xff1a; ping命令会返回一个TTL&#xff0c;TTL&#xff08;Time To Live&#xff09;存活时间&#xff0c;一般初始值为64&#xff0c;每经过一个路由器就减一&#xff0c;当TTL为0时丢弃网络包&#xff0…

【深度学习】PyTorch深度学习笔记01-Overview

参考学习&#xff1a;B站视频【《PyTorch深度学习实践》完结合集】-刘二大人 ------------------------------------------------------------------------------------------------------- 1. 基于规则的深度学习 2. 经典的机器学习——手动提取一些简单的特征 3. 表示学习…

Linux问题解决

1、打开VMware Workstation&#xff0c;开启需要安装VMware Tools的虚拟机&#xff0c;在顶部选择菜单栏的虚拟机选项卡&#xff0c;点击“安装VMware Tools(T&#xff09;”。 或者有时在底部会弹出提示框安装tools&#xff0c;点击安装也可以。 2、进入ubuntu系统后&#xff…

《Linux系统编程篇》vim的使用 ——基础篇

引言 上节课我们讲了&#xff0c;如何将虚拟机的用户目录映射到自己windows的z盘&#xff0c;虽然这样之后我们可以用自己的编译器比如说Visual Studio Code&#xff0c;或者其他方式去操作里面的文件&#xff0c;但是这是可搭建的情况下&#xff0c;在一些特殊情况下&#xf…

【Linux】数据流重定向

数据流重定向&#xff08;redirect&#xff09;由字面上的意思来看&#xff0c;好像就是将【数据给它定向到其他地方去】的样子&#xff1f; 没错&#xff0c;数据流重定向就是将某个命令执行后应该要出现在屏幕上的数据&#xff0c;给它传输到其他的地方&#xff0c;例如文件或…

4G LTE 教程 物理通道结构

https://www.artizanetworks.com/resources/tutorials/phy_cha.html 下行物理信道&#xff1a; 物理下行链路共享信道 (PDSCH) 承载 DL-SCH 和 PCH。DL-SCH 包含实际用户数据。物理下行链路控制信道 (PDCCH) 通知UEPCH和DL-SCH的资源分配情况&#xff0c;以及DL-SCH相关的HARQ…

tongweb8 使用命令行对应用进行操作(by lqw)

文章目录 声明思路和概念新增应用更新应用启动应用停止应用删除应用 声明 本帖只是做一些简单的应用查看&#xff0c;新增&#xff0c;启动&#xff0c;停止&#xff0c;删除操作&#xff0c;仅供参考&#xff0c;详细内容建议参考TongwebV8.0 命令行工具参考&#xff0c;生产…

InjectFix 热更新解决方案

简介 今天来谈一谈&#xff0c;项目种的客户端热更新解决方案。InjectFix是腾讯xlua团队出品的一种用于Unity中C#代码热更新热修复的解决方案。支持Unity全系列&#xff0c;全平台。与xlua的思路类似&#xff0c;InjectFix解决的痛点主要在于Unity中C#代码写的逻辑在发包之后无…

Python爬虫:基础爬虫架构及爬取证券之星全站行情数据!

爬虫成长之路&#xff08;一&#xff09;里我们介绍了如何爬取证券之星网站上所有A股数据&#xff0c;主要涉及网页获取和页面解析的知识。爬虫成长之路&#xff08;二&#xff09;里我们介绍了如何获取代理IP并验证&#xff0c;涉及了多线程编程和数据存储的知识。此次我们将在…

深度学习LSTM之预测光伏发电

代码一&#xff1a;训练LSTM模型 代码逐段分析 import numpy as np import pandas as pd import tensorflow.keras as tk from tensorflow.keras import layers首先&#xff0c;导入了必要的库&#xff1a;numpy用于数值计算&#xff0c;pandas用于数据处理&#xff0c;tenso…

k8s record 20240710 监控

不是adaptor 是opetator 案例 监控有了&#xff0c;日志搜集呢&#xff1f; 一、kubelet 的小弟 kubelet — 负责维护容器的生命周期&#xff0c;节点和集群其他部分通信 cAdvisor 集成在 Kubernetes 的 kubelet 中&#xff0c;能够自动发现和监控集群中所有的容器。dockers…

尚硅谷Vue3入门到实战,最新版vue3+TypeScript前端开发教程

Vue3 编码规范 创建vue3工程 基于vite创建 快速上手 | Vue.js (vuejs.org) npm create vuelatest 在nodejs环境下运行进行创建 按提示进行创建 用vscode打开项目 安装依赖 源文件有src 内有main.ts App.vue 简单分析 编写src vue2语法在三中适用 vue2中的date metho…

java《ArrayList篇》--ArrayList全套知识点总结及其配套习题逐语句分析(附带全套源代码)

一、前言 来不及悼念字符串了&#xff0c;接下来登场的是集合&#xff0c;集合和数组的用法差不多&#xff0c;不同之处就在于存储的内容&#xff0c;数组是固定的长度的&#xff0c;集合的长度不固定。学习的过程中可以参照数组 今天已经是学习java的第八天了&#xff0c;接下…

vue3 vite+gojs 2.3.14 去除水印

引用vue2的做法&#xff1a;http://t.csdnimg.cn/Yrz8n 自定义vite插件&#xff0c;插件中apply 分两种模式&#xff0c;如果打包请选择build&#xff0c;记得强制刷新浏览器清缓存采能看到最新的gojs界面 export default function createGojsWaterMaker() {return {name:rem…

FPGA笔试

半加器和全加器的区别&#xff1a; 1、半加器不考虑输入的进位&#xff0c;称之为半加。 2、全加器反之&#xff0c;考虑进位。 SRAM/DRAM优缺点对比_sram和dram的主要区别及优缺点-CSDN博客 消除竞争冒险的方法 ①滤波电容&#xff1a;因为尖峰脉冲很窄&#xff0c;用很小的…

PyFluent入门之旅(5)后处理

接着PyFluent入门之旅&#xff08;4&#xff09;算例求解后我们已经完成了求解&#xff0c;并且保存了.dat的结果文件。 现在可以利用Fluent内置的后处理功能进行图像与数据曲线的输出。 1. 计算结果文件的读取 如果需要在计算完成后立即进行后处理&#xff0c;那么直接在求…

Nginx入门到精通六(高可用配置)

下面内容整理自bilibili-尚硅谷-Nginx青铜到王者视频教程 Nginx相关文章 Nginx入门到精通一&#xff08;基本概念介绍&#xff09;-CSDN博客 Nginx入门到精通二&#xff08;安装配置&#xff09;-CSDN博客 Nginx入门到精通三&#xff08;Nginx实例1&#xff1a;反向代理&a…

【Django+Vue3 线上教育平台项目实战】构建高效线上教育平台之首页模块

文章目录 前言一、导航功能实现a.效果图&#xff1a;b.后端代码c.前端代码 二、轮播图功能实现a.效果图b.后端代码c.前端代码 三、标签栏功能实现a.效果图b.后端代码c.前端代码 四、侧边栏功能实现1.整体效果图2.侧边栏功能实现a.效果图b.后端代码c.前端代码 3.侧边栏展示分类及…