【深度学习】pytorch——快速入门

笔记为自我总结整理的学习笔记,若有错误欢迎指出哟~

pytorch快速入门

  • 简介
  • 张量(Tensor)操作
    • 创建张量
    • 向量拷贝
    • 张量维度
    • 张量加法
    • 函数名后面带下划线 `_` 的函数
    • 索引和切片
    • Tensor和Numpy的数组之间的转换
    • 张量(tensor)与标量(scalar)
    • scalar.item与tensor[idx]
  • 自动微分Autograd(Automatic differentiation)
    • .grad 属性
    • .grad_fn属性
  • 模型构建
  • 损失函数
  • 优化器
  • 数据加载和预处理

简介

PyTorch是一个开源的机器学习框架,它提供了丰富的工具和库,用于构建和训练深度学习模型。下面是一些关于PyTorch的基本信息:

张量(Tensor)操作:PyTorch中的核心对象是张量,它是一个多维数组。PyTorch提供了广泛的张量操作函数,可以执行各种数学运算和线性代数操作。

自动微分:PyTorch使用动态图计算的方式,允许用户轻松定义和计算梯度。通过在张量上设置 requires_grad=True,可以跟踪和自动计算梯度。这使得实现反向传播算法变得简单,对于构建和训练深度学习模型非常重要。

模型构建:PyTorch提供了灵活的模型构建方式。可以通过继承 torch.nn.Module 类来定义自己的模型,并在 forward() 方法中指定前向传播的操作。这样的模型可以由多个层组成,每个层可以是全连接层、卷积层、循环神经网络等。

损失函数:PyTorch提供了多种常见的损失函数,用于评估模型输出与目标之间的差异。例如,均方误差损失函数用于回归问题,交叉熵损失函数用于分类问题。

优化器:PyTorch提供了多种优化算法的实现,如随机梯度下降(SGD)、Adam、RMSprop等。这些优化器可以用于更新模型参数,以最小化定义的损失函数。

数据加载和预处理:PyTorch提供了用于加载和处理数据的工具。可以使用 torchvision 库加载常见的图像数据集,并应用各种数据增强技术来扩充训练数据集。

分布式训练:PyTorch支持分布式训练,可以在多个GPU或多台机器上并行运行。这有助于加速训练过程,并处理更大规模的数据集和模型。

总的来说,PyTorch提供了一个灵活且易于使用的深度学习框架,使得构建、训练和部署深度学习模型变得简单和高效。它广泛应用于学术界和工业界,并得到了广大开发者的喜爱和支持。

import torch

print("pytorch版本:", torch.__version__)

输出结果为:

pytorch版本: 2.1.0+cpu

张量(Tensor)操作

数据类型:在PyTorch中,Tensor可以是多种数据类型,如float、double、int、long等。这些类型对应于不同的精度和范围。

张量操作:PyTorch提供了大量的张量操作函数,可以进行各种数学运算和线性代数操作。这些函数包括加、减、乘、除、矩阵乘法、向量点积、转置、逆矩阵等等。

自动求导:Tensor可以通过设置 requires_grad=True 来启用自动求导。这允许用户轻松定义和计算梯度,以用于反向传播算法。

Tensor形状:Tensor的形状指的是其各个维度的大小。可以通过 shape 属性来获取Tensor的形状。形状信息对于构建和训练深度学习模型非常重要。

广播机制:在进行张量运算时,如果两个张量的形状不完全相同,PyTorch会自动执行广播机制。这意味着,较小的张量将被自动扩展,以匹配较大张量的形状。

索引和切片:可以使用整数索引和切片操作来访问Tensor中的元素。此外,还可以使用布尔索引和高级索引等功能,进行更复杂的Tensor操作。

GPU加速:在支持CUDA的GPU上,PyTorch可以利用GPU加速Tensor操作,从而实现更快的计算速度。

创建张量

使用 torch.zeros() 或 torch.ones() 函数创建全零或全一张量:

zeros_tensor = torch.zeros(5, 3)
ones_tensor = torch.ones(5, 3)

使用 torch.randn() 函数创建符合标准正态分布的随机数张量:

random_tensor = torch.randn(5, 3)

使用 torch.Tensor() 创建张量:

import torch

# 从 Python 标量创建张量
scalar_tensor = torch.tensor(3.14)
print(scalar_tensor)   # 输出 tensor(3.1400)

# 从 Python 列表创建张量
list_tensor = torch.tensor([1, 2, 3])
print(list_tensor)   # 输出 tensor([1, 2, 3])

# 从 NumPy 数组创建张量
numpy_array = np.array([4, 5, 6])
numpy_tensor = torch.tensor(numpy_array)
print(numpy_tensor)   # 输出 tensor([4, 5, 6], dtype=torch.int32)

# 创建一个指定大小的空张量
empty_tensor = torch.tensor([])
print(empty_tensor)   # 输出 tensor([])

# 从其他张量创建张量
x = torch.tensor([1, 2, 3])
y = torch.tensor(x)
print(y)   # 输出 tensor([1, 2, 3])
# x 和 y是两个完全独立的张量对象,它们在内存中占据不同的位置。
x[0] = 100
print(x)   # tensor([100,   2,   3])
print(y)   # tensor([1, 2, 3])

注意,以上三种方法都可以通过添加 .to(device) 方法将张量转移到GPU设备上(如果你的系统支持GPU加速)。

向量拷贝

torch.tensor()、tensor.clone()、tensor.detach()进行数据拷贝,新tensor和原来的数据不再共享内存。

.clone().detach() 都是用于在 PyTorch 中创建新的张量,但它们在功能和用法上有一些区别:

1..clone() 方法:

功能:.clone() 方法创建一个新的张量,该张量与原始张量具有相同的值、形状和梯度信息。

用法:通常用于需要在计算图中保留梯度信息的情况,比如进行反向传播和优化过程。

示例代码:

import torch

x = torch.tensor([1, 2, 3], requires_grad=True)
y = x.clone()

print(x)  # 输出: tensor([1, 2, 3], requires_grad=True)
print(y)  # 输出: tensor([1, 2, 3], grad_fn=<CloneBackward>)

在这个例子中,y 是通过 .clone() 方法从原始张量 x 创建的,它保留了 x 的梯度信息。

  1. .detach() 方法:

功能:.detach() 方法创建一个新的张量,该张量与原始张量具有相同的值和形状,但不保留任何梯度信息。

对于整数类型的张量,无法使用 requires_grad 参数。如果您需要在整数类型的张量上进行自动微分,请先将其转换为浮点数类型的张量。

用法:通常用于需要从计算图中分离出张量的梯度信息,以便在不需要梯度的情况下进行计算。

示例代码:

import torch

x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
y = x.detach()

print(x)  # 输出: tensor([1., 2., 3.], requires_grad=True)
print(y)  # 输出: tensor([1., 2., 3.])

在这个例子中,y 是通过 .detach() 方法从原始张量 x 创建的,它不保留 x 的梯度信息。

总结区别:

  • .clone() 创建一个新的张量,并保留原始张量的梯度信息。
  • .detach() 创建一个新的张量,并且不保留原始张量的梯度信息。
    所以如果你想共享内存的话,建议使用torch.from_numpy()或者tensor.detach()来新建一个tensor, 二者共享内存。

张量维度

PyTorch 中,size() 方法返回一个元组,表示张量各个维度的大小。torch.size 是tuple对象的子类,因此它支持tuple的所有操作。
x.size()[0] 和 x.size(0) 都用于获取张量第一个维度的大小,即行数。
x.size()[1] 和 x.size(1) 都用于获取张量第二个维度的大小,即列数。

x = t.rand(5, 3)  
print(x.size()) # 查看x的形状
print(x.size()[0]) # 查看行的个数
print(x.size(0)) # 查看行的个数
print(x.size()[1]) # 查看列的个数
print(x.size(1)) # 查看列的个数

输出结果为:

torch.Size([5, 3])
5
5
3
3

张量加法

在 PyTorch 中,可以使用 torch.add() 函数或者张量的 add() 方法进行张量加法。两者的功能是类似的,只是使用方式上有所区别。

  1. 使用 torch.add() 函数

torch.add() 函数的语法如下:

torch.add(input, other, alpha=1, out=None)

其中,input 表示要进行加法运算的张量,other 表示要加到 input 上的张量,alpha 表示缩放系数,out 表示输出张量(默认为 None)。

示例代码如下:

# 创建两个张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])

# 使用 torch.add() 进行张量加法
result = torch.add(tensor1, tensor2)
print(result)

输出结果为:

tensor([[ 6,  8],
        [10, 12]])

在这个例子中,创建了两个 2x2 的张量 tensor1tensor2,然后使用 torch.add() 函数对它们进行了加法运算,结果存储在 result 张量中。

  1. 使用张量的 add() 方法

张量的 add() 方法的语法如下:

add(other, alpha=1, out=None) -> Tensor

其中,other 表示要加到当前张量上的张量,alpha 表示缩放系数,out 表示输出张量(默认为 None)。

示例代码如下:

import torch

# 创建两个张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])

# 使用张量的 add() 方法进行张量加法
result = tensor1.add(tensor2)
print(result)

运行结果与使用 torch.add() 函数的结果相同:

tensor([[ 6,  8],
        [10, 12]])

在这个例子中,首先创建了两个 2x2 的张量 tensor1tensor2,然后使用 tensor1.add(tensor2) 进行了加法运算,结果存储在 result 张量中。

需要注意的是,add 方法并不会修改当前张量,而是返回一个新的张量。如果需要就地修改当前张量,可以使用 add_ 方法。例如:

import torch

# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])

# 就地修改
tensor.add_(2)

print(tensor)

输出结果为:

tensor([[3, 4],
        [5, 6]])

函数名后面带下划线 _ 的函数

在 PyTorch 中,函数名后面带下划线 _ 的函数通常表示就地(in-place)操作,这些函数会直接修改调用它们的张量本身,而不会创建新的张量。

就地操作可以节省内存空间,尤其在处理大规模数据时非常有用。然而,需要注意的是,这些就地操作会改变原始张量,因此在使用时需要小心,确保不会意外修改到原始数据。

以下是一些常见的就地操作的示例:

import torch

# 创建一个张量
tensor = torch.tensor([1, 2, 3])

# 就地加法操作
tensor.add_(1)
print(tensor)  # 输出 tensor([2, 3, 4])

# 就地乘法操作
tensor.mul_(2)
print(tensor)  # 输出 tensor([4, 6, 8])

# 就地取负操作
tensor.neg_()
print(tensor)  # 输出 tensor([-4, -6, -8])

需要注意的是,就地操作的命名规范是以下划线结尾的函数名,例如 add_()mul_()neg_()。这些函数在执行完操作后,会直接修改原始张量,而不返回新的张量。

在使用就地操作时,请注意以下几点:

  • 原始张量的值会被修改,可能会对后续计算产生影响。
  • 就地操作不会创建新的张量,因此不能使用赋值操作(例如 tensor = tensor.add_(1)),否则会导致变量引用发生变化。
  • 就地操作只能用于可就地修改的张量类型,例如浮点型张量和整数型张量。对于不可变的张量类型(如 torch.Tensor)或自动求导的张量(如 torch.autograd.Variable),就地操作是不允许的。

索引和切片

在 PyTorch 中,可以使用索引和切片操作来选择张量中的特定元素、子集或者某个维度上的切片。这些操作使得你可以根据需要获取张量的部分数据,进行进一步的处理或分析。

下面是一些常见的张量选取操作示例:

  1. 使用索引选择单个元素
import torch

# 创建一个张量
tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

# 使用索引选取单个元素
element = tensor[0, 1]
print(element)  # 输出 tensor(2)

在这个例子中,我们创建了一个 2x3 的张量 tensor,然后使用索引 0, 1 来选择第一行、第二列的元素,即 2。

  1. 切片操作选择子集
import torch

# 创建一个张量
tensor = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])

# 使用切片操作选择子集
# 选取张量 tensor 中第 2 行到第 3 行(不包括第 3 行),以及第 1 列到第 2 列(不包括第 2 列)的所有元素。
subset = tensor[1:3, 0:2]
print(subset)

输出结果为:

tensor([[4, 5],
        [7, 8]])

在这个例子中,我们创建了一个 3x3 的张量 tensor,然后使用切片操作选择了第二行和第三行的前两列,即子集 [[4, 5], [7, 8]]

  1. 使用布尔索引选择满足条件的元素
import torch

# 创建一个张量
tensor = torch.tensor([1, 2, 3, 4, 5, 6])

# 使用布尔索引选择满足条件的元素
selected_elements = tensor[tensor > 3]
print(selected_elements)

输出结果为:

tensor([4, 5, 6])

在这个例子中,我们创建了一个包含整数的张量 tensor,然后使用布尔索引 tensor > 3 来选择大于 3 的元素,即满足条件的元素 [4, 5, 6]

除了上述示例外,还可以使用其他高级的选取操作,如使用 torch.where() 函数、使用 torch.masked_select() 函数等。这些操作可以根据特定的需求进行更复杂的数据选择和过滤。

Tensor和Numpy的数组之间的转换

.numpy()方法将张量(Tensor)转换为NumPy数组,进行一些NumPy支持的操作。
torch.from_numpy()方法将NumPy数组转换回PyTorch张量。

以下是一个示例:

import torch
import numpy as np

# 创建一个PyTorch张量
tensor = torch.tensor([1, 2, 3, 4, 5])

# 将PyTorch张量转换为NumPy数组
array = tensor.numpy()
print(array)  # 输出 [1, 2, 3, 4, 5]

# 使用NumPy数组进行操作
array = np.square(array)
print(array)  # 输出 [1, 4, 9, 16, 25]

# 将NumPy数组转换回PyTorch张量
tensor = torch.from_numpy(array)
print(tensor)  # 输出 tensor([1, 4, 9, 16, 25])
  • 创建了一个PyTorch张量 tensor
  • 使用.numpy()方法将其转换为NumPy数组 array
  • 对NumPy数组进行了一些操作(计算了每个元素的平方),并将结果存储回了array
  • 使用torch.from_numpy()方法将NumPy数组 array 转换回PyTorch张量 tensor

需要注意的是,通过将张量转换为NumPy数组进行处理可能会导致一些性能上的损失,因为NumPy数组和PyTorch张量使用不同的底层实现。因此,在进行转换前后需要权衡性能和功能需求。

Tensor和numpy对象共享内存

# 改变NumPy数组的值
array[0] = 100
print(array)  # 输出 [100   4   9  16  25]

# 查看PyTorch张量的值
print(tensor)  # 输出 tensor([100,   4,   9,  16,  25])

如果需要避免共享内存带来的问题,可以使用.clone()方法来创建副本,以确保两个对象之间没有共享的内存。

张量(tensor)与标量(scalar)

在PyTorch中,标量是零维张量,也就是不包含任何轴的张量。可以直接使用Python的标量数据类型,如整数或浮点数
以下是几种创建标量的示例:

import torch

# 创建一个零维张量
scalar_tensor = torch.tensor(5)
print(scalar_tensor)  # 输出 tensor(5)
print(scalar_tensor.shape)  # 输出 torch.Size([])

# 创建一个一维张量
vector_tensor = torch.tensor([5])
print(vector_tensor)  # 输出 tensor([5])
print(vector_tensor.shape)  # 输出 torch.Size([1])

# 直接使用Python的标量数据类型
scalar_value = 5
print(scalar_value)  # 输出 5
print(type(scalar_value))  # 输出 <class 'int'>

scalar.item与tensor[idx]

scalar.item可以获取某一个元素的值
tensor[idx]得到的还是一个tensor: 一个0-dim的tensor,一般称为scalar

import torch

scalar_tensor = torch.tensor([5])
print(scalar_tensor)  # 输出 tensor([5])
print(scalar_tensor.shape) #输出 torch.Size([1])

tensor_value = scalar_tensor[0]
print(scalar_value)  # 输出 tensor(5)

scalar_value = scalar_tensor.item()
print(scalar_value)  # 输出 5

自动微分Autograd(Automatic differentiation)

Autograd(Automatic differentiation)是PyTorch中的一个自动微分引擎,用于计算和追踪张量上的导数。Autograd使得在神经网络训练中进行反向传播及计算梯度变得相对简单。

在PyTorch中,每个张量都有一个 requires_grad 属性,用于指定是否要对该张量进行梯度计算。当设置 requires_grad=True 时,PyTorch会跟踪针对该张量的所有操作,并构建一个计算图(computational graph)。这个计算图可以用于自动计算后向传播(backpropagation)和计算梯度。

当完成前向传播(forward pass)后,可以通过调用 backward() 方法自动计算梯度。此时,对于具有 requires_grad=True 的张量,它们将具有一个 .grad 属性,其中包含了相对于某个标量损失函数的梯度。该梯度可以用于更新模型参数,在训练过程中优化模型。

使用 PyTorch 进行自动求导简单示例:

import torch

# 创建张量并设置 requires_grad=True
x = torch.tensor(3.0, requires_grad=True)
y = torch.tensor(4.0, requires_grad=True)

# 执行一些操作
z = x ** 2 + y ** 3

# 计算 z 相对于 x 和 y 的梯度
z.backward()

# 输出梯度值
print(x.grad)  # 输出: tensor(6.)
print(y.grad)  # 输出: tensor(48.)

创建了两个张量 xy,并将 requires_grad 属性设置为 True,以便自动求导。

定义了一个计算 z = x ** 2 + y ** 3 的操作,并调用 backward() 方法计算梯度。

通过 grad 属性获取 xy 相对于 z 的梯度值。

需要注意的是,自动求导仅适用于标量(scalar)张量。如果要计算向量或矩阵相对于张量的导数,可以使用 Jacobian 矩阵的方法。此外,为了避免梯度计算造成的内存泄漏,可以使用 torch.no_grad() 上下文管理器来禁用梯度计算。

.grad 属性

.grad 属性是在 PyTorch 中用于访问张量的梯度值的属性
在这里插入图片描述

import torch

# 创建张量并设置 requires_grad=True
a = torch.tensor(5.0, requires_grad=True)
b = torch.tensor(3.0, requires_grad=True)
c = torch.tensor(2.0, requires_grad=True)
u = b*c
v = a+u
j = 3*v

# 执行反向传播计算梯度
j.backward()

# 输出梯度值
print(a.grad)  # 输出: tensor(3.)
print(b.grad)  # 输出: tensor(6.)
print(c.grad)  # 输出: tensor(9.)
  • 创建了张量并将 requires_grad 属性设置为 True,以便自动求导。
  • 定义了一些计算操作,并通过调用 .backward() 方法执行反向传播计算梯度。
  • 通过 .grad 属性获取张量相对于 j 的梯度值。

.grad_fn属性

在 PyTorch 中,每个张量都有一个 grad_fn 属性,用于表示创建该张量的操作(或函数),也就是反向传播时需要调用的函数。这个属性可以用来构建计算图和执行自动微分。

下面是一个简单的示例,展示了如何使用 grad_fn 属性:

import torch

# 创建一个张量并执行一些操作
x = torch.tensor(2.0, requires_grad=True)
y = x ** 2 + 3
z = y ** 2

# 输出每个张量的 grad_fn 属性
print(x.grad_fn)  # 输出: None
print(y.grad_fn)  # 输出: <AddBackward0 object at 0x7f3e8bd82b10>
print(z.grad_fn)  # 输出: <PowBackward0 object at 0x7f3e8bd82b10>

在这个例子中,我们创建了一个张量 x 并将 requires_grad 属性设置为 True,以便自动求导。然后,我们定义了一些计算操作,并输出了每个张量的 grad_fn 属性。

需要注意的是,只有在张量是通过某个操作创建时,它才有一个 grad_fn 属性。对于手动创建的张量,如普通的 Python 数组或通过 torch.tensor() 创建的张量,它们的 grad_fn 属性是 None

模型构建

PyTorch提供了灵活的模型构建方式。可以通过继承 torch.nn.Module 类来定义自己的模型,并在 forward() 方法中指定前向传播的操作。这样的模型可以由多个层组成,每个层可以是全连接层、卷积层、循环神经网络等。

1.导入 PyTorch 库和相关的包

import torch
import torch.nn as nn
import torch.optim as optim

2.定义模型类(继承自 nn.Module

class MyModel(nn.Module):
    def __init__(self, input_size, hidden_size, output_size):
        super(MyModel, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(hidden_size, output_size)
        
    def forward(self, x):
        out = self.fc1(x)
        out = self.relu(out)
        out = self.fc2(out)
        return out

在这个示例中,我们定义了一个名为 MyModel 的类,继承自 nn.Module。该模型具有两个全连接层和一个 ReLU 激活函数。__init__ 方法用于初始化模型的权重和偏置,而 forward 方法则定义了模型的正向传播过程。

这段代码定义了一个简单的神经网络模型 MyModel,它有三个层:一个输入层、一个隐藏层和一个输出层。

__init__ 方法中,模型的结构定义如下:

  • self.fc1 = nn.Linear(input_size, hidden_size):这一行创建了一个线性层(全连接层),将输入特征的维度为 input_size 转换为隐藏层特征的维度为 hidden_size
  • self.relu = nn.ReLU():这一行创建了一个 ReLU 激活函数对象,用于在隐藏层后面引入非线性变换。
  • self.fc2 = nn.Linear(hidden_size, output_size):这一行创建了第二个线性层,将隐藏层特征的维度为 hidden_size 转换为输出特征的维度为 output_size

forward 方法中,模型的前向传播过程定义如下:

  • out = self.fc1(x):首先,输入 x 通过第一个线性层 self.fc1 进行线性变换。
  • out = self.relu(out):然后,通过 ReLU 激活函数 self.relu 进行非线性变换。
  • out = self.fc2(out):最后,将变换后的特征再次通过第二个线性层 self.fc2 进行线性变换得到最终的输出。

整个模型的结构可以总结为:

输入层(input_size) -> 隐藏层(hidden_size) -> ReLU 激活函数 -> 输出层(output_size)

这个模型可以用于各种任务,如分类、回归等。在训练过程中,我们可以通过定义损失函数和优化算法来最小化模型的预测与真实值之间的差距,以达到训练模型的目的。

损失函数

PyTorch 中的损失函数模块 torch.nn 包含了许多常用的损失函数,如均方误差损失(MSELoss)、交叉熵损失(CrossEntropyLoss)等等。这些损失函数可以帮助我们度量模型预测值与真实值之间的差距,是深度学习中一个重要的组成部分。

以下是一些常见的损失函数及其用法示例:

  • 均方误差损失(MSELoss):

    criterion = nn.MSELoss()
    loss = criterion(output, target)
    

    在这个示例中,output 是模型的输出值,target 是真实值,criterion 是一个 MSELoss 损失函数对象,loss 就是模型预测值与真实值之间的 MSE 损失值。

  • 交叉熵损失(CrossEntropyLoss):

    criterion = nn.CrossEntropyLoss()
    loss = criterion(output, target)
    

    在这个示例中,output 是模型的输出值,target 是真实值标签,criterion 是一个 CrossEntropyLoss 损失函数对象,loss 就是模型预测值与真实值之间的交叉熵损失值。

  • KL 散度损失(KLDivLoss):

    criterion = nn.KLDivLoss()
    loss = criterion(output.log(), target)
    

    在这个示例中,output 是模型的输出值,target 是真实值,criterion 是一个 KLDivLoss 损失函数对象,loss 就是 KL 散度损失值。

损失函数的使用通常包括以下几个步骤:

  1. 定义损失函数:选择一个合适的损失函数,并将其实例化。
  2. 在每个训练迭代中,通过调用损失函数计算模型输出值与真实值之间的差距,并得到相应的损失值。
  3. 调用反向传播算法 backward() 计算损失关于模型参数的梯度。

下面是一个完整的示例代码,演示了如何使用 MSELoss 进行模型训练:

import torch
import torch.nn as nn

# 定义模型
class MyModel(nn.Module):
    def __init__(self):
        super(MyModel, self).__init__()
        self.fc = nn.Linear(10, 1)
        
    def forward(self, x):
        out = self.fc(x)
        return out

# 实例化模型和损失函数
model = MyModel()
criterion = nn.MSELoss()

# 模拟数据
inputs = torch.randn(100, 10)
labels = torch.randn(100, 1)

# 训练模型
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for epoch in range(10):
    optimizer.zero_grad()
    outputs = model(inputs)
    loss = criterion(outputs, labels)
    loss.backward()
    optimizer.step()
    print('Epoch:', epoch+1, 'Loss:', loss.item())

这段代码是一个使用 PyTorch 进行模型训练的示例。

  • 定义了一个简单的线性模型 MyModel,它包含一个线性层 self.fc = nn.Linear(10, 1)。这个模型将输入大小为 10 的张量映射到一个大小为 1 的输出张量。
  • 实例化了这个模型和一个均方误差损失函数 MSELoss,即 criterion = nn.MSELoss()
  • 生成了一个大小为 (100, 10) 的输入张量 inputs 和一个大小为 (100, 1) 的标签张量 labels,用于模拟训练数据。
  • 使用随机梯度下降优化器 SGD,即 optimizer = torch.optim.SGD(model.parameters(), lr=0.01),设置学习率为 0.01。
  • 进行了 10 个训练迭代的循环。在每个迭代中:
    • 调用 optimizer.zero_grad() 来清零之前的梯度。
    • 通过将输入张量 inputs 传入模型 model,得到输出张量 outputs
    • 使用损失函数 criterion 计算预测值 outputs 与真实值 labels 之间的均方误差损失,并将其保存在变量 loss 中。
    • 调用 loss.backward() 来执行反向传播计算梯度。
    • 调用 optimizer.step() 来更新模型参数,使其朝着更优的方向进行调整。
  • 在每个训练迭代中,打印出当前迭代的 epoch 数和损失值 loss.item()

优化器

PyTorch 提供了多种优化器,用于在训练深度学习模型时更新模型的参数。以下是几个常见的 PyTorch 优化器:

1.SGD(随机梯度下降法)

optimizer = optim.SGD(model.parameters(), lr=learning_rate)

这是最基本的优化器之一,使用随机梯度下降法来更新模型的参数。model.parameters() 返回模型中的可学习参数,lr 是学习率。

2.Adam(自适应矩估计)

optimizer = optim.Adam(model.parameters(), lr=learning_rate)

Adam 是一种自适应学习率优化算法,结合了动量法和 RMSprop。它可以根据每个参数的梯度自适应地调整学习率。

3.Adagrad

optimizer = optim.Adagrad(model.parameters(), lr=learning_rate)

Adagrad 是一种自适应学习率优化算法,该算法会为每个参数维护一个学习率,随着训练的进行,会针对每个参数降低学习率。

4.RMSprop(均方根传播)

optimizer = optim.RMSprop(model.parameters(), lr=learning_rate)

RMSprop 是一种自适应学习率优化算法,它使用梯度的均方根来调整学习率。

5.Adadelta

optimizer = optim.Adadelta(model.parameters(), lr=learning_rate)

Adadelta 是一种自适应学习率优化算法,它根据过去的梯度和参数更新的幅度来调整学习率。

这些优化器都可以通过调用 optimizer.step() 来更新模型的参数。在每个训练迭代中,通常会先调用 optimizer.zero_grad() 来清零之前的梯度,然后进行正向传播、计算损失、反向传播、计算梯度和参数更新的过程。

选择合适的优化器取决于具体的任务和数据集。一般来说,Adam 优化器在很多情况下表现良好,但在某些问题上可能需要尝试不同的优化器来获得更好的性能。此外,还可以调整学习率、设置动量等超参数来进一步改进优化器的性能。

数据加载和预处理

在 PyTorch 中,数据加载和预处理通常通过自定义数据集类和数据转换函数来完成。下面是一般的数据加载和预处理的步骤:

  1. 创建自定义数据集类: 首先,你需要创建一个自定义的数据集类,继承自 torch.utils.data.Dataset。在该类中,你需要实现 __len__ 方法返回数据集的大小,以及 __getitem__ 方法根据给定的索引返回单个样本。
  2. 数据转换: 数据转换是对原始数据进行预处理的过程。你可以使用 torchvision.transforms 模块提供的转换函数,如 ComposeToTensorNormalize 等。这些函数可以将原始数据转换为张量,并进行标准化、裁剪、缩放等操作。
  3. 创建数据集实例: 使用上述自定义数据集类和转换函数创建数据集实例。传入数据集的路径、标签等信息,根据需要应用相应的数据转换。
  4. 创建数据加载器: 数据加载器负责将数据集分成小批次进行训练。你可以使用 torch.utils.data.DataLoader 类创建数据加载器,传入数据集实例和一些参数,如批次大小、是否随机打乱数据等。

下面是一个示例代码,演示了如何加载和预处理数据:

import torch
from torch.utils.data import Dataset, DataLoader
from torchvision import transforms

# 自定义数据集类
class MyDataset(Dataset):
    def __init__(self, data, labels, transform=None):
        self.data = data
        self.labels = labels
        self.transform = transform

    def __len__(self):
        return len(self.data)

    def __getitem__(self, index):
        sample = self.data[index]
        label = self.labels[index]

        if self.transform:
            sample = self.transform(sample)

        return sample, label

# 数据转换
transform = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.5], std=[0.5])
])

# 创建数据集实例
data = [...]  # 原始数据
labels = [...]  # 标签
dataset = MyDataset(data, labels, transform=transform)

# 创建数据加载器
batch_size = 64
shuffle = True
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=shuffle)

在上述示例中,我们创建了一个自定义数据集类 MyDataset,并传入原始数据、标签和数据转换函数 transform。然后,我们使用 DataLoader 创建数据加载器 dataloader,设置批次大小为 64,并指定是否随机打乱数据。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/111747.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【MATLAB】全网唯一的13种信号分解+FFT傅里叶频谱变换联合算法全家桶

有意向获取代码&#xff0c;请转文末观看代码获取方式~ 大家吃一顿火锅的价格便可以拥有13种信号分解FFT傅里叶频谱变换联合算法&#xff0c;绝对不亏&#xff0c;知识付费是现今时代的趋势&#xff0c;而且都是我精心制作的教程&#xff0c;有问题可随时反馈~也可单独获取某一…

机器学习(六)构建机器学习模型

1.9构建机器学习模型 我们使用机器学习预测模型的工作流程讲解机器学习系统整套处理过程。 整个过程包括了数据预处理、模型学习、模型验证及模型预测。其中数据预处理包含了对数据的基本处理&#xff0c;包括特征抽取及缩放、特征选择、特征降维和特征抽样&#xff1b;我们将…

【Redis】认识Redis-特点特性应用场景对比MySQL重要文件及作用

文章目录 认识redisredis的主要特点redis的特性&#xff08;优点&#xff09;redis是单线程模型&#xff0c;为什么效率这么高&#xff0c;访问速度这么快redis应用场景redis不可以做什么MySQL和Redis对比启动RedisRedis客户端Redis重要文件及作用 认识redis redis里面相关的小…

通讯网关软件033——利用CommGate X2OPC实现PI数据写入OPC Server

本文推荐利用CommGate X2OPC实现从PI服务器读取数据并写入OPC Server。CommGate X2OPC是宁波科安网信开发的网关软件&#xff0c;软件可以登录到网信智汇(http://wangxinzhihui.com)下载。 【案例】如下图所示&#xff0c;实现从PI实时数据库获取数据并写入OPC Server。 【解决…

贪心算法总结

贪心的定义&#xff08;摘自百度百科&#xff09; 贪心算法&#xff08;greedy algorithm&#xff0c;又称贪婪算法&#xff09;是指&#xff0c;在对问题求解时&#xff0c;总是做出在当前看来是最好的选择。也就是说&#xff0c;不从整体最优上加以考虑&#xff0c;算法得到的…

EasyRecovery易恢复16中文免费版下载

最近一直在加班码方案&#xff0c;抓bug&#xff0c;熬夜都成了家常便饭。原本以为这种艰难的生活快要迎来胜利的曙光&#xff0c;偏偏老天还要给我再来当头一棒&#xff01;写完方案被我误删了&#xff0c;而且还彻底清空了废纸篓&#xff0c;团队几天几夜的成果毁于一旦&…

[极客大挑战 2019]Secret File 1

题目环境&#xff1a; 网页什么都没有&#xff0c;GET那里也没有任何参数和文件 F12查看隐藏文件发现隐藏文件点进去看看发现一个可点击按钮SECRET 好家伙&#xff0c;什么都没有 这里猜测还有隐藏文件目录扫描使用工具dirsearch命令&#xff1a;python dirsearch.py -u [http:…

微服务-Feign

文章目录 Feign介绍Feign的基本使用自定义Feign的配置Feign性能优化Feign最佳实践 Feign介绍 RestTemplate远程调用存在的问题&#xff1a;代码可读性差&#xff0c;java代码中夹杂url&#xff1b;参数复杂很难维护 String url "http://userservice/user/" order.g…

纬创出售印度子公司给塔塔集团,结束iPhone代工业务 | 百能云芯

纬创&#xff08;Wistron&#xff09;董事会于10月27日通过决议&#xff0c;同意以1.25亿美元的价格出售其印度子公司Wistron InfoComm Manufacturing (India) Private Limited&#xff08;WMMI&#xff09;的100%股权给塔塔集团&#xff0c;交割将尽快完成。此举将意味着纬创退…

3ds Max2022安装教程(最新最详细)

目录 一.简介 二.安装步骤 网盘资源见文末 一.简介 3DS Max是由Autodesk公司开发的一款专业三维建模、动画和渲染软件&#xff0c;广泛应用于影视、游戏、建筑和工业设计等领域。 3DS Max的主要特点和功能包括&#xff1a; 三维建模&#xff1a;3DS Max提供了各种强大的建…

【Python 零基础入门】Numpy 常用函数

【Python 零基础入门】内容补充 3 Numpy 常用函数 概述Numpy 数组创建np.arangenp.linspace 数组操作reshapeflattenconcatenatesplitvstackhstack 数学运算add 相加subtract 相减multiply 相乘divide 相除 通用函数np.sqrt 平方根np.log 对数np.exp 指数np.sin 正弦 概述 Num…

如何有效使用蜂邮EDM和vba批量发送邮件?

蜂邮EDM和vba批量发送邮件的方法&#xff1f;怎么使用蜂邮EDM和vba代码群发电子邮件&#xff1f; 批量发送邮件已经成为一种不可或缺的沟通方式。蜂邮EDM和VBA是两个功能强大的工具&#xff0c;可以帮助您在邮件营销和业务通信中实现高效的批量发送邮件操作。接下来将介绍如何…

Java设置日期时间的毫秒数为0

背景 做一个发送短信的需求&#xff0c;采用RabbitMQ来实现定时发送。发送时需要验证发送短信任务的预计发送时间和生产者传过来的时间是否一致&#xff0c;一致才发送。 结果在调试的时候&#xff0c;却发现任务一直没法触发。一步步调试&#xff0c;发现是两个时间不相等。明…

理解springboot那些过滤器与调用链、包装或封装、设计模式相关等命名规范,就可以读懂80%的springboot源代码,和其他Java框架代码

紧接上面《 理解springboot那些注册与回调、监控与统计等命名规范,就可以读懂70%的springboot源代码》、《 理解springboot那些约定俗成的框架类名、全局context等命名规范,就可以读懂一半springboot的源代码》2篇文章,此片将汇总springboot那些过滤器与调用链、包装或封装…

【C++ 系列文章 -- 程序员考试 201811 下午场 C++ 专题 】

1.1 C 题目六 阅读下列说明和C代码&#xff0c;填写程序中的空&#xff08;1&#xff09; &#xff5e;&#xff08;5&#xff09;&#xff0c;将解答写入答题纸的对应栏内。 【说明】 以下C代码实现一个简单乐器系统&#xff0c;音乐类&#xff08;Music&#xff09;可以使用…

防雷接地测试方法完整方案

防雷接地是保障电力系统、电子设备和建筑物安全的重要措施&#xff0c;防雷接地测试是检验防雷接地装置是否合格的必要手段。本文介绍了防雷接地测试的原理、方法和注意事项&#xff0c;以及如何编写防雷接地测试报告。 地凯科技防雷接地测试的原理 防雷接地测试的基本原理是…

驱动开发11 编写iic驱动-读取温湿度数据

头文件 head.h #ifndef __HEAD_H__ #define __HEAD_H__ #define GET_HUM _IOR(m, 1, int) #define GET_TEM _IOR(m, 0, int) #endif 应用程序 si7006.c #include <stdlib.h> #include <stdio.h> #include <sys/types.h> #include <sys/stat.h> #inc…

高效学习工具之AnkiMobile新手入门指南(ios端,包括ipad、ihpone设备)————创建、使用、备份、设置参数、相关资料

文章目录 0 背景0.1 闭环学习0.2 什么是anki0.3 anki践行者经验分享 1 开始使用1.1 导入1.2 创建空白组1.3 创建卡片1.3.1 利用anki创建卡片的两种方法1.3.2 复习材料分类 1.4 筛选&#xff08;做减法&#xff0c;拆分学习&#xff08;做子卡牌集合&#xff09;&#xff09;&am…

4.1 继承

思维导图&#xff1a; 第4章 面向对象(下) 学习目标: 了解面向对象中的继承特性&#xff0c;掌握继承的概念与特点。掌握方法的重写&#xff0c;能够在子类中重写父类方法。掌握super关键字&#xff0c;明白如何在类中使用super访问父类成员。理解final关键字的作用&#xff0…

微信小程序如何使用地球半径计算两组经纬度点之间的距离(自身位置与接口返回位置)【上】

目录 1.配置位置权限 2.获取当前自身经纬度 3. 请求接口拿到返回经纬 4. 循环取每一项的经纬 5.如何判断是否打开了定位权限 6.进行距离计算操作 7.运行效果 8.完整代码 首先在使用小程序时&#xff0c;请求的接口一定要去配置合法域名&#xff0c;才能够进行接下来…