这篇文章详细介绍了全链接神经网络实现方法,以及卷积的实现方法。最后我们发现,卷积的实现方法与全链接大同小异,因为 torch 为我们做了很多工作,我们来看看这两个有什么区别。
我们使用 torch 框架来实现两种神经网络,来对图形进行分类。
NN
首先我们引入依赖包
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor
from torch.utils.data import DataLoader
# from torch import nn
import torch.nn as nn
下载数据,ToTensor()是把PIL.Image转换为 tensor 格式数据
train_data = datasets.FashionMNIST(
root='data',
train=True,
download=True,
transform=ToTensor()
)
test_data = datasets.FashionMNIST(
root='data',
train=False,
download=True,
transform=ToTensor()
)
print(len(test_data))
使用 Dataloader 来处理数据
batch_size = 64
train_loader = DataLoader(
dataset = train_data,
batch_size = batch_size,
shuffle = True
)
test_loader = DataLoader(
dataset = test_data,
batch_size = batch_size,
shuffle = True
)
我们来看看 train_loader 中的数据是什么格式
for x ,y in train_loader:
print('x::',x,x.shape)
print('y::',y)
break
继承 nn.Moule,创建全链接神经网络,
第一层是784,第一个隐层未512,第二个隐层也为512,最后输出层为10(因为我们的图像数据是个10分类的数据)
class NN(nn.Module):
def __init__(self):
super().__init__()
self.line = nn.Sequential(
nn.Linear(28*28,512),
nn.ReLU(),
nn.Linear(512,512),
nn.ReLU(),
nn.Linear(512,10)
)
def forward(self,x):
x = nn.Flatten()(x)
# print('x.shape::',x.shape)
pred = self.line(x)
return