文章目录
- 前言
- 某一层的参数
- 目标参数
- 一次性访问所有参数
- 嵌套块收集参数
前言
在选择了架构并设置了超参数后,进入训练阶段。此时,我们的目标就是找到使损失函数最小化的模型参数。有时,我们希望提取参数,以便在其他环境中复用。
某一层的参数
net=nn.Sequential(nn.Linear(4,8),nn.ReLU(),nn.Linear(8,1))
X=torch.rand(size=(2,4))
print(net[2].state_dict())
目标参数
print(net[2].bias)
print(net[2].bias.data)
一次性访问所有参数
print(*[(name,param.shape) for name,param in net.named_parameters()])
print(net.state_dict()['2.bias'].data)
嵌套块收集参数
def block1():
return nn.Sequential(nn.Linear(4,8),nn.ReLU(),
nn.Linear(8,4),nn.ReLU())
def block2():
net=nn.Sequential()
for i in range(4):
net.add_module(f'block {i}',block1())
return net
rgnet=nn.Sequential(block2(),nn.Linear(4,1))
print(rgnet) # 查看网络结构
print(rgnet[0][1][0].bias) # 访问具体参数
print(*[(name,param.shape) for name,param in rgnet.named_parameters()])