In [1]:
Copied!
import torch
import torch.nn.functional as F
from torch import nn
class CenteredLayer(nn.Module):
def __init__(self):
super().__init__()
def forward(self, X):
return X - X.mean()
import torch
import torch.nn.functional as F
from torch import nn
class CenteredLayer(nn.Module):
def __init__(self):
super().__init__()
def forward(self, X):
return X - X.mean()
让我们向该层提供一些数据,验证它是否能按预期工作。
In [2]:
Copied!
layer = CenteredLayer()
layer(torch.FloatTensor([1, 2, 3, 4, 5]))
layer = CenteredLayer()
layer(torch.FloatTensor([1, 2, 3, 4, 5]))
Out[2]:
tensor([-2., -1., 0., 1., 2.])
现在,我们可以将层作为组件合并到更复杂的模型中。
In [3]:
Copied!
net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())
net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())
作为额外的健全性检查,我们可以在向该网络发送随机数据后,检查均值是否为0。 由于我们处理的是浮点数,因为存储精度的原因,我们仍然可能会看到一个非常小的非零数。
In [4]:
Copied!
Y = net(torch.rand(4, 8))
Y.mean()
Y = net(torch.rand(4, 8))
Y.mean()
Out[4]:
tensor(5.3551e-09, grad_fn=<MeanBackward0>)
5.4.2 带参数的层¶
以上我们知道了如何定义简单的层,下面我们继续定义具有参数的层, 这些参数可以通过训练进行调整。
我们可以使用内置函数来创建参数,这些函数提供一些基本的管理功能。 比如管理访问、初始化、共享、保存和加载模型参数。 这样做的好处之一是:我们不需要为每个自定义层编写自定义的序列化程序。
现在,让我们实现自定义版本的全连接层。
回想一下,该层需要两个参数,一个用于表示权重,另一个用于表示偏置项。
在此实现中,我们使用修正线性单元作为激活函数。
该层需要输入参数:in_units
和units
,分别表示输入数和输出数。
In [5]:
Copied!
class MyLinear(nn.Module):
def __init__(self, in_units, units):
super().__init__()
self.weight = nn.Parameter(torch.randn(in_units, units))
self.bias = nn.Parameter(torch.randn(units,))
def forward(self, X):
linear = torch.matmul(X, self.weight.data) + self.bias.data
return F.relu(linear)
class MyLinear(nn.Module):
def __init__(self, in_units, units):
super().__init__()
self.weight = nn.Parameter(torch.randn(in_units, units))
self.bias = nn.Parameter(torch.randn(units,))
def forward(self, X):
linear = torch.matmul(X, self.weight.data) + self.bias.data
return F.relu(linear)
接下来,我们实例化MyLinear
类并访问其模型参数。
In [6]:
Copied!
linear = MyLinear(5, 3)
linear.weight
linear = MyLinear(5, 3)
linear.weight
Out[6]:
Parameter containing: tensor([[-0.4357, 1.5094, -0.8167], [ 0.6831, -0.9513, -0.2147], [ 1.1152, -0.9476, -0.2531], [ 0.4004, -1.6927, 0.2857], [-0.7350, 0.5546, -0.6772]], requires_grad=True)
我们可以使用自定义层直接执行前向传播计算。
In [7]:
Copied!
linear(torch.rand(2, 5))
linear(torch.rand(2, 5))
Out[7]:
tensor([[0.0000, 0.0000, 0.0000], [0.0000, 1.7660, 0.0000]])
我们还可以使用自定义层构建模型,就像使用内置的全连接层一样使用自定义层。
In [8]:
Copied!
net = nn.Sequential(MyLinear(64, 8), MyLinear(8, 1))
net(torch.rand(2, 64))
net = nn.Sequential(MyLinear(64, 8), MyLinear(8, 1))
net(torch.rand(2, 64))
Out[8]:
tensor([[11.9238], [ 8.6496]])
本文总阅读量次