1 层和块
1.1层
层是神经网络的基本组成单位。每一层由多个神经元(或单元)组成,这些神经元在前一层的输出上执行某种计算,并将结果传递给下一层。根据功能,层可以分为以下几种类型:
- 输入层(Input Layer):接收外部数据并将其传递给网络。
- 隐藏层(Hidden Layer):位于输入层和输出层之间,执行特征提取和表示学习。深度学习模型通常包含多个隐藏层。
- 输出层(Output Layer):生成最终的输出,例如分类结果或预测值。
1.2 块
块通常指的是一组层的组合,具有特定功能或结构,能够执行某种复杂的操作或特征提取。块的设计目的是为了重用和组织模型的部分。例如:
- 卷积块(Convolutional Block):通常包括卷积层、激活函数和归一化层的组合。
- 残差块(Residual Block):包含跳跃连接(skip connections),可以帮助模型训练更深的网络。
- 循环块(Recurrent Block):包含一个或多个循环层(如LSTM或GRU),用于处理序列数据。
1.3 以多层感知机为例
多个层组合成块,然后块又与块组合形成更大的模型。
从编程的角度来看,块由类(class)表示。 它的任何子类都必须定义一个将其输入转换为输出的前向传播函数, 并且必须存储任何必需的参数。 注意,有些块不需要任何参数。 最后,为了计算梯度,块必须具有反向传播函数。
2 自定义块
在实现我们自定义块之前,我们简要总结一下每个块必须提供的基本功能:
- 将输入数据作为其前向传播函数的参数。
- 通过前向传播函数来生成输出。请注意,输出的形状可能与输入的形状不同。
- 计算其输出关于输入的梯度,可通过其反向传播函数进行访问。通常这是自动发生的。
- 存储和访问前向传播计算所需的参数。
- 根据需要初始化模型参数。
在下面的代码片段中,我们从零开始编写一个块。 它包含一个多层感知机,其具有256个隐藏单元的隐藏层和一个10维输出层。
自定义的MLP 类继承自 nn.Module,这是 PyTorch 中所有神经网络模块的基类,通过继承 nn.Module,可以利用 PyTorch 提供的很多功能,如参数管理和自动求导。
import torch
from torch import nn
from torch.nn import functional as F
class MLP(nn.Module):
def __init__(self):# 类的构造函数,用于初始化网络结构。
super().__init__() # 调用父类的构造函数,确保父类 nn.Module 得到正确初始化。
self.hidden=nn.Linear(20,256)
self.out=nn.Linear(256,10)
def forward(self,x):
a=self.hidden(x)
re=self.out(F.relu(a))
return re
整段代码实现了一个基本的多层感知机模型,具有以下特点:
- 输入层接受 20 维特征。
- 隐藏层由一个线性层(输出 256 维)和 ReLU 激活函数组成。
- 输出层由另一个线性层(输出 10 维)组成。
运行结果:
X = torch.rand(2, 20)
net = MLP()
net(X)
2 顺序块
我们曾在从0开始深度学习(13)——多层感知机的简洁实现中使用过Sequential类
接下来我们将构建自己的顺序块,为了构建自己的简化的MySequential, 我们只需要定义两个关键函数:
- 一种将块逐个追加到列表中的函数。
- 一种前向传播函数,用于将输入按追加块的顺序传递给块组成的“链条”。
class MySequential(nn.Module):
def __init__(self, *args):# *args 表示可以接受任意数量的参数,这些参数通常是 nn.Module 的实例
super().__init__()
for idx, module in enumerate(args):# 通过 enumerate 函数遍历所有传入的模块,并为每个模块分配一个索引 idx。
#将每个模块以字符串形式的索引存储在 _modules 字典中。
#_modules 是 nn.Module 中定义的一个属性,用于存储子模块。
#使用字符串索引可以确保按照添加的顺序进行存储。
self._modules[str(idx)] = module
def forward(self, X):
# OrderedDict保证了按照成员添加的顺序遍历它们
for block in self._modules.values():
X = block(X)
return X
运行结果:
net = MySequential(nn.Linear(20, 256), nn.ReLU(), nn.Linear(256, 10))
net(X)
3 在前向传播函数中执行代码
需要更强的灵活性时,我们需要定义自己的块。 例如,我们可能希望在前向传播函数中执行Python的控制流。 此外,我们可能希望执行任意的数学运算, 而不是简单地依赖预定义的神经网络层。
例如,我们需要一个计算函数 f ( x , w ) = c ⋅ w ⊤ x f(\mathbf{x},\mathbf{w}) = c \cdot \mathbf{w}^\top \mathbf{x} f(x,w)=c⋅w⊤x的层,其中 x x x是输入, w w w是参数, c c c是某个在优化过程中没有更新的指定常量。因此我们实现了一个FixedHiddenMLP类,如下所示:
class FixedHiddenMLP(nn.Module):
def __init__(self):
super().__init__()
# 在训练期间这个权重不计算梯度,因此它在训练期间保持不变。
self.rand_weight = torch.rand((20, 20), requires_grad=False)
self.linear = nn.Linear(20, 20)
def forward(self, X):
X = self.linear(X)
# 对 X 和 rand_weight 进行矩阵乘法。这里 rand_weight 是不计算梯度的随机权重。
X = F.relu(torch.mm(X, self.rand_weight) + 1)
# 这里再次将处理后的 X 传递给之前定义的线性层 self.linear,这表示这个全连接层的参数在两次调用中是相同的(共享参数)。
X = self.linear(X)
# 控制流
while X.abs().sum() > 1:
X /= 2
return X.sum()
在这个FixedHiddenMLP模型中,我们实现一个隐藏层, 权重rand_weight在实例化时被随机初始化,之后为常量。 这个权重不是一个模型参数,因此它永远不会被反向传播更新。 然后,神经网络将这个固定层的输出通过一个全连接层。
还展示了如何控制数据流:运行了一个while循环,在 L 1 L_{1} L1范数大于 1 1 1的条件下, 将输出向量除以 2 2 2,直到它满足条件为止。
最后展示一个进行了各种混搭的例子:
class NestMLP(nn.Module):
def __init__(self):
super().__init__()
self.net = nn.Sequential(nn.Linear(20, 64), nn.ReLU(),
nn.Linear(64, 32), nn.ReLU())
self.linear = nn.Linear(32, 16)
def forward(self, X):
return self.linear(self.net(X))
chimera = nn.Sequential(NestMLP(), nn.Linear(16, 20), FixedHiddenMLP())
chimera(X)
即自定义了一个NestMLP
类,里面有net
和linear
,其中net
又是一个Sequential
最后还定义了一个chimera
网络,按照顺序包含了NestMLP
,Linear
,FixedHiddenMLP
三个网络