下面是如何自己构建一个层,分为包含自动反向求导和手动反向求导两种方式,后面会分别构建网络,对比一下结果对不对。
----------------------------------------------------------
关于Pytorch中的结构层级关系。
最为底层的是torch.relu()、torch.tanh()、torch.ge()这些函数,这些函数个人猜测就是直接用Cuda写成的,并且封装成了python接口给python上层调用。
部分函数被torch.nn.functional里面的部分函数模块调用。这些函数可能会被更为上层的nn.Module调用。
下面以BatchNormalization为例进行分析。
最为底层的是torch.batch_norm()这个函数,是看不到源代码的,应该是对于cuda代码的封装。这个函数会传入(input, weight, bias, running_mean, running_var, training, momentum, eps)。 再往上时torch.nn.functional里面的函数bacth_norm()。再往上就是torch.nn里面的网络层,比如,BatchNorm2d()等等。
分析一下BatchNorm2d()里面的主要程序。
import torch
import torch.nn as nn
from torch.nn import init
from torch.nn.parameter import Parameter class BatchNorm(nn.module):
def __init__(self,num_features):
super(BatchMMNorm,self).__init__()
self.weight = Parameter(torch.Tensor(num_features))
self.bias = Parameter(torch.Tensor(num_features)) def reset_parameter(self):
init.uniform_(self.weight)
init.zeros_(self.bias) def forward(self,input):
其中Parameter是用以定义可学习的权重参数的,后面还需要初始化参数。