python版本3.7,用的是虚拟环境安装的pytorch,这样随便折腾,不怕影响其他的python框架
1、先定义一个类Linear,继承nn.Module
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import torch as t
from torch import nn
from torch.autograd import Variable as V
class Linear(nn.Module):
'''因为Variable自动求导,所以不需要实现backward()'''
def __init__( self , in_features, out_features):
super ().__init__()
self .w = nn.Parameter( t.randn( in_features, out_features ) ) #权重w 注意Parameter是一个特殊的Variable
self .b = nn.Parameter( t.randn( out_features ) ) #偏值b
def forward( self , x ): #参数 x 是一个Variable对象
x = x.mm( self .w )
return x + self .b.expand_as( x ) #让b的形状符合 输出的x的形状
|
2、验证一下
1
2
3
4
|
layer = Linear( 4 , 3 )
input = V ( t.randn( 2 , 4 ) ) #包装一个Variable作为输入
out = layer( input )
out
|
#成功运行,结果如下:
tensor([[-2.1934, 2.5590, 4.0233], [ 1.1098, -3.8182, 0.1848]], grad_fn=<AddBackward0>)
下面利用Linear构造一个多层网络
1
2
3
4
5
6
7
8
9
|
class Perceptron( nn.Module ):
def __init__( self ,in_features, hidden_features, out_features ):
super ().__init__()
self .layer1 = Linear( in_features , hidden_features )
self .layer2 = Linear( hidden_features, out_features )
def forward ( self ,x ):
x = self .layer1( x )
x = t.sigmoid( x ) #用sigmoid()激活函数
return self .layer2( x )
|
测试一下
1
2
3
4
|
perceptron = Perceptron ( 5 , 3 , 1 )
for name,param in perceptron.named_parameters():
print ( name, param.size() )
|
输出如预期:
1
2
3
4
|
layer1.w torch.Size([ 5 , 3 ])
layer1.b torch.Size([ 3 ])
layer2.w torch.Size([ 3 , 1 ])
layer2.b torch.Size([ 1 ])
|
以上这篇用pytorch的nn.Module构造简单全链接层实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/AItitanic/article/details/97611356