测试代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
import torch
import torch.nn as nn
#inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出
m = nn.ReLU(inplace = True )
input = torch.randn( 7 )
print ( input )
output = m( input )
print ( "ReLU输出:" )
print (output)
print ( "输出的尺度:" )
print (output.size())
print ( "输入处理后图片:" )
print ( input )
|
输出为:
输入处理前图片:
1
|
tensor([ 1.4940 , 1.0278 , - 1.9883 , - 0.1871 , 0.4612 , 0.0297 , 2.4300 ])
|
ReLU输出:
1
|
tensor([ 1.4940 , 1.0278 , 0.0000 , 0.0000 , 0.4612 , 0.0297 , 2.4300 ])
|
输出的尺度:
1
|
torch.Size([ 7 ])
|
输入处理后图片:
1
|
tensor([ 1.4940 , 1.0278 , 0.0000 , 0.0000 , 0.4612 , 0.0297 , 2.4300 ])
|
结论:
1
|
nn.ReLU(inplace = True )
|
inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出
以上这篇pytorch方法测试——激活函数(ReLU)详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/tmk_01/article/details/80679991