pytorch 把图片数据转化成tensor的操作

时间:2022-03-08 19:18:47

摘要:

在图像识别当中,一般步骤是先读取图片,然后把图片数据转化成tensor格式,再输送到网络中去。本文将介绍如何把图片转换成tensor。

一、数据转换

把图片转成成torch的tensor数据,一般采用函数:torchvision.transforms。通过一个例子说明,先用opencv读取一张图片,然后在转换;注意一点是:opencv储存图片的格式和torch的储存方式不一样,opencv储存图片格式是(h,w,c),而torch储存的格式是(c,h,w)。

?
1
2
3
4
5
6
7
import torchvision.transforms as transforms
import cv2 as cv
img = cv.imread('image/000001.jpg')
print(img.shape)  # numpy数组格式为(h,w,c)
transf = transforms.totensor()
img_tensor = transf(img) # tensor数据格式是torch(c,h,w)
print(img_tensor.size())

pytorch 把图片数据转化成tensor的操作

注意:使用torchvision.transforms时要注意一下,其子函数 totensor() 是没有参数输入的,以下用法是会报错的

?
1
img_tensor = transforms.totensor(img)

必须是先定义和赋值转换函数,再调用并输入参数,正确用法:

?
1
2
3
img = cv.imread('image/000001.jpg')
transf = transforms.totensor()
img_tensor = transf(img)

再转换过程中正则化

在使用 transforms.totensor() 进行图片数据转换过程中会对图像的像素值进行正则化,即一般读取的图片像素值都是8 bit 的二进制,那么它的十进制的范围为 [0, 255],而正则化会对每个像素值除以255,也就是把像素值正则化成 [0.0, 1.0]的范围。通过例子理解一下:

?
1
2
3
4
5
6
7
import torchvision.transforms as transforms
import cv2 as cv
img = cv.imread('image/000001.jpg')
transf = transforms.totensor()
img_tensor = transf(img)
print('opencv', img)
print('torch', img_tensor)

pytorch 把图片数据转化成tensor的操作

pytorch 把图片数据转化成tensor的操作

三、自行修改正则化的范围

使用transforms.compose函数可以自行修改正则化的范围,下面举个例子正则化成 [-1.0, 1.0]

?
1
2
3
4
5
6
7
8
transf2 = transforms.compose(
  [
    transforms.totensor(),
    transforms.normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5))
  ]
)
img_tensor2 = transf2(img)
print(img_tensor2)

pytorch 把图片数据转化成tensor的操作

计算方式就是:

?
1
c=(c-mean)/ std

c为每个通道的所有像素值,彩色图片为三通道图像(bgr),所以mean和std是三个数的数组。

使用transforms.totensor()时已经正则化成 [0,0, 0,1]了,那么(0.0 - 0.5)/0.5=-1.0,(1.0 - 0.5)/0.5=1.0,所以正则化成 [-1.0, 1.0]

补充:python: 记录一个关于图片直接转化为pytorch.tensor和numpy.array的不同之处的问题

?
1
2
3
4
5
img = image.open(img_path).convert("rgb")
img2 = torchvision.transforms.functional.to_tensor(img)
print(img2)
img1 = np.array(img)
print(img1)

输出是这样的:

pytorch 把图片数据转化成tensor的操作

不仅shape不一样,而且值也是不一样的。

解释如下:

?
1
2
tensor = torch.from_numpy(np.asarray(pil.image.open(path))).permute(2, 0, 1).float() / 255
tensor = torchvision.transforms.functional.to_tensor(pil.image.open(path)) # 两种方法是一样的

pil.image.open()得到hwc格式,直接使用numpy 去转换得到(h,w,c)格式,而用to_tensor得到(c,h,w)格式且值已经除了255。

byte()相当于to(torch.uint8),tensor.numpy()是把tensor 转化为numpy.array格式。

在这里需要注意的是pil和opencv的图像读取得到的格式都是hwc格式,一般模型训练使用的是chw格式, h为y轴是竖直方向,w为x轴水平方向。

且torchvision.transforms.functional.to_tensor()对所有输入都是有变换操作。

以上为个人经验,希望能给大家一个参考,也希望大家多多支持服务器之家。如有错误或未考虑完全的地方,望不吝赐教。

原文链接:https://blog.csdn.net/Caesar6666/article/details/108097049