一、前言
确保安装
- scikit-image
- numpy
二、Dataset
一个例子:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
# 导入需要的包
import torch
import torch.utils.data.dataset as Dataset
import numpy as np
# 编造数据
Data = np.asarray([[ 1 , 2 ], [ 3 , 4 ],[ 5 , 6 ], [ 7 , 8 ]])
Label = np.asarray([[ 0 ], [ 1 ], [ 0 ], [ 2 ]])
# 数据[1,2],对应的标签是[0],数据[3,4],对应的标签是[1]
#创建子类
class subDataset(Dataset.Dataset):
#初始化,定义数据内容和标签
def __init__( self , Data, Label):
self .Data = Data
self .Label = Label
#返回数据集大小
def __len__( self ):
return len ( self .Data)
#得到数据内容和标签
def __getitem__( self , index):
data = torch.Tensor( self .Data[index])
label = torch.IntTensor( self .Label[index])
return data, label
# 主函数
if __name__ = = '__main__' :
dataset = subDataset(Data, Label)
print (dataset)
print ( 'dataset大小为:' , dataset.__len__())
print (dataset.__getitem__( 0 ))
print (dataset[ 0 ])
|
输出的结果
我们有了对Dataset的一个整体的把握,再来分析里面的细节:
1
2
|
#创建子类
class subDataset(Dataset.Dataset):
|
创建子类时,继承的时Dataset.Dataset,不是一个Dataset。因为Dataset是module模块,不是class类,所以需要调用module里的class才行,因此是Dataset.Dataset!
len和getitem这两个函数,前者给出数据集的大小**,后者是用于查找数据和标签。是最重要的两个函数,我们后续如果要对数据做一些操作基本上都是再这两个函数的基础上进行。
三、DatasetLoader
1
2
3
4
5
6
7
8
9
10
11
12
|
DataLoader(dataset,
batch_size = 1 ,
shuffle = False ,
sampler = None ,
batch_sampler = None ,
num_works = 0 ,
clollate_fn = None ,
pin_memory = False ,
drop_last = False ,
timeout = 0 ,
worker_init_fn = None ,
multiprocessing_context = None )
|
功能:构建可迭代的数据装载器;
dataset:Dataset类,决定数据从哪里读取及如何读取;数据集的路径
batchsize:批大小;
num_works:是否多进程读取数据;只对于CPU
shuffle:每个epoch是否打乱;
drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据;
Epoch:所有训练样本都已输入到模型中,称为一个Epoch;
Iteration:一批样本输入到模型中,称之为一个Iteration;
Batchsize:批大小,决定一个Epoch中有多少个Iteration;
还是举一个实例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
|
import torch
import torch.utils.data.dataset as Dataset
import torch.utils.data.dataloader as DataLoader
import numpy as np
Data = np.asarray([[ 1 , 2 ], [ 3 , 4 ],[ 5 , 6 ], [ 7 , 8 ]])
Label = np.asarray([[ 0 ], [ 1 ], [ 0 ], [ 2 ]])
#创建子类
class subDataset(Dataset.Dataset):
#初始化,定义数据内容和标签
def __init__( self , Data, Label):
self .Data = Data
self .Label = Label
#返回数据集大小
def __len__( self ):
return len ( self .Data)
#得到数据内容和标签
def __getitem__( self , index):
data = torch.Tensor( self .Data[index])
label = torch.IntTensor( self .Label[index])
return data, label
if __name__ = = '__main__' :
dataset = subDataset(Data, Label)
print (dataset)
print ( 'dataset大小为:' , dataset.__len__())
print (dataset.__getitem__( 0 ))
print (dataset[ 0 ])
#创建DataLoader迭代器,相当于我们要先定义好前面说的Dataset,然后再用Dataloader来对数据进行一些操作,比如是否需要打乱,则shuffle=True,是否需要多个进程读取数据num_workers=4,就是四个进程
dataloader = DataLoader.DataLoader(dataset,batch_size = 2 , shuffle = False , num_workers = 4 )
for i, item in enumerate (dataloader): #可以用enumerate来提取出里面的数据
print ( 'i:' , i)
data, label = item #数据是一个元组
print ( 'data:' , data)
print ( 'label:' , label)
|
四、将Dataset数据和标签放在GPU上(代码执行顺序出错则会有bug)
这部分可以直接去看博客:Dataset和DataLoader
总结下来时有两种方法解决
1.如果在创建Dataset的类时,定义__getitem__方法的时候,将数据转变为GPU类型。则需要将Dataloader里面的参数num_workers设置为0,因为这个参数是对于CPU而言的。如果数据改成了GPU,则只能单进程。如果是在Dataloader的部分,先多个子进程读取,再转变为GPU,则num_wokers不用修改。就是上述__getitem__部分的代码,移到Dataloader部分。
2.不过一般来讲,数据集和标签不会像我们上述编辑的那么简单。一般再kaggle上的标签都是存在CSV这种文件中。需要pandas的配合。
这个进阶可以看:WRITING CUSTOM DATASETS, DATALOADERS AND TRANSFORMS,他是用人脸图片作为数据和人脸特征点作为标签。
到此这篇关于Pytorch数据读取之Dataset和DataLoader知识总结的文章就介绍到这了,更多相关详解Dataset和DataLoader内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://blog.csdn.net/weixin_40244676/article/details/117043973