pytorch使用DataParallel并行化保存和加载模型(单卡、多卡各种情况讲解)-2 单卡训练,多卡加载

时间:2024-06-08 09:42:58

保存模型的过程同第一种情况一样,但是要注意,多卡加载模型时, 是先加载模型参数,再对模型做并行化处理。

#保存模型
torch.save(model.state_dict(),'model.pt')


#加载模型
model=MyModel()
model.load_state_dict(torch.load('model.pt'))

model=nn.DataParallel(model)#将模型进行并行化处理