成都网站建设设计

将想法与焦点和您一起共享

Pytorch保存模型用于测试和用于继续训练的区别是什么-创新互联

小编给大家分享一下Pytorch保存模型用于测试和用于继续训练的区别是什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

创新互联公司-专业网站定制、快速模板网站建设、高性价比延庆网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式延庆网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖延庆地区。费用合理售后完善,十载实体公司更值得信赖。

保存模型

保存模型仅仅是为了测试的时候,只需要

torch.save(model.state_dict, path)

path 为保存的路径

但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是 Adam优化器的时候, 一定要保存好训练的优化器参数以及epoch

state = { 'model': model.state_dict(), 'optimizer':optimizer.state_dict(), 'epoch': epoch }  
torch.save(state, path)

因为这里

def adjust_learning_rate(optimizer, epoch):
  lr_t = lr
  lr_t = lr_t * (0.3 ** (epoch // 2))
  for param_group in optimizer.param_groups:
    param_group['lr'] = lr_t

学习率是根据epoch变化的, 如果不保存epoch的话,基本上每次都从epoch为0开始训练,这样学习率就相当于不变了!!

恢复模型

恢复模型只用于测试的时候,

model.load_state_dict(torch.load(path))

path为之前存储模型时的路径

但是如果是用于继续训练的话,

checkpoint = torch.load(path)
model.load_state_dict(checkpoint['model'])
optimizer.load_state_dict(checkpoint['optimizer'])
start_epoch = checkpoint['epoch']+1

依次恢复出模型 优化器参数以及epoch

以上是“Pytorch保存模型用于测试和用于继续训练的区别是什么”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


网页标题:Pytorch保存模型用于测试和用于继续训练的区别是什么-创新互联
网站链接:http://chengdu.cdxwcx.cn/article/pishd.html