PyTorch快速搭建神经网络及其保存提取方法
来源:互联网 发布:网络媒介素养Ppt 编辑:程序博客网 时间:2024/05/22 07:52
一、PyTorch快速搭建神经网络方法
先看实验代码:
import torchimport torch.nn.functional as F# 方法1,通过定义一个Net类来建立神经网络class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): x = F.relu(self.hidden(x)) x = self.predict(x) return xnet1 = Net(2, 10, 2)print('方法1:\n', net1)# 方法2 通过torch.nn.Sequential快速建立神经网络结构net2 = torch.nn.Sequential( torch.nn.Linear(2, 10), torch.nn.ReLU(), torch.nn.Linear(10, 2), )print('方法2:\n', net2)# 经验证,两种方法构建的神经网络功能相同,结构细节稍有不同'''方法1: Net ( (hidden): Linear (2 -> 10) (predict): Linear (10 -> 2))方法2: Sequential ( (0): Linear (2 -> 10) (1): ReLU () (2): Linear (10 -> 2))'''
先前学习了通过定义一个Net类来构建神经网络的方法,classNet中首先通过super函数继承torch.nn.Module模块的构造方法,再通过添加属性的方式搭建神经网络各层的结构信息,在forward方法中完善神经网络各层之间的连接信息,然后再通过定义Net类对象的方式完成对神经网络结构的构建。
构建神经网络的另一个方法,也可以说是快速构建方法,就是通过torch.nn.Sequential,直接完成对神经网络的建立。
两种方法构建得到的神经网络结构完全相同,都可以通过print函数来打印输出网络信息,不过打印结果会有些许不同。
二、PyTorch的神经网络保存和提取
在学习和研究深度学习的时候,当我们通过一定时间的训练,得到了一个比较好的模型的时候,我们当然希望将这个模型及模型参数保存下来,以备后用,所以神经网络的保存和模型参数提取重载是很有必要的。
首先,我们需要在需要保存网路结构及其模型参数的神经网络的定义、训练部分之后通过torch.save()实现对网络结构和模型参数的保存。有两种保存方式:一是保存年整个神经网络的的结构信息和模型参数信息,save的对象是网络net;二是只保存神经网络的训练模型参数,save的对象是net.state_dict(),保存结果都以.pkl文件形式存储。
对应上面两种保存方式,重载方式也有两种。对应第一种完整网络结构信息,重载的时候通过torch.load(‘.pkl’)直接初始化新的神经网络对象即可。对应第二种只保存模型参数信息,需要首先搭建相同的神经网络结构,通过net.load_state_dict(torch.load('.pkl'))完成模型参数的重载。在网络比较大的时候,第一种方法会花费较多的时间。
代码实现:
import torchfrom torch.autograd import Variableimport matplotlib.pyplot as plttorch.manual_seed(1) # 设定随机数种子# 创建数据x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)y = x.pow(2) + 0.2*torch.rand(x.size())x, y = Variable(x, requires_grad=False), Variable(y, requires_grad=False)# 将待保存的神经网络定义在一个函数中def save(): # 神经网络结构 net1 = torch.nn.Sequential( torch.nn.Linear(1, 10), torch.nn.ReLU(), torch.nn.Linear(10, 1), ) optimizer = torch.optim.SGD(net1.parameters(), lr=0.5) loss_function = torch.nn.MSELoss() # 训练部分 for i in range(300): prediction = net1(x) loss = loss_function(prediction, y) optimizer.zero_grad() loss.backward() optimizer.step() # 绘图部分 plt.figure(1, figsize=(10, 3)) plt.subplot(131) plt.title('net1') plt.scatter(x.data.numpy(), y.data.numpy()) plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) # 保存神经网络 torch.save(net1, '7-net.pkl') # 保存整个神经网络的结构和模型参数 torch.save(net1.state_dict(), '7-net_params.pkl') # 只保存神经网络的模型参数# 载入整个神经网络的结构及其模型参数def reload_net(): net2 = torch.load('7-net.pkl') prediction = net2(x) plt.subplot(132) plt.title('net2') plt.scatter(x.data.numpy(), y.data.numpy()) plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)# 只载入神经网络的模型参数,神经网络的结构需要与保存的神经网络相同的结构def reload_params(): # 首先搭建相同的神经网络结构 net3 = torch.nn.Sequential( torch.nn.Linear(1, 10), torch.nn.ReLU(), torch.nn.Linear(10, 1), ) # 载入神经网络的模型参数 net3.load_state_dict(torch.load('7-net_params.pkl')) prediction = net3(x) plt.subplot(133) plt.title('net3') plt.scatter(x.data.numpy(), y.data.numpy()) plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)# 运行测试save()reload_net()reload_params()
实验结果:
- PyTorch快速搭建神经网络及其保存提取方法
- 【pytorch】模型的搭建保存加载
- PyTorch笔记4-快速构建神经网络(NN)
- PyTorch上搭建简单神经网络实现回归和分类
- PyTorch基本用法(六)——快速搭建网络
- 莫烦PyTorch学习笔记(四)——快速搭建法
- Android Studio快速提取方法
- Pytorch入门——安装快速安装方法
- Pytorch实现CNN卷积神经网络
- Pytorch入门——神经网络
- Pytorch实现卷积神经网络CNN
- PyTorch学习3—神经网络
- pytorch创建神经网络用于分类
- Python保存/提取数据的方法
- TensorFlow模型保存和提取方法
- TensorFlow模型保存和提取方法
- pytorch 保存与加载模型
- gitlab快速搭建方法
- Cassandra3.x的cqlsh无法打开的解决办法
- Python 2.7.13 import urllib.request ImportError: No module named request
- 介绍几个python的音频处理库
- BZOJ 3364: [Usaco2004 Feb]Distance Queries 距离咨询
- Python 与 C/C++ 交互的几种方式
- PyTorch快速搭建神经网络及其保存提取方法
- 百度账号登陆
- R 调用 python
- python 调用 R,使用rpy2
- 基于spring 的ssi-uploader的多图片上传
- JavaEE学习04--request&response
- android 控制状态栏显示和隐藏的方法
- python 编写简单的setup.py
- 结构体联合体