Pytorch-学习记录 卷积操作——Tensor.size()
来源:互联网 发布:webuploader php demo 编辑:程序博客网 时间:2024/05/16 09:27
设计网络结构、看网络结构源码时时常需要计算输入在结构中经过卷积层、pooling层后尺寸大小,特此记录。
pytorch中二维卷积层接口为 Conv2d() ,参数详情不多赘述,详情请参阅官方文档。我在此主要说明卷积层对输入计算之后size的变化情况。
例如,
卷积层的in_channels首先要与input的channels相对应,具体到上例,就是黑色和蓝色框所对应的部分。out_channels自行设定,表示输出卷积核个数。kernel_size为卷积核大小,stride为卷积核在输入上的窗口移动步长,当输入stride参数为int时,表示卷积核移动在横向与纵向都是相同步长,若stride=(x,y),表示在横轴与纵轴以不同步长滑动。 padding简单理解为对输入特征图四周的填充。kernel_size、padding、stride会影响输出特征图的尺寸。
从上图可知,输入的 batchsize=64 在网络结构前向传递过程中不改变大小。同时,在kernel_size=3,stride=1,padding=1的前提下,卷积不改变输入图像的尺寸。
特征图尺寸计算方式:
feature-map height : {(input_height - kernel_size + 2*padding) / stride[0] }+1 (stride[0]表示横向移动步长])
相似地,feature-map width : {(input_width - kernel_size + 2*padding) / stride[1] }+1 (stride[1]表示纵向移动步长])
再举个例子,输入经过两层卷积和一层pooling后尺寸。
计算过程:
经过第一层卷积后:(224-7+2*2)/2+1=111
第二层卷积:(111-3+1*2)/1+1=111
pooling:(111-3)/2+1=55
每一层的输出channels即是下一层的输入channels。
Resnet、Inception结构中有大量kernel_size=3,stride=1,padding=1的层,他们不改变特征图图大小。
总结一下,设计网络结构时候要注意输入channels和卷积层的in_channels保持一致,不同的kernel_size、padding、stride会影响输出特征图尺寸。
参考资料:
pytorch中文文档 http://pytorch-cn.readthedocs.io/zh/latest/
- Pytorch-学习记录 卷积操作——Tensor.size()
- Pytorch入门——Tensor
- PyTorch学习系列(四)——Tensor 和 Variable
- PyTorch学习总结(六)——Tensor实现
- PyTorch学习—PyTorch是什么?
- Pytorch学习入门(一)--- 从torch7跳坑至pytorch --- Tensor
- pytorch新手需要注意的隐晦操作Tensor,max,gather
- Pytorch学习记录
- pytorch-tensor data type
- PyTorch学习记录-1PyTorch安装
- PyTorch基本用法(十)——卷积神经网络
- PyTorch学习3—神经网络
- torch7学习(一)——Tensor
- PyTorch(总)——PyTorch遇到令人迷人的BUG与记录
- Pytorch入门学习(五)---- 示例讲解Tensor, Autograd, nn.module
- 渣渣的pytorch学习笔记之用ndarry创建tensor
- PyTorch学习总结(三)——ONNX
- PyTorch学习总结(四)——Utilities
- 如何在Android系统锁屏后使程序继续运行
- JAVA通过URL下载文件(POST,参数)
- 【Python】判断一个字符串是否是合法IP地址
- 随机删除重复数据
- PHP二维数组根据某一个字段进行排序
- Pytorch-学习记录 卷积操作——Tensor.size()
- Java 深入学习(2) —— ArrayList、LinkedList、Vector 应用场景与性能分析
- 一片文章叫你玩转JQuery
- Flume 笔记
- 偏函数
- 关于AndroidStudio3.0 升级你可能遇到的事
- Javaweb开发为什么需要分前后端,放弃原生JSP
- FZU 2030
- 51Nod 1284 2 3 5 7的倍数