如何理解最简单的CNN代码(卷积层到全链接层)
来源:互联网 发布:卡巴斯基和360知乎 编辑:程序博客网 时间:2024/06/03 21:20
with tf.variable_scope('local3') as scope:
# 第一层全连接
reshape = tf.reshape(pool2, [BATCH_SIZE,-1])
dim = reshape.get_shape()[1].value
weights = variables('weights', shape=[dim,384], stddev=0.004)
biases = variable_on_cpu('biases', [384])
# ReLu 激活函数
local3 = tf.nn.relu(tf.matmul(reshape, weights)+biases,
name = scope.name)
其中的BATCH_SIZE是一个batch的大小,因为网络的输入必定是一张图片,而一个batch里有
BATCH_SIZE张图片,需要将其reshape,并且tf.matul的格式是XW而不是推导时的WX,所以为[BATCH_SIZE,-1]形状。
总之,前面的卷积和池化的BATCH_SIZE张图片都是放在一起进行,而到全链接时,换了一种更
高效的数据组织方式(reshape),将batch内每一张图片全链接,详细类似推导时的转置。
阅读全文
0 0
- 如何理解最简单的CNN代码(卷积层到全链接层)
- 如何得到卷积层输出的深度--CNN卷积层
- 对卷积神经网络(CNN)的简单理解
- CNN卷积神经网络代码理解
- CNN卷积神经网络代码理解
- CNN卷积神经网络代码理解
- 卷积神经网络(CNN)的理解
- 卷积神经网络CNN的理解
- CNN卷积神经网络的理解
- CNN卷积神经网络的理解
- 关于CNN的卷积理解
- CNN卷积神经网络--反向传播(4,代码理解)
- 深度学习(五)CNN卷积神经网络代码理解
- 【Tensorflow】实现简单的卷积神经网络CNN实际代码
- tensorflow CNN 卷积神经网络中的卷积层和池化层的代码和效果图
- 卷积神经网络(CNN)理解
- 详细解释CNN卷积神经网络各层的参数和链接个数的计算
- 详细解释CNN卷积神经网络各层的参数和链接个数的计算
- js中Prototype属性解释及常用方法
- Tomcat调优总结
- JavaScript前端面试题
- 箭头函数
- 架构设计(1)-谈谈架构
- 如何理解最简单的CNN代码(卷积层到全链接层)
- P1966 火柴排队
- 7,建造者模式-麦当劳套餐
- Linux 服务器注意事项
- org.jsoup.HttpStatusException: HTTP error fetching URL. Status=403 爬取网站出现403错误
- JS 实现鼠标滚动页面跳转
- ASP.NET中get set用法总结
- 牛客网---2016---楚楚街航线
- 面试官问你“最失败的经历”时如何回答?