tf.train.shuffle_batch
来源:互联网 发布:python 绘制矩阵 编辑:程序博客网 时间:2024/06/01 23:31
tf.train.shuffle_batch是将队列中数据打乱后,再读取出来,因此队列中剩下的数据也是乱序的,队头也是一直在补充(我猜也是按顺序补充),
比如batch_size=5,capacity=10,min_after_dequeue=5,
初始是有序的0,1,..,9(10条记录),
然后打乱8,2,6,4,3,7,9,2,0,1(10条记录),
队尾取出5条,剩下7,9,2,0,1(5条记录),
然后又按顺序补充进来,变成7,9,2,0,1,10,11,12,13,14(10条记录),
再打乱13,10,2,7,0,12...1(10条记录),
这样按batch读取的话,最后会自动在前面添加一个维度,比如数据的维度是[1],batch_size是10,那么读取出来的shape就是[10,1]
比如batch_size=5,capacity=10,min_after_dequeue=5,
初始是有序的0,1,..,9(10条记录),
然后打乱8,2,6,4,3,7,9,2,0,1(10条记录),
队尾取出5条,剩下7,9,2,0,1(5条记录),
然后又按顺序补充进来,变成7,9,2,0,1,10,11,12,13,14(10条记录),
再打乱13,10,2,7,0,12...1(10条记录),
再出队...
capacity是队列里元素的最大数量,读取的数据是基于这个范围的,
在这个范围内,min_after_dequeue越大,数据越乱
这样按batch读取的话,最后会自动在前面添加一个维度,比如数据的维度是[1],batch_size是10,那么读取出来的shape就是[10,1]
# Creates batches of 32 images and 32 labels.image_batch, label_batch = tf.train.shuffle_batch( [single_image, single_label], batch_size=32, num_threads=4, capacity=50000, min_after_dequeue=10000)
阅读全文
0 0
- tf.train.shuffle_batch
- tf.train.shuffle_batch函数解析
- tf.train.batch和tf.train.shuffle_batch的用法
- tf.train.batch和tf.train.shuffle_batch的用法
- tf.train.batch和tf.train.shuffle_batch的理解
- tf.train.batch()和tf.train.shuffle_batch()函数
- 遇到的问题与解决办法(tf.train.shuffle_batch与tf.train.slice_input_producer)
- tensorflow学习——tfreader格式,队列读取数据tf.train.shuffle_batch()
- tf.train
- Tensorflow:tf.train.SyncReplicasOptimizer
- tf.train.Saver
- tf.train.slice_input_produce命令
- tf.train.Saver
- tf.train.ExponentialMovingAverage解析
- tf.train.SummaryWriter()
- tf.train.ExponentialMovingAverage用法
- tf.train.exponential_decay 用法
- tf.train.batch()
- JSP页面自动刷新
- mysql优化 show命令 慢查询日志 explain profiling
- jodatime时间格式化
- ubuntu 系统获取权限
- HDU 2222 Keywords Search (AC自动机 经典)
- tf.train.shuffle_batch
- Android Material Design BottomNavigationBar
- windows 下安装flask虚拟环境详解
- 熵、信息增益
- apk从解压缩到重新签名
- Android EditText 控制不能输入空格
- java日期时间操作工具类
- MySQL 数据库用户管理
- WinDbg基础(3)Adplus参数设置