TensorFlow 中 dropout 的使用介绍
来源:互联网 发布:金庸x 知乎 编辑:程序博客网 时间:2024/04/25 16:56
dropout 主要作用就是防止过拟合。
dropout 一般都是用在全连接中,在卷积部分不会用到 dropout ,输出层也不会用到,一般用在输入层与输出层之间。
在 tensorflow 中有两种形式:
(1)tf.nn.dropout(x, keep_prob, noise_shape = None, seed = None, name = None)
(2)tf.contrib.rnn.DropoutWrapper(rnn_cell, input_keep_prob)
一般情况下的 dropout :
def dropout(x, keep_prob, noise_shape=None, seed=None, name=None)#x: 输入#keep_prob: 名字代表的意思#return:包装了dropout的x。训练的时候用,test的时候就不需要dropout了#例:w = tf.get_variable("w1",shape=[size, out_size])x = tf.placeholder(tf.float32, shape=[batch_size, size])x = tf.nn.dropout(x, keep_prob=0.5)y = tf.matmul(x,w)
RNN 中的 dropout :
# 定义 LSTM 结构lstm = tf.contrib.rnn.BasicLSTMCell(lstm_hidden_size)# 使用 DropoutWrapper 类来实现 dropout 功能,input_keep_prob 控制输出的 dropout 概率dropout_lstm = tf.contrib.rnn.DropoutWrapper(lstm, input_keep_prob=0.5)stacked_lstm = tf.contrib.rnn.MultiRNNCell([dropout_lstm] * number_of_layers)
阅读全文
0 0
- TensorFlow 中 dropout 的使用介绍
- TensorFlow Dropout
- tensorflow中tfrecords使用介绍
- 深度学习中Dropout和Layer Normalization技术的使用
- tensorflow function笔记: dropout
- tensorflow的基本用法(八)——dropout的作用
- tensorflow 中softmax_cross_entropy_with_logits的使用
- 对 CNN 中 dropout layer 的理解
- 对 CNN 中 dropout layer 的理解
- 关于深度学习中Dropout的理解
- 对 CNN 中 dropout layer 的理解
- 关于深度学习中Dropout的理解
- 循环神经网络中Dropout的应用
- 【Tensorflow】tf.nn.dropout函数
- tensorflow 学习笔记8 dropout
- Dropout原理介绍
- tensorflow中关于队列使用的实验
- Tensorflow中reshape()函数的使用
- vue2整个项目中,数据请求显示loading图
- web项目通过Session监听器控制在线人数以及同一用户异地登陆限制
- d3饼状图布局
- uva题目笔记——字符串
- linux下view编辑文件时Found a swap file by the name
- TensorFlow 中 dropout 的使用介绍
- mysql 使用部分库数据替换第二数据库数据
- Pepper Plugin API (PPAPI) plugins
- IntelliJ IDEA关闭“Found duplicate code in”提示
- React 高阶组件HOC
- iOS开发常用的技巧
- js基础大全
- linux内核部件分析之——waitqueue与线程的阻塞
- 【Java多线程】ThreadLocal实现原理