TensorFlow ReLUs
来源:互联网 发布:风力发电现状 知乎 编辑:程序博客网 时间:2024/06/16 04:18
TensorFlow ReLUs
TensorFlow 提供了 ReLU 函数 tf.nn.relu()
,如下所示:
# Hidden Layer with ReLU activation function# 隐藏层用 ReLU 作为激活函数hidden_layer = tf.add(tf.matmul(features, hidden_weights), hidden_biases)hidden_layer = tf.nn.relu(hidden_layer)output = tf.add(tf.matmul(hidden_layer, output_weights), output_biases)
上面的代码把tf.nn.relu()
放到隐藏层
,就像开关一样把负权重关掉了。在激活函数之后,添加像输出层
这样额外的层,就把模型变成了非线性函数。这个非线性的特征使得网络可以解决更复杂的问题。
练习
下面你将用 ReLU 函数把一个线性单层网络转变成非线性多层网络。
阅读全文
0 0
- TensorFlow ReLUs
- rectified linear units (ReLUs)
- 学习yii2.0笔记--relus
- ReLUs deep learning NN 的激活函数
- tensorflow
- TensorFlow
- TensorFlow
- tensorflow
- tensorflow
- tensorflow
- Tensorflow
- Tensorflow
- tensorFlow
- tensorflow
- Tensorflow
- TensorFlow
- tensorflow
- Tensorflow
- [LeetCode 解题报告]015. 3Sum
- 【剑指offer】构建乘积数组
- JAVA——常用函数收集
- BZOJ 3343 教主的魔法 暴力分块做法
- EA&UML日拱一卒-活动图::Signal,Event和Trigger
- TensorFlow ReLUs
- 多进程+协程
- mybatis和hibernate的区别
- c语言连接mysql数据库的实现方法
- 远程通信框架(RPC,Webservice,RMI,JMS、EJB、JNDI的区别)对比
- 我的第一段链接mysql的java代码
- jzoj P1664 【coci2011/2012 1】JABUKE
- Python中整数和浮点数
- java语法基础