谷歌大脑的 Swish 激活函数与 ReLU 激活函数对比
来源:互联网 发布:mac屏幕下方白条 编辑:程序博客网 时间:2024/06/07 10:09
导语
最近谷歌大脑公布了一个新的激活函数,叫做 Swish 激活函数。这个函数非常的有趣,很多人都把它应用到一些小的神经网络和大的神经网络中去测试它的性能。所以,我也打算去 kaggle 上面测试一些这个函数的性能如何。
Swish 激活函数的数学公式非常的简单,即 f(x) = x * sigmoid(x) 。根据谷歌大脑的论文,该激活函数的性能比 ReLU 激活函数的性能要好很多。
利用 Keras 实现的 ReLU 模型,在 kaggle 上面获得的分数是 0.99457。保持所有的模型参数不变,只是把原来模型中的 ReLU 激活函数修改为 Swish 激活函数,该模型的正确率就可以达到 0.99671 。
在正确率方面,Swish 激活函数的性能比 ReLU 激活函数好一点,在 kaggle 上面的排名大约可以排到 90 名。
阅读全文
0 0
- 谷歌大脑的 Swish 激活函数与 ReLU 激活函数对比
- 谷歌大脑的 Swish 激活函数与 ReLU 激活函数对比
- 谷歌大脑自门控激活函数Swish
- 谷歌大脑提出新型激活函数Swish惹争议:可直接替换并优于ReLU?(附机器之心测试)
- 【Swish激活函数】
- Google提出的新型激活函数:Swish
- ReLu激活函数
- ReLu激活函数
- 激活函数-ReLU
- 激活函数-relu
- 自门控激活函数Swish
- tensorflow激活函数relu()的详解
- 神经网络的激活函数sigmoid RELU
- 神经网络回顾-Relu激活函数
- 激活函数(relu,prelu,elu,+BN)对比on cifar10
- 深度学习笔记(4)——Sigmoid和Relu激活函数的对比
- RELU 激活函数及其他相关的函数
- RELU 激活函数及其他相关的函数
- Linux(六) 磁盘与文件系统
- Dialvik/ARP(ANDROID)中的多线程机制(1)
- HDU-1702 ACboy needs your help again!【栈与队列】
- 退役
- 新的时间日期类
- 谷歌大脑的 Swish 激活函数与 ReLU 激活函数对比
- Haproxy 简介
- Caffe自带工具使用记录
- Python学习(7)--if语句
- 顺序栈的输入与输出
- 图像拼接---图片柱面投影简单实现
- okhttp提交请求body,json或者图片的方式
- 关于dhcp服务你必须知道的几点
- JAVA问题之jre和jdk