python绘制神经网络中的ReLU激活函数图像(附代码)
来源:互联网 发布:单例模式 java 双重锁 编辑:程序博客网 时间:2024/05/16 19:28
上一篇,绘制了Sigmoid与Tanh激活函数的图像,今天分享一下ReLU激活函数的代码,代码整体结构与上一篇相似,只是把函数换了一下:
import mathimport matplotlib.pyplot as pltimport numpy as npimport matplotlib as mplmpl.rcParams['axes.unicode_minus']=Falsefig = plt.figure(figsize=(6,4))ax = fig.add_subplot(111)x = np.arange(-10, 10)y = np.where(x<0,0,x)plt.xlim(-11,11)plt.ylim(-11,11)ax.spines['top'].set_color('none')ax.spines['right'].set_color('none')ax.xaxis.set_ticks_position('bottom')ax.spines['bottom'].set_position(('data',0))ax.set_xticks([-10,-5,0,5,10])ax.yaxis.set_ticks_position('left')ax.spines['left'].set_position(('data',0))ax.set_yticks([-10,-5,5,10])plt.plot(x,y,label="ReLU",color = "blue")plt.legend()plt.show()
当然Relu函数不用这么复杂,只需要手动就可以画出,在这里给出方法,只是希望能在画别的函数的时候得到启发。结果如下:
阅读全文
0 0
- python绘制神经网络中的ReLU激活函数图像(附代码)
- python绘制神经网络中的Sigmoid和Tanh激活函数图像(附代码)
- 神经网络回顾-Relu激活函数
- 人工神经网络之激活函数 -RELU函数
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 神经网络的激活函数sigmoid RELU
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 采用ReLU作为激活函数的简单深度神经网络matlab代码设计
- 神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
- 神经网络中的激活函数-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus简述
- 神经网络中的激活函数具体是什么?为什么ReLu要好过于tanh和sigmoid function?
- 【神经网络】RELU 激活函数及其他相关的函数
- 神经网络中的激活函数
- 神经网络中的激活函数
- 神经网络中的激活函数
- 神经网络中的激活函数
- ReLu激活函数
- ReLu激活函数
- 如何选择机器学习的算法
- Leetcode-Minimum Window Substrings(unordered_map)
- 培训作业:泛型和集合
- HNOI-2015 菜肴制作
- 递归函数
- python绘制神经网络中的ReLU激活函数图像(附代码)
- 1049. Counting Ones (30)
- 学PPT时的作品
- Centos 7上安装WordPress
- JAVA垃圾回收机制
- Java遍历一个类的所有属性和值
- WEB优化
- Elastic 5.3 Native Script实现
- PhoneGap安装和使用教程