【深度学习】初始化笔记

来源:互联网 发布:电脑网络摄像头 编辑:程序博客网 时间:2024/05/24 02:55

一、 He Initialization

用在使用ReLu作为激活函数的神经网络中。
初始化方式:

np.random.randn((layer_dims[i],layer_dims[[i-1]))*np.sqrt(2./layer_dims[i-1])

二、Xavier Initialization

分为weights服从均匀分布和正态分布两种初始化。
均匀分布:

np.random.uniform(low,high,(layer_dims[i],layer_dims[i-1])*np.sqrt(6./(layer_dims[i]+layer_dims[i-1]))

正态分布:

np.random.randn((layer_dims[i],layer_dims[i-1]))*np.sqrt(3./(layer_dims[i]+layer_dims[i-1]))
原创粉丝点击