深度学习lstm防止过拟合之dropout

来源:互联网 发布:淘宝网安踏春秋长裤 编辑:程序博客网 时间:2024/05/01 10:22

一般我们使用L1和L2进行正则化防止过拟合,在深度学习中我们也可以使用dropout进行正则化。

http://www.cnblogs.com/santian/p/5457412.html

dropout是临时删除一部分神经元,梯度下降更新其他神经元的权值。然后下次临时删除其他的神经元同样进行这样的操作,这样就可以防止过拟合。

原创粉丝点击