训练Cifar10网络时,遇到训练结果始终Accuracy不变,Loss=87.33的情况

来源:互联网 发布:对讲机写频软件 编辑:程序博客网 时间:2024/06/04 18:52

网上搜索结果有建议如下,尚未验证


在将prototxt里面调整幅度:

weight_decay: 0.004 ->0.0004

调小之后,就可以就行正常训练了,原理要进一步理解



1、观察数据中是否有异常样本或异常label导致数据读取异常

2、调小初始化权重,以便使softmax输入的feature尽可能变小
3、降低学习率,这样就能减小权重参数的波动范围,从而减小权重变大的可能性。这条也是网上出现较多的方法。
4、如果有BN(batch normalization)层,finetune时最好不要冻结BN的参数,否则数据分布不一致时很容易使输出值变的很大。
1 0
原创粉丝点击