8 神经网络的黑盒子不黑

来源:互联网 发布:淘宝代销是自己定价吗 编辑:程序博客网 时间:2024/04/27 13:48

神经网络内部并不是不可见的,而是神经网络经过输入层,到隐藏层,隐藏层处理特征变换之后,不再是我们所熟知的事物了。

原本的代表特征被加工, 变成了另一种代表特征, 同样, 再次加工形成的代表特征通常只有计算机自己看得懂, 能够理解. 所以, 与其说黑盒是在加工处理, 还不如说是在将一种代表特征转换成另一种代表特征, 一次次特征之间的转换, 也就是一次次的更有深度的理解. 比如神经网络如果接收人类手写数字的图片.

这种代表特征的理解方式其实非常有用, 以至于人们拿着它来研究更高级的神经网络玩法. 比如迁移学习(Transfer Learning). 

迁移学习:对于一个有分类能力的神经网络, 有时候我们只需要这套神经网络的理解能力, 并拿这种能力去处理其他问题. 所以我们保留它的代表特征转换能力. 

注:Transfer learning 顾名思义就是把已学训练好的模型参数迁移到新的模型来帮助新模型训练数据集。就跟其他知友回答的那样,考虑到大部分数据或任务是存在相关性的,所以通过transfer learning我们可以将已经学到的parameter 分享给新模型从而加快并优化模型的学习不用像之前那样learn from zero.



阅读全文
0 0
原创粉丝点击