神经网络学习笔记(二)
来源:互联网 发布:做网站找 汇搜网络 编辑:程序博客网 时间:2024/05/29 15:12
上一篇文章讨论了神经元的结构和几种常见的激励函数,本章将进一步讨论神经元的容量问题和多层神经网络的表示问题。
一、神经元容量问题
单个神经元可以解决二分类问题和线性可分问题,下面就这两个问题展开讨论。
1.二分类问题
如果输出激励函数采用Sigmoid或Hyperbolic Tangent函数,此时神经元的作用等价于计算条件概率
2.线性可分问题
线性可分是指可以用一超平面将所有数据点分成两类的问题。常见的线性可分问题有与函数和或函数,以下是二者的图像:
从图中不难看出,我们可以轻松地找到一个分类超平面将两类数据点分开。根据上一篇文章所讨论的,
3.线性不可分问题
异或问题是典型的线性不可分问题,其图像如下:
我们找不到任何一条直线,可以将两类数据点分开,因此,不存在对应的分类超平面,自然也就找不到相应的参数
为了解决这个线性不可分问题,可以将输入
如上图所示,我们把输入
于是我们得出结论:单个神经元只能解决线性可分问题,对于线性不可分问题,则必须通过其他神经元的映射才可能解决。
二、多层神经网络的表示问题
上面谈到单个神经网络无法解决线性不可分问题,这就意味着必须解决多神经元连接时的表示和计算问题。
1.单隐层神经网络
单隐层神经网络是最简单的神经网络,其典型结构如下:
其中最底层的
隐藏层的预激励为:
2.Softmax激励函数
求解一多分类问题,我们需要:
- 多输出(每种类型一个输出)
- 计算条件概率
P(y=c|x)
现有一个
- 非负
- 所有输出分量之和为
1 - 对于未知样本,将其归为输出激励最大的一类
- 神经网络学习笔记(二) 线性神经网络
- 神经网络学习笔记(二)
- 神经网络学习笔记(二)
- 《机器学习》学习笔记(二):神经网络
- TensorFlow学习笔记(二):实现神经网络
- 机器学习笔记(二) 神经网络
- 深度学习笔记(二)神经网络
- 神经网络学习(二)
- 神经网络:学习(二)
- 深度学习与神经网络学习笔记(二)
- 深度学习与神经网络_吴恩达 学习笔记(二)
- 神经网络与深度学习学习笔记:神经网络的优化(二)
- 数据挖掘学习笔记之人工神经网络(二)
- 数据挖掘学习笔记之人工神经网络(二)
- Deep Learning 学习笔记(二):神经网络Python实现
- 神经网络学习笔记(二):feedforward和feedback
- 机器学习笔记二十一 神经网络(未整理完)
- 卷积神经网络学习笔记(二):CNN代码实例
- SQL索引一步到位
- 笔记本必备驱动安装说明
- android 实现listview的分页加载
- 2015_4_12
- MySQL Proxy 实现读写分离
- 神经网络学习笔记(二)
- 世界名著精选iOS电子书诞生记
- Affymetrix芯片分析:获取差异表达基因系列二_Moderated t statistic
- Useful extensions for UIView
- Spring提供的资源访问工具
- LeetCode 179. Largest Number
- android 开发工具AndroidDevTools 网址
- 渣蜀黍 - iOS 个人笔记(一)_数据处理
- 面试一