ELM的算法及伪代码
来源:互联网 发布:渠道营销 知乎 编辑:程序博客网 时间:2024/05/16 14:02
一、ELM算法及其数学模型(也称极限学习机) 目的:高效的特征提取+高准确率分类器设计;监督型学习算法
(一)背景:神经网络一直是模式识别、系统辨识的重要工具。传统的前馈神经网络有:BP、RBF等。
(1) 一种基于单层前向馈神经网络(SLFN)简单易用、有效的学习算法。
(2)只需要设置网络的隐藏节点个数,在算法执行过程中不需要调整网络的输入权重W以及隐元的偏置b,并且产生唯一的最优解
(3)该算法具有训练参数少、速度非常快等优点
***(4)黄广斌对SLFN的研究中指出:对于有限的数据训练集,一个具有N个节点、在任意区间无限可导的激励函数g(x)的SLFN神经网络,能够以零误差逼近任意的线性和非线性函数。
(5)SLFN被简化成了一个线性系统,即ELM.
(6)ELM依然具有良好的泛化能力,并且比BP神经网络、支持矢量机有更快的学习速度和逼近能力。
二、输入样本文本
1、现有P组样本,每组样本有N列输出,xi[xi1,xi2,...,xin](i 1,2,...P),
M列目标输出,表示为ti[ti1,ti2,...,tim],(i 1,2,...,P),对应神经网络的N个输入节点和M个输出节点。
2、
三、目的
(1)极限学习机的本质上就是SLFN,其训练值是使神经网络的输出Y 尽可能逼近样本的目标输出T。为了达到这一效果,如果激励函数g(x)无限可导,则用样本输入和目标输出求出B就能够满足ELM以极小误差逼近目标输出的要求。
(2)对ELM的输入权值向量Wij和隐含层节点阈值bj进行随机赋值,完成初始化。
计算隐含层输出矩阵H,计算输出权值矩阵B=H+*T,即完成了ELM神经网络的建立与初始化。
四、各个变量向量的理论大小
(1)一般情况下H为行满秩矩阵(秩=行数)B=Hn*T;Y=H*B;
(2)L=行-1;%为隐含层个数,%接近输入样本长度,理论越接近效果越好;W(L,列);b(1,L)
- ELM的算法及伪代码
- 算法伪代码的写法
- ID3 决策树算法伪代码及注解
- 极限学习机(ELM) 算法及MATLAB程序实现
- ELM极限学习机算法
- Tarjan 算法的伪代码实现 及 求割点的思路浅谈
- KMP字符串匹配算法的伪代码
- 算法(伪代码)的书写
- Latex写算法的伪代码排版
- 矩阵乘法Strassen算法的伪代码
- 算法中伪代码的书写
- Latex写算法的伪代码排版
- Latex写算法的伪代码排版
- 极限学习机(ELM)算法的matlab与C++实现
- 极限学习机(ELM)算法的介绍与实现
- 极限学习机(ELM)算法的matlab与C++实现
- (C#)A*算法伪代码及源码
- DBSCAN 密度聚类算法原理及伪代码
- Remove Invalid Parentheses
- C++ Exceptional Item 20 Class Mechanics
- Java堆、栈、方法区、常量池
- 判断当前应用程序处于前台还是后台 ANDROID
- [并查集] hdu1272 小希的迷宫
- ELM的算法及伪代码
- 搭建linux服务器之Vim配置
- Clang 宏定义初探(二)
- POJ-1422-Air Raid-求最小路径覆盖(匈牙利算法)
- 我为什么从Angular转向React?
- 全排列
- kernel 中的红黑树
- 阶段计划
- 设计模式