神经网络案例分析4-5-神经网络遗传算法函数极值寻优-基于BP_Adaboost 的强分类器设计
来源:互联网 发布:java调用外部接口 编辑:程序博客网 时间:2024/05/10 09:05
神经网络遗传算法函数极值寻优-非线性函数极值寻优
这一章节的算法是利用神经网络对数据的拟合能力和遗传算法的极值寻优能力相结合,求得非线性函数的极值点。既然由神经网络和遗传算法相结合的算法,那算法整体就分为两部分组成,算法流程如下图。
关于遗传算法上一篇有简体叙述,想了解更多可以查看博客http://blog.csdn.net/emiyasstar__/article/details/6938608/有更简单理解和深入学习的介绍。关于源码这里就不一一贴了,可以去http://download.csdn.net/download/dingyahui123/9949418下载,神经网络案例分析的pdf版本可以去http://download.csdn.net/download/dingyahui123/9949414下载。(CSDN现在管理了下载所需积分,好多自动提升了下载积分,1分资源变成2分3分)
基于BP_Adaboost 的强分类器设计-公司财务预警建模
Adaboost算法是集结弱分类器变成强分类的一种方法主要步骤为:首先给出弱学习算法和样本空间(x, y ) ,从样本空间中找出m 组训练数据,每组训练数据的权重都是1 /m 。然后用弱学习算法迭代运算T 次,每次运算后都按照分类结果更新训练数据权重分布,对于分类失败的训练个体赋予较大权重,下一次迭代运算时更加关注这些训练个体。弱分类器通过反复迭代得到一个分类函数序列f1, ,f2 , … , ft ,每个分类函数赋予一个权重,分类结果越好的函数,其对应权重越大。T 次迭代之后,最终强分类函数F 由弱分类函数加权得到。BP_ Adaboost 模型即把BP 神经网络作为弱分类器,反复训练BP 神经网络预测样本输出,通过Ada boost 算法得到多个BP 神经网络弱分类器组成的强分类器。
使用BP网络建立财务系统的模型建立,选好对系统有影响的参数指标如在文中通过分析选出的几个指标参数成分费用利润率、资产营运能力、公司总资产、总资产增长率、流动比亘在、营业现金流量、审计意见类型、每股收益、存货周转率和资产负债率十项指标作为评价指标,该十项指标能够比较全面地反映出公司的财务状况。算法流程如下
算法的流程是
像是一种集成学习,用多个的神经网络投票,这种投票不是平均投票机制,而是按照一定权重比例最终决定结果,那些本身准度度高的在最终决策权的权重系数就大,有若就变强了,但是训练复杂度也变大了。
- 神经网络案例分析4-5-神经网络遗传算法函数极值寻优-基于BP_Adaboost 的强分类器设计
- 基于Matlab的神经网络结合遗传算法在非线性函数极值寻优中的应用
- 如何利用神经网络结合遗传算法进行非线性函数极值寻优(1)
- 如何利用神经网络结合遗传算法进行非线性函数极值寻优(2)
- 基于遗传算法优化的神经网络算法
- 基于网格的遗传算法求函数极值
- 基于遗传算法(GA)的神经网络训练算法
- 基于遗传算法的BP神经网络优化算法
- 基于遗传算法优化的BP神经网络的 非线性函数拟合
- 基于Matlab的遗传算法优化BP神经网络在非线性函数拟合中的应用
- 基于遗传算法优化神经网络结构源程序
- 基于微软案例数据挖掘之Microsoft 神经网络分析算法
- 神经网络遗传算法
- BP神经网络分类器的设计
- 遗传算法优化的BP神经网络建模
- 遗传算法优化的BP神经网络建模
- 神经网络文本分类案例
- 基于神经网络和遗传算法的【手写数字识别】机器人的实现
- C语言中const的用法
- JAVA课程作业1--骰子游戏
- 《不抱怨的世界》
- [BZOJ1019][SHOI2008]汉诺塔
- python核心编程-2
- 神经网络案例分析4-5-神经网络遗传算法函数极值寻优-基于BP_Adaboost 的强分类器设计
- 在shell中插入expect命令。
- application.properties详解 --springBoot配置文件
- JAVA初窥:Zip压缩工具类(一)(解决中文乱码)
- 曾凡平老师《网络信息安全》实验
- 题目
- @responseBody注解的使用
- YUV(二)-YUV格式转换缩放
- 设计模式【中介者模式Mediator Pattern】