Paper摘记:Multiple-Prototype Classifier Design

来源:互联网 发布:四川广电网络公司性质 编辑:程序博客网 时间:2024/06/08 05:43

作者:James C. Bezdek, Fellow, IEEE, Thomas R. Reichherzer, Gek Sok Lim, and Yianni Attikiouzel, Fellow, IEEE

出处:IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART C: APPLICATIONS AND REVIEWS, VOL. 28, NO. 1, FEBRUARY 1998

个人评价:总的来说,创新不多,当作综述来读不错

摘记:

1-NP 分类器(1-Nearest prototype): 通过选择(从原有点中),替换(会产生新的点)等方法,压缩原训练数据集为更小的由原型组成的数据集,然后分类时,找最近的那个原型。

寻找多个原型的方法,竞争学习模型-competitive learning(CL) model。Kohonen规则,竞争网络,LVQ(更新竞争胜利者周围的原型),GLVQ-F(最优化一个性能函数,更新所有的原型,模糊因子),deterministic DR algorithm(更新所有的原型,use intuitive arguments to establish the learning rate distribution for Kohonen规则)

Chang’s algorithm:初始时,每个训练数据都是原型,此时,resubstitution error rate(训练数据和测试数据相同的错误率)=0。然后找训练数据中,最接近的点,试验性的合并,合并后的点的值为均值(不是简单平均,要把所有双亲训练数据考虑,即要考虑直接双亲的父节点,直到追溯到原来的训练数据。当然,第一次迭代时,就是两者的简单平均)。合并是试验性的,存在下列两种情况之一,合并失败:1)合并的两个点,类标号不同 2)合并后,resubstitution error rate增加。记录下这两个不能合并的点,然后开始下一次迭代。最终,没有可以合并的点后,终止,得到的resubstitution error rate=0。可以用最小生成树算法来实现。

本文的实现-MODIFIED CHANG ALGORITHMS (MCA’S):两点不同 1)合并点只是直接父节点的平均,越早合并的点,最终的权杖会越小。这样做的好处是,计算方便些,并且使得远离cluster的点,更有可能被MCA原型分类正确。2)Chang’s algorithm计算全局的距离,MCA把每个相同类标号的样本分为一组,只计算组内的距离。因为在Chang’s algorithm中,不同标号的样本合并会失败。

 
原创粉丝点击