机器学习_miml多示例多标记算法
来源:互联网 发布:linux apr版本 编辑:程序博客网 时间:2024/06/05 11:53
今天是开学第一天,请以积极乐观的态度面对新的生活,追求快乐且勇于改变。
本文参考:miml 多示例多标记学习 周志华
概念:
示例:对对象进行特征提取,用特征向量来描述对象。
标记:而后将示例关联类别标记。这就是传统的单示例单标记问题。注:但是如何解决如何用代码去实现其实你并不懂
多示例多标记的出现:真实的对象并不具有唯一的语义。简单来讲一个对象有不同的特征和属于不同的类别
多示例多标记的优点:先过吧,并没有直观的体会到。比如1对多并不是合式函数,从子概念出发更容易分类等。
算法:基于退化策略的miml学习算法(简单理解一下就是从复杂拆分到简单,退化为传统的监督学习问题)
策略一:首先退化为多示例,mimlboost算法
自己的理解;将多对多拆分,变为多对一(在上图自己想象一下,左边不动右边挑一个来拆分问题),而后拆为一对一
1.思路
n.问题
策略二;首先退化为多示例
理解:把上图中间的黑点看做z,那么z和y就够成了一对多,x和z用聚类来处理??并不懂,再将一对多拆分为一对一
代码网站;http://lamda.nju.edu.cn/Data.ashx
MIBoosting
【1】boosting constructs an ensemble of so-call "weak" classifiers.
【2】在多示例的应用中,弱学习器是一个标准的单示例分类器
【3】最小化指数损失,最后用lod-odds函数衡量它属于哪个模型
【4】N是bag的数量,ni是第i个包的示例个数,xij表示第i个包的第j个示例。而类标签的分类为-1 or 1
【5】已知样本点(x,y),其中x是示例,而y是分类
【6】我们的目标是找一个分类器F(b),最小化指数函数:exp(-yF(b)) 最小。b是指一个x吧
【7】在每一次iteration中,目标是从F(b)扩张到F(b)+cf(b),f(b)为新增加的弱分类器
【8】符号,Ew为加权期望,E为普通的期望
【9】要找到最好的f(b),可以通过max Ew(y*f(b)),问题???弱分类器和y值的带权期望最大化来求?
【10】包级别的权重WB=损失函数。问题???权重用损失来表示么??
【11】将f(b)定义为包内f(b)=∑h(xj)/n,xj是b包中的示例序号。
【12】现在我们求h(.);
- 机器学习_miml多示例多标记算法
- 多标记学习
- Spark机器学习示例
- 利用隐式标记重要度的多标记学习
- 多值连通区域标记算法
- 机器学习入门(11)--多特征量梯度下降算法
- 机器学习算法之SVM的多分类
- Centos下机器学习算法Mahout库的安装和示例
- 机器学习算法排名
- 《机器学习》 KNN算法
- 机器学习中的算法
- 机器学习算法
- 机器学习算法
- 机器学习算法
- 机器学习算法---决策树
- 机器学习_adaboost 算法
- 机器学习常用算法
- 机器学习算法_Adaboost
- EOJ 3329 dp
- C#中base64 bytes[] Stream之间的相互转换以及PDF转成图片
- 【leetcode】190. Reverse Bits(Python & C++)
- js 中方便调试 打印日志 -- 将json 和字符串互转
- 二维数组练习原创五子连珠
- 机器学习_miml多示例多标记算法
- [bzoj5039][线段树][lazy]序列维护
- 聚类算法之层次聚类与密度聚类
- hdu1394 Minimum Inversion Number(线段树单点修改+区间求和)
- 最全Pycharm教程(41)——Pycharm扩展功能之便签注释
- Spring AOP简单的配置(注解和xml配置)
- 阿柟的NOIP冲刺计划
- CSS中英文换行问题
- 27. netstat