机器学习中代价函数选择的数学推导
来源:互联网 发布:淘宝提前加入购物车 编辑:程序博客网 时间:2024/06/05 05:27
首先,让我们假设:输入变量和目标变量满足等式 ,其中误差 表示在建模过程中没有考虑到的,但是对预测结果有影响的因素或者是指随机的噪声。根据实际观测和中心极限定理知,这些因素都服从正态分布,进一步假设这些误差之间是独立同分布的,则它们的和也服从正态分布,且均值为0,方差为 。上述结论可以写成:
,这表明
:
,其中符号 表示以 为参数,给定 时 的分布。如果给定 (设计矩阵,包括所有的 )和 ,则目标变量的分布可以写成:
,对于给定的 ,我们可以将它看成关于 的函数。从另一个角度,我们也可以把它看成是关于 的函数,称为似然函数:
,由于已经假设 之间独立同分布,这个公式可以写成:
,现在已经得出表示 和 之间关系的概率模型,现在回到最初的问题,如何学习参数 ?最大似然函数原理:我们应该选择使似然函数最大时对应的 值,因为这么选择,训练集中的对应的样本发生的概率是最大的。就是说,事件发生了,我们就认为此事件发生的概率是最大的。
所以我们要求出使 取得最大值时的 :为方便计算,一般对似然函数取对数:
,显然,使 最大化,等价于是 最小化,这不就是我们最初选择的代价函数么?任务完成。
总结一下:通过对数据作出合理的概率假设,得出最小二乘回归可以使得似然函数取得最大值的结论。另外,在前面的回归方法中,我们没有考虑到方差 的影响,此文章证明 的选择确实与 无关。在没有提出概率解释之前,我们用距离的概念解释了选择代价函数为最小二乘的合理性,本文又通过概率进行了解释,两方面互相呼应,使理解更加深刻。一点点小体会:要多读书,只有博采众长,才可以相互印证 。
转自:http://www.cnblogs.com/hust-ghtao/
- 机器学习中代价函数选择的数学推导
- Logistic回归代价函数的数学推导及实现
- 机器学习-代价函数
- 机器学习-代价函数
- 【机器学习】代价函数
- 机器学习笔记——逻辑回归模型及其代价函数推导
- 逻辑回归中代价函数求导推导
- 逻辑回归中代价函数求导推导
- 机器学习中的代价函数
- 机器学习中的代价函数
- 机器学习-代价函数 I
- 机器学习-代价函数 II
- 机器学习公式推导-Γ函数的推导
- 机器学习中范数的梯度推导
- 关于机器学习中最小二乘法的推导
- 逻辑回归中代价函数的选择.凸优化问题
- 机器学习-逻辑回归-代价函数
- 机器学习入门(4)--代价函数
- HDU 5113 Black And White dfs+剪枝
- Java实体类转Json出现的一些问题
- Visual Studio2010 C#.NET高级编程
- C++设计模式之简单工厂模式
- ubuntu下C/C++集成环境 -- codeblocks
- 机器学习中代价函数选择的数学推导
- ArcGIS教程:Nibble (Spatial Analyst)
- pdm文件生成的几种方式
- sigemptyset、sigaddset、sigprocmask的用法
- android 添加背景方框
- php的命令行用法
- cordys 前端 HTML 提交流程和接受流程数据
- 正则表达式同时匹配中英文_,还控制长度
- ImageView出现警告[Accessibility]Missing contentDescription attribute on image