分类-1-逻辑回归(Logistic regression)、感知学习算法(perceptron learning algorithm)、牛顿迭代法
来源:互联网 发布:mac不能保存书签 编辑:程序博客网 时间:2024/05/28 17:07
逻辑回归(Logistic regression)
我们现在只考虑二分类,即
类似于线性回归问题,我们同样定义一个估计(hypothesis)函数
我们称上式为logistic function或sigmoid function.
下面给出
和之前一样,我们令
下面让我们来看看怎样得到
假设:
上式可以合并为一个式子:
类似于我的这一篇博客中求最大似然值一样,我们可得:
进而得到log likehood:
然后还是一如既往的求导:
在求
下面开始对
还记得梯度下降吗,不记得点这里,当时我们是为了求最小值。比较一下呢,现在我们是要求最大值,所以我们可以用梯度上升法求
可以看到,与线性回归类似,不同之处只是
扩展到整个样本集就是:
感知学习算法(perceptron learning algorithm)
这里我们改写Logistic regression中的映射函数
经过与逻辑回归中同样的推导后我们会得到类似的结果:
这就是感知学习算法。。。
它只输出0或1
牛顿迭代法
在逻辑回归中我们求最大似然值
首先什么是牛顿迭代法?
牛顿迭代法公式:
我们将公式和图形结合来看:首先在中间那幅图中我们给
其本质就是通过迭代,使得
牛顿迭代求最大似然值
上面是用牛顿迭代来求零点处的值,怎样用牛顿迭代来求最大值呢。很简单,我们只要求
牛顿迭代法相对于梯度上升法的优点是,只需较少的迭代次数便可完成计算
缺点是,每次迭代都需要计算Hessian矩阵,若属性过多,计算代价会很大。
0 0
- 分类-1-逻辑回归(Logistic regression)、感知学习算法(perceptron learning algorithm)、牛顿迭代法
- Stanford机器学习__Lecture notes CS229. Logistic Regression(逻辑回归)(2)Perceptron Learning Algorithm
- Digression:The perceptron learning algorithm(感知机学习算法)
- Machine Learning逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)-牛顿法求解参数
- 机器学习算法之逻辑回归(Logistic Regression)
- 机器学习-logistic Regression(逻辑回归)
- 感知机学习算法的几何解释(perceptron learning algorithm)
- 机器学习随记1-逻辑回归(Logistic Regression)-1
- 逻辑回归(logistic regression)
- 逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)
- 逻辑回归(Logistic Regression)
- Logistic Regression(逻辑回归)
- 逻辑回归(Logistic Regression)
- C++中placement new操作符
- Tomcat 配置详解/优化方案
- IOS学习之——查看UDID 打包ipa 安装到客户手机上
- 利用指针P调用input函数的时候 ,不能使用student::input来调用input函数。
- Java 实现向数组指定位置写入元素
- 分类-1-逻辑回归(Logistic regression)、感知学习算法(perceptron learning algorithm)、牛顿迭代法
- nyoj开心的小明
- POJ 1251Jungle Roads
- 建立神经网络:Part 0
- 从上到下按层打印二叉树,同一层结点从左至右输出。每一层输出一行。
- uva11552
- C是如何支持OC运行的
- linux命令echo和cat比较
- springmvc中@ReuqestBody和@ResponseBody传输json数据