机器学习之——监督学习应用
来源:互联网 发布:项目管理方法论 知乎 编辑:程序博客网 时间:2024/05/17 21:37
最近想搞点新东西,然后就选择了机器学习,刚开始学(斯坦福大学的公开课),有很多不懂地方,如果有什么错误,欢迎指正。
首先来介绍一下什么叫回归
回归在数学上来说是给定一个点集,能够用一条曲线去拟合,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归.
引入一个房屋销售的例子:
假设这里存在
现在介绍一下几个变量以及他们代表的含义:
m:训练集合的个数,也就是样本的个数x:输入数据,输入的房屋面积y:输出数据,输出的房屋价格n:特征的个数,有多少个影响因素
引入公式以及介绍
现在让你输入一个房屋面积,让你求出他需要卖出多少钱?
这就是一个机器学习的简单例子,通过一些大量的数据让机器自己慢慢的学习和推断,让其来预测结果,我感觉这就是机器学习的本质吧。
那么今天就来学习一下线性回归方法。
因为是线性回归方法: 所以我们将这些数据用线性模型
根据数据我们可以做出一个估计函数
其中 θ 在这儿称为参数,表示调整 feature(特征) 中每个分量的影响力,究竟是哪个特征更为重要一些。为了方便计算,令
为了计算确定
我们要求的也就是使得
第一种方法(最小二乘法):
最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。 ——摘自百度百科
其中最小二乘法的局限性感觉很大,首先来举个比较简单易懂的例子,
其中,我们要求解的是向量
所以根据最小二乘法确定的
因为根据最小二乘法的规则是求解最好的
最小二乘法的局限性:输入向量
第二种方法(梯度下降法):
梯度下降算法是一种求局部最优解的方法,对于
其中梯度下降法又分为两种:批梯度下降法和随机(增量)梯度下降法。
(1)批梯度下降法
批梯度下降法针对的是整个数据集(training set),通过对所有的样本的计算来求解梯度的方向,肯定找的是斜率最大的。
将误差函数或者损失函数对
解得:
局限性:当训练样本数目很多时,所用的时间会很长,效率不高。
(2)随机/增量梯度下降法
随机梯度下降算法可以看成是批梯度下降的一个特殊的情形,即在随机梯度下降法中每次仅根据一个样本对模型中的参数进行调整。
- 机器学习之——监督学习应用
- 机器学习之监督学习
- 机器学习——监督学习,半监督学习,无监督学习,主动学习
- 机器学习——监督学习习题
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习)
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习)
- 斯坦福机器学习2:监督学习应用
- Python机器学习应用 | 监督学习
- Python机器学习应用 | 无监督学习
- [机器学习]监督学习应用.梯度下降
- 系统学习机器学习之监督学习
- 机器学习之监督学习和无监督学习
- 机器学习之监督学习基础
- 机器学习有监督学习之--回归
- 机器学习之监督学习基础
- 机器学习笔记之监督学习
- 机器学习笔记之无监督学习
- elasticsearch spring 集成
- Swagger简介
- mybatis中sql语句中的#和$
- 蓝桥杯 分糖果
- 关于多个.so文件出现java.lang.UnsatisfiedLinkError问题
- 机器学习之——监督学习应用
- RedHat 5 配置 Centos yum
- java8新特性详解
- 各主流浏览器内核介绍
- 将txt文件导入到mysql表中
- LDAP是什么?
- Spring学习心得(3)-- Spring容器创建对象的时机
- 写在开头:你为什么需要知道原理与解析准备工作
- 基本模型