机器学习七 回归分析

来源:互联网 发布:盘石网络 编辑:程序博客网 时间:2024/05/29 13:02

回归(Regression)

定义(摘自百度百科):回归分析是一种数学模型。当因变量和自变量为线性关系时,它是一种特殊的线性模型。最简单的情形是一元线性回归,由大体上有线性关系的一个自变量和一个因变量组成;模型是Y=a+bX+ε(X是自变量,Y是因变量,ε是随机误差)。通常假定随机误差的均值为0,方差为σ^2(σ^2﹥0,σ^2与X的值无关)。//若进一步假定随机误差遵从正态分布,就叫做正态线性模型。


例如公式:Y = aX + b

斜率(Slope):a

截距(Intercept) :b

from sklearn.linear_model import LinearRegressionreg = LinearRegression()reg.fit(features_train,targets_train)slope = reg.coef_intercept = reg.intercept_train_score = reg.score(features_train,targets_train)test_score = reg.score(features_test,targets_test)

线性回归误差(linear regression error)

这里的误差并非真正意义上的“错误”,而是一个技术性用语,表示回归线预测的净值之间的差异。

应用例子:最小二乘法:预测数据与实际数据之间误差的平方和为最小。

SSE:the sum of squared errors


比较分类与回归之间的区别




多元回归

研究一组随机变量(Y1 ,Y2 ,…,Yi)和另一组(X1,X2,…,Xk)变量之间关系的统计分析方法。