sklearn-例程--Plotting Cross-Validated Predictions

来源:互联网 发布:华为大数据研发岗累吗 编辑:程序博客网 时间:2024/06/11 14:33

sklearn-例程–Plotting Cross-Validated Predictions

对于sklearn我也是第一次接触到而已,机器学习的算法也只是大概的听过一些名词。这次写博客学习的目的有如下几个:

  1. 学习sklearn的使用方式,各种函数的意义和应用场合。
  2. 了解机器学习的具体算法,以及不同的算法用于什么场合。
  3. 似乎还有一个模型的概念,我所不清楚的,那么最后一个就是在不断的学习过程中,了解这些还不清楚的东西

现在开始我们的第一个例程的学习。

代码如下

from sklearn import datasetsfrom sklearn.model_selection import cross_val_predictfrom sklearn import linear_modelimport matplotlib.pyplot as pltlr = linear_model.LinearRegression()boston = datasets.load_boston()y = boston.targetpredicted = cross_val_predict(lr,boston.data,y,cv=10)fig,ax = plt.subplots()ax.scatter(y,predicted)ax.plot([y.min(),y.max()],[y.min(),y.max()],'k--',lw=4)ax.set_xlabel('measured')ax.set_ylabel('predicted')plt.show()

代码梳理

  • import :用于导入其他模块代码
  • as:别名,有时候模块名太长,可以在导入的时候,使用as指定一个别名
  • lr = linear_model.LinearRegression():线性回归算法。见
  • cross_val_predict:
  • plt.subplots:

    具体分析

    LinearRegression,线性回归算法。

    假设目标值和参数之间存在线性关系,即

    y(w,x)=w0+w1+....+wnxn

    那么我们的目标就是找出一组w,使得
    min||Xwy||2

    例如

from sklearn import linear_modellr = linear_model.LinearRegression()lr.fit([[0,0],[1,1],[2,2]],[0,1,1.4])print(lr.coef_)

线性回归算法在X矩阵的列之间存在相关性时,会对一些随机的扰动变得敏感?(不是很确定) ,所以后面还会有一些其他的线性回归算法讲解,具体见下一章。

cross_val_predict:交叉验证预测

待研究。。

原创粉丝点击