python实现简单的单变量线性回归

来源:互联网 发布:中国最大的域名注册商 编辑:程序博客网 时间:2024/06/04 00:20

    线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。

这里主要使用python的sklearn实现一个简单的单变量线性回归。

sklearn对机器学习方法封装的十分好,基本使用fit,predict,score,来训练,预测,评价模型,

一个简单的事例如下:

from pandas import DataFramefrom pandas import DataFrameimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn import datasets,linear_modelX=[]Y=[]with open("C:\\Users\\www\\ex1data1.txt","r") as f:       #读取txt文件。    for line in f:        p_tmp, E_tmp = [float(i) for i in line.split(',')]        X.append(p_tmp)        Y.append(E_tmp)  #'data=np.loadtxt('ex1data1.txt',delimiter=',')
#    X=data[0]
#       Y=data[1] 
data=DataFrame(X,columns={'a'})data['b']=bX=DataFrame(X)fig = plt.figure()                                    ax1 = fig.add_subplot(1,1,1)plt.scatter(data['a'],data['b'])           #显示X,Y的散点图def linear_model_main(X,Y,predict_value):    #定义一个使用线性回归的函数    regr=linear_model.LinearRegression()    regr.fit(X,Y)       #训练模型    predict_output=regr.predict(predict_value)    #预测    predictions={}                               #用一个集合装以下元素    predictions['intercept']=regr.intercept_     #截距    predictions['codfficient']=regr.coef_         #斜率(参数)    predictions['predict_value']=predict_output      #预测值    return predictions    result = linear_model_main(X,Y,1500)             #调用函数print(result['predict_value'])def show_predict(X,Y):    regr=linear_model.LinearRegression()    regr.fit(X,Y)      plt.scatter(X,Y,color='blue')    plt.plot(X,regr.predict(X),color='red')    show_predict(X,Y)
最后拟合结果如图:

0 0