python实现简单的单变量线性回归
来源:互联网 发布:中国最大的域名注册商 编辑:程序博客网 时间:2024/06/04 00:20
线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。
这里主要使用python的sklearn实现一个简单的单变量线性回归。
sklearn对机器学习方法封装的十分好,基本使用fit,predict,score,来训练,预测,评价模型,
一个简单的事例如下:
from pandas import DataFramefrom pandas import DataFrameimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn import datasets,linear_modelX=[]Y=[]with open("C:\\Users\\www\\ex1data1.txt","r") as f: #读取txt文件。 for line in f: p_tmp, E_tmp = [float(i) for i in line.split(',')] X.append(p_tmp) Y.append(E_tmp) #'data=np.loadtxt('ex1data1.txt',delimiter=',')
# X=data[0]
# Y=data[1]
data=DataFrame(X,columns={'a'})data['b']=bX=DataFrame(X)fig = plt.figure() ax1 = fig.add_subplot(1,1,1)plt.scatter(data['a'],data['b']) #显示X,Y的散点图def linear_model_main(X,Y,predict_value): #定义一个使用线性回归的函数 regr=linear_model.LinearRegression() regr.fit(X,Y) #训练模型 predict_output=regr.predict(predict_value) #预测 predictions={} #用一个集合装以下元素 predictions['intercept']=regr.intercept_ #截距 predictions['codfficient']=regr.coef_ #斜率(参数) predictions['predict_value']=predict_output #预测值 return predictions result = linear_model_main(X,Y,1500) #调用函数print(result['predict_value'])def show_predict(X,Y): regr=linear_model.LinearRegression() regr.fit(X,Y) plt.scatter(X,Y,color='blue') plt.plot(X,regr.predict(X),color='red') show_predict(X,Y)最后拟合结果如图:
0 0
- python实现简单的单变量线性回归
- 简单线性回归的Python实现
- 机器学习实战:单变量线性回归的实现
- 机器学习实战:单变量线性回归的实现
- 机器学习实战:单变量线性回归的实现
- python实现简单线性回归
- 单变量线性回归程序实现
- 单变量线性回归
- 单变量线性回归
- 单变量线性回归
- 线性回归LinearRegression(单变量线性回归)
- 线性回归的python实现
- 机器学习-线性回归python简单实现
- 单变量线性回归原理
- TensorFlow实战1:实现单变量线性回归
- 回归分析:单变量线性回归
- 线性回归python实现
- 线性回归---Python实现
- 为什么getWidth取不到
- 每天一个Linux命令(38):ps
- cas 证书
- range和xrange的区别
- 关于博客的问题
- python实现简单的单变量线性回归
- Ubuntu14.04 cuDNN Anaconda PyCharm
- Unity中创建单例类基类
- SVN回滚
- C++抽象编程——字符串与整数之间的相互转换详解
- javaScript高级程序设计学习笔记(3下)
- java简单链表实现
- Python Treelib 多叉树 数据结构 中文使用帮助文档
- 清除应用缓存