简单线性回归及实现
来源:互联网 发布:淘宝图片轮播怎么做 编辑:程序博客网 时间:2024/05/16 03:34
0. 前提介绍:
为什么需要统计量?
统计量:描述数据特征
0.1 集中趋势衡量
0.1.1均值(平均数,平均值)(mean)
graphic
{6, 2, 9, 1, 2}
(6 + 2 + 9 + 1 + 2) / 5 = 20 / 5 = 40.1.2中位数 (median): 将数据中的各个数值按照大小顺序排列,居于中间位置的变量
0.1.2.1. 给数据排序:1, 2, 2, 6, 9
0.1.2.2. 找出位置处于中间的变量:2
当n为基数的时候:直接取位置处于中间的变量
当n为偶数的时候,取中间两个量的平均值0.1.3众数 (mode):数据中出现次数最多的数
0.2
0.2.1. 离散程度衡量
0.2.1.1方差(variance)
graphic
{6, 2, 9, 1, 2}
(1) (6 - 4)^2 + (2 - 4) ^2 + (9 - 4)^2 + (1 - 4)^2 + (2 - 4)^2
= 4 + 4 + 25 + 9 + 4
= 46(2) n - 1 = 5 - 1 = 4
(3) 46 / 4 = 11.5
0.2.1.2标准差 (standard deviation)
graphic
s = sqrt(11.5) = 3.39
1. 介绍:回归(regression) Y变量为连续数值型(continuous numerical variable)
如:房价,人数,降雨量
分类(Classification): Y变量为类别型(categorical variable)
如:颜色类别,电脑品牌,有无信誉
2. 简单线性回归(Simple Linear Regression)
2.1 很多做决定过过程通常是根据两个或者多个变量之间的关系
2.3 回归分析(regression analysis)用来建立方程模拟两个或者多个变量之间如何关联
2.4 被预测的变量叫做:因变量(dependent variable), y, 输出(output)
2.5 被用来进行预测的变量叫做: 自变量(independent variable), x, 输入(input)
3. 简单线性回归介绍
3.1 简单线性回归包含一个自变量(x)和一个因变量(y)
3.2 以上两个变量的关系用一条直线来模拟
3.3 如果包含两个以上的自变量,则称作多元回归分析(multiple regression)
4. 简单线性回归模型
4.1 被用来描述因变量(y)和自变量(X)以及偏差(error)之间关系的方程叫做回归模型
4.2 简单线性回归的模型是:
其中: 参数 偏差
5. 简单线性回归方程
E(y) = β0+β1x
这个方程对应的图像是一条直线,称作回归线
其中,β0是回归线的截距
β1是回归线的斜率
E(y)是在一个给定x值下y的期望值(均值)
6.正向线性关系:
7.负向线性关系:
8.无关系:
9. 估计的简单线性回归方程
ŷ=b0+b1x
这个方程叫做估计线性方程(estimated regression line)
其中,b0是估计线性方程的纵截距
b1是估计线性方程的斜率
ŷ是在自变量x等于一个给定值的时候,y的估计值
10. 线性回归分析流程:
11. 关于偏差ε的假定
11.1 是一个随机的变量,均值为0
11.2 ε的方差(variance)对于所有的自变量x是一样的
11.3 ε的值是独立的
11.4 ε满足正态分布
12 简单线性回归模型举例:
汽车卖家做电视广告数量与卖出的汽车数量:
12.1 如何练处适合简单线性回归模型的最佳回归线?
使sum of squares最小
12.1.2 计算
分子 = (1-2)(14-20)+(3-2)(24-20)+(2-2)(18-20)+(1-2)(17-20)+(3-2)(27-20)
= 6 + 4 + 0 + 3 + 7
= 20分母 = (1-2)^2 + (3-2)^2 + (2-2)^2 + (1-2)^2 + (3-2)^2
= 1 + 1 + 0 + 1 + 1
4b1 = 20/4 =5
b0 = 20 - 5*2 = 20 - 10 = 10
12.2 预测:
假设有一周广告数量为6,预测的汽车销售量是多少?
# -*- encoding=utf-8 -*-# 简单现行回归:只有一个自变量 y=k*x+b 预测使 (y-y*)^2 最小import numpy as npdef fitSLR(x, y): n = len(x) dinominator = 0 numerator = 0 for i in range(0, n): numerator += (x[i] - np.mean(x)) * (y[i] - np.mean(y)) dinominator += (x[i] - np.mean(x)) ** 2 print("numerator:" + str(numerator)) print("dinominator:" + str(dinominator)) b1 = numerator / float(dinominator) b0 = np.mean(y) / float(np.mean(x)) return b0, b1# y= b0+x*b1def prefict(x, b0, b1): return b0 + x * b1x = [1, 3, 2, 1, 3]y = [14, 24, 18, 17, 27]b0, b1 = fitSLR(x, y)y_predict = prefict(6, b0, b1)print("y_predict:" + str(y_predict))
- 简单线性回归及实现
- python实现简单线性回归
- 线性回归问题简单实现matlab
- 机器学习-线性回归python简单实现
- Keras上实现简单线性回归模型
- 简单线性回归的Python实现
- 一元线性回归分析及java实现
- 二元线性回归及java实现
- 线性回归总结及python实现
- 线性回归算法及用python实现
- 一元线性回归分析及java实现
- 线性回归简介及python代码实现
- 局部加权线性回归及岭回归之Python实现
- 回归:简单一元线性回归
- 简单线性回归
- 简单的线性回归
- 简单线性回归
- 简单的线性回归
- 最长不下降子序列nlogn算法详解
- cookie和session
- 关于过载控制
- UML学---类图
- 算法笔记 //06_集合划分问题
- 简单线性回归及实现
- C语言数据类型那点事
- 搭建hbase的完全分布式模式
- FileInputStream和FileOutputStream实现简单的文件复制
- 数字图像的加载、显示和输出
- 浅说Mysql的行级锁,表级锁,页级锁
- 光学系统在机器视觉检测中的应用
- Deepin下搭建C语言开发环境
- 接口和抽象类的区别