回归分析(Regression Analysis)

来源:互联网 发布:印度人怎么看种姓知乎 编辑:程序博客网 时间:2024/06/05 14:17
回归分析(regression analysis)是研究一个随机变量Y对另一个(X)或一组(X1,X2,…,Xk)变量的相依关系的统计分析方法。一般称Y是因变量,其他为自变量。回归分析基于观测数据建立变量间适当的依赖关系,以分析数据内在规律,并可用于预测、控制等问题。按照涉及的自变量的多少,可分为一元回归分析和多元回归分析;按照自变量和因变量之间的关系类型,可分为线性回归分析和非线性回归分析。自回归模型(Autoregressive model)是利用前期若干时刻的随机变量的线性组合来描述以后某时刻随机变量的线性回归模型。

一、为什么叫回归分析

有人可能会好奇,为什么叫“回归”这个名称,它有什么具体含义?实际上,回归这种现象最早由英国生物统计学家高尔顿(Sir Francis Galton是生物统计学派的奠基人,他的表哥达尔文在研究父母亲和子女的遗传特性时所发现的一种有趣的现象:身高这种遗传特性表现出“高个子父母,其子代身高也高于平均身高;但不见得比其父母更高,到一定程度后会往平均身高方向发生‘回归’”。 这种效应被称为“趋中回归”。现在的回归分析则多半指源于高尔顿工作的那样一整套建立变量间数量关系模型的方法和程序。

二、回归分析的主要内容

①从一组数据出发确定某些变量之间的定量关系式,即建立数学模型并估计其中的未知参数。②对这些关系式的可信程度进行检验。③在许多自变量共同影响着一个因变量的关系中,判断哪个(或哪些)自变量的影响是显著的,哪些自变量的影响是不显著的,将影响显著的自变量选入模型中,而剔除影响不显著的变量,通常用逐步回归、向前回归和向后回归等方法。④利用所求的关系式对某一过程进行预测或控制。



原创粉丝点击