F检验 Ftes算法t我的见解

来源:互联网 发布:淘宝能发布多少个宝贝 编辑:程序博客网 时间:2024/06/07 12:25

最近在写ftest算法,写一下我对它的理解

一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
 
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。


H0是先假定成立的假设,H1是H0不成立时准备接受的备用假设.
先假设H0成立,再通过样本实际算出一个统计值(比如Mu).如果发现这个值所代表的p值很小,则说明H0成立的情况下,这个值出现的机会很小.这时就认为H0不对,拒绝H0,也就是接受H1.
举例来说,某人告诉你一个鱼塘里鱼很多.你想通过实验看他说的对不对.
于是H0:该鱼塘鱼很多.H1:该鱼塘鱼不多.
然后你捞鱼,捞了10次,才捞2条.
你觉得说如果鱼多的话,我怎么只捞两条呢?捞两条或者更少的机会很小的.
那么一定是那个人告诉你的事实不对.
于是你就拒绝接受他的说法,转而相信H1,鱼不多.
这个捞两条或更少的机会就是P.P越小,你越有信心拒绝H0.比如你一条没捞到,你就更不信H0,接受H1.
P就是信心的问题.假设是3%,那么你3%的相信H0是对的,97%是不对的.

结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。


F检验又叫方差齐性检验。在两样本t检验中要用到F检验。
从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。
其中要判断两总体方差是否相等,就可以用F检验。


构成样本统计量的独立的样本观测值的数目或自由变动的样本观测值的数目。用df表示。
自由度的设定是出于这样一个理由:在总体平均数未知时,用样本平均数去计算离差(常用小s)会受到一个限制——要计算标准差(小s)就必须先知道样本平均数,而样本平均数和n都知道的情况下,数据的总和就是一个常数了。所以,“最后一个”样本数据就不可以变了,因为它要是变,总和就变了,而这是不允许的。至于有的自由度是n-2什么的,都是同样道理。
    在计算作为估计量的统计量时,引进一个统计量就会失去一个自由度。
    通俗点说,一个班上有50个人,我们知道他们语文成绩平均分为80,现在只需要知道49个人的成绩就能推断出剩下那个人的成绩。你可以随便报出49个人的成绩,但是最后一个人的你不能瞎说,因为平均分已经固定下来了,自由度少一个了。

样本标准偏差的平方,即(“^2”是表示平方):
S^2=∑(X-X平均)^2/(n-1)
两组数据就能得到两个S^2值,S大^2和S小^2
F=S大^2/S小^2
由表中f大和f小(f为自由度n-1),查得F表,
然后计算的F值与查表得到的F表值比较,如果
F < F表 表明两组数据没有显著差异;
F ≥ F表 表明两组数据存在显著差异

1 0
原创粉丝点击