立即注册找回密码

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

手机动态码快速登录

手机号快速注册登录

搜索

图文播报

查看: 262|回复: 5

[分享] 关于假设检验,T检验 F检验 卡方检验 和 ANOVA 这些检验在什么情况下使用,它们的区别是什么?

[复制链接]
发表于 2025-3-11 21:28 | 显示全部楼层 |阅读模式
回复

使用道具 举报

发表于 2025-3-11 21:28 | 显示全部楼层
t检验、F检验、卡方检验、方差分析都是常见的用于分析数据间差异关系的分析方法;其中方差分析主要使用F检验进行统计检验,3类差异性分析方法对比如下:


① t检验主要用于研究定量数据与2组定类数据之间的差异,例如研究性别(2类)与身高之间的差异。
② 方差分析同样用于研究定量与定类之间的差异,区别在于方差分析可以分析多组数据之间的差异。例如研究学历(高中、本科、研究生)与收入之间的差异。
③ 卡方检验用于研究定类与定类数据之间的差异,比如研究性别与学历之间的差异关系。
接下来将对这3类方法进行具体说明。
一、t检验

t检验可细分为以下几种;


以独立样本t检验进行说明,独立样本t检验的前提条件
① 两组样本互相独立
② 两组样本都符合正态分布
③ 两组样本方差相等(方差齐,使用F检验
例如:使用t检验研究2组同学的英语成绩之间是否有显著差异
已知2组同学之间相互独立,满足前提条件①,下面验证数据是否符合正态分布;
(1)正态性检验

使用直方图进行正态性检验,得到英语成绩的直方图如下:


从上图得知,直方图呈现出“中间高两头低”的钟形分布特征,数据基本满足正态分布。
接下来,验证数据的方差是否相等,使用F检验进行方差齐检验
(2)方差齐检验

SPSSAU系统中,使用方差分析中的方差齐检验进行分析,操作如下:


SPSSAU输出结果如下:


从上表可以看出:2组样本对于英语成绩均不会表现出显著性(p=0.074>0.05),意味着不同组别样本数据的波动没有差异性,说明数据满足方差齐,可以进行独立样本t检验。
(3)独立样本t检验

使用SPSSAU系统进行独立样本t检验,得到分析结果如下:


从上表可以看出:不同组别样本对于英语成绩全部均呈现出显著性(p<0.05),意味着不同组别样本对于英语成绩均有着差异性。具体差异可通过对比平均值得到。
二、方差分析

方差分析可分为多种类型,对比见下图:


方差分析同样需要数据满足独立性、正态性、方差齐性这三个前提条件,进行分析的步骤与t检验类似,在此不再赘述。
三、卡方检验

卡方检验与t检验和方差分析的不同之处在于,t检验和方差分析属于参数检验,而卡方检验为非参数检验,所以卡方检验并不假定总体数据的分布形式,直接对数据分布进行检验。
卡方检验也可以分为多种类型,对比说明如下:


例如:当前有一份数据,想要研究“岗位”与“是否培训”之间的差异关系,可以使用卡方检验进行分析。在SPSSAU系统中,选择【交叉卡方】得到分析结果如下:


从上表可以看出:不同岗位对于是否培训呈现出显著性(p<0.05)。
以上。
<hr/>SPSSAU_相关|回归分析_因子|方差分析_SPSS下载-在线SPSS分析软件
回复 支持 反对

使用道具 举报

发表于 2025-3-11 21:29 | 显示全部楼层
你好,这篇文章也许能帮到你!
前言

估计和检验是统计学上最常见的两种分析手段。参数估计主要两大类为点估计和区间估计,这里面具体涉及的方法很多。本文主要描述的内容是关于检验方面的。假设检验的着重点在于检验参数的取值是否等于某个目标值。
一:假设检验的背景知识简介


  • 两类思想

  • 小概率事件:小概率事件是指在一次独立实验中几乎不可能发生的事件,如果在我们的假设下出现了小概率事件,那么就可以认为我们的假设是错误的,
  • 反证法思想:先假设我们提出的假设是正确的,然后在该条件下检验观测到的事件是不是小概率事件。如果是,那么就可以否定我们的假设;否则,我们就无法否定。


  • 假设检验步骤总结

  • 先根据实际情况的要求提出一个论断,称为原假设或零假设,记为 同时提出一个互为反命题的备择假设,记为
  • 正确的条件下,求出样本数据出现的概率,看已知的样本是不是小概率事件,
  • 如果样本是小概率事件,那么就认为原假设错误,即拒绝原假设,否则就是接受原假设。
  • 对于原假设和备择假设假设的选择原则:(1).原假设应该是受保护的,不能轻易被拒绝;(2).备择假设是检验者所希望的结果;(3).等号永远出现在原假设中。


  • 两类错误

  • 第一类错误:即弃真错误。尽管小概率事件很难发生,但毕竟概率不为0,也许原假设是正确的,但根据小概率事件原则,我们拒绝了原假设,犯第一类错误的概率为
  • 第二类错误:即取伪错误。也就是说,在假设检验中我们没有拒绝原本是错误的原假设,因为有时候原假设尽管是错误的,但非常接近真实值,犯第二类错误的概率为
  • 错误权衡:如果我们想要降低 的概率,也就是意味着提高拒绝条件,使得原假设不那么容易被拒绝,但与此同时,错误的原假设也不容易被拒绝,相当于提高了 值,所以二者不可能同时降低的。一般来说我们是控制 而放任


  • 显著性水平
为了控制 ,我们往往将 的值固定,用条件概率表示为:
,对于 取值我们有 =0.1,0.05或者0.01。
关于 值的解释,这里主要是对“更极端”事件出现的概率进行量化。比如原假设总体均值为10,样本的均值为9,样本均值原假设的差即为-1。那么“更极端”的情况就是指均值和10的差大于1或者小于-1的样本。我们于是把所得到的样本或者更极端的情况出现的概率叫做

  • 确定小概率事件
判定一个事件是否为小概率事件的基本原则就是:当 值小于等于 时,我们的样本为小概率事件,而对于这两个值的比较,我们可以采用临界值检验法和显著性检验法

  • 临界值检验法:简单来说就是根据样本构造合适的统计量后,根据 和统计量所服从的概率分布求得临界值,一般临界值都满足一个特性,那就是 ,求得临界值后,可以将统计量与该临界值进行比较。如果统计量与原假设的偏差大于等于临界值与原假设的偏差,那么当前样本就与临界值一样极端或者更极端,其 值也就会小于等于 ,所以我们就认为当前样本为小概率事件,从而拒绝原假设
  • 显著性检验法:开始同样构建一个用于检验的统计量,与临界值法不同的是,我们直接根据原假设和统计量的概率分布求解其 值,然后将 值与 进行比较,从而判定样本是否为小概率事件。
二:参数检验之 检验(主要用于样本含量较小(例如n < 30),总体标准差σ未知的正态分布)

所谓参数检验,即构造的统计量或者总体分布服从一定的概率分布的情况下对总体参数(如均值、方差)推断

  • 单样本 检验:
在总体服从正态分布 的情况下,比较总体均值 是否与指定的检验值 存在显著性差异,原假设(双尾,如果是单尾原假设,即 ,备择假设为互逆命题)为 。如果样本容量为 ,样本均值为 ,在原假设成立的条件下,我们构建如下 检验统计量:
其中 为样本标准差。
得到统计量值后,我们便可根据 分布的分布函数计算出 值并与显著性水平 进行比较,或者与显著性水平 下的临界值进行比较
我们用Python实现这一过程:
import numpy as np
from scipy import stats
arr = np.array([10.1,10,9.8,10.5,9.5,10.1,9.9,10.2,10.3,9.9])
test_res = stats.ttest_1samp(arr,0)#原假设是收益率均值为0
##编写统计量值计算公式
mu = arr.mean()
mu = mu - 0
t = mu / (np.std(arr,ddof=1) / np.sqrt(len(arr)))
print(test_res)
print('公式得到的t统计量值:',t)
if test_res[1] < 0.05:
    print('\033[1;32m原假设是收益率均值为0,由于p值为%s,小于显著性水平a=0.05,所以拒绝原假设,即收益率均值为0假设不成立!\033[0m'%test_res[1])
else:
    print('\033[1;31m原假设是收益率均值为0,由于p值为%s,大于等于显著性水平a=0.05,所以接受原假设,即收益率均值为0假设成立!\033[0m' % test_res[1])

##根据概率分布手动计算p值(双尾)
p_value = (1 - stats.t.cdf(t, df=len(arr)-1)) * 2
print('手动计算P值:',p_value)

  • 独立样本 检验:
用于检验两个服从正态分布的总体均值是否存在显著性差异,假设两个总体分布分别为
,则原假设为 ,那么由正态分布可加性
,则 ,则对于两独立样本有
,简化其中推导我们直接给出其检验统计量为

这里的 为混合标准差。
同上“单样本方法”计算相应
我们用Python实现这一过程:
arr1 = np.array([5,4,2,3,4,5,6,7,3])
arr2 = np.array([2,3,4,2,3,4])##两样本长度不必相等!!
res = stats.ttest_ind(arr1,arr2)
print(res)

  • 配对样本 检验:
当两样本并不互相独立时候,我们可以使用配对样本 检验对两个总体的均值差异进行检验。比如研究夫妻之间的人均消费差异,因为夫妻双方的人均消费水平并不是独立的,这时候我们只需要稍变变形一下,即用丈夫的消费水平减去妻子的消费水平的差值做单样本 检验即可。则建立的原假设
,其检验统计量为: ,这里要说明 为配对样本中各元素对应的差值, 为差值的标准差, 为配对数。
同上“单样本方法”计算相应
我们用Python实现这一过程:
arr1 = np.array([5,4,2,3,4,5,6,7,3])##注意这时候的两个向量长度要求一致!!
arr2 = np.array([2,3,4,2,3,4,3,9,10])
res = stats.ttest_rel(arr1,arr2)
print(res)三:参数检验之 检验(主要用于大样本(例如n > 30),总体标准差σ已知的正态分布)

由于 检验和 检验原理很像,这里我们将简单介绍下其原理。
样本容量越大,样本标准差接近总体标准差!
对于总体方差已知的样本情况,对单样本 检验,我们有统计量 ,一般原假设(双尾)还是设为 ,双样本检测原理跟同理 检验。
我们简单用代码运用此方法:
import statsmodels.stats.weightstats as sw
arr1 = [23,36,42,34,39,34,35,42,53,28,49,39,46,45,39,38,45,27,43,54,36,34,48,36,47,44,48,45,44,33,24,40,50,32,39,31]
arr2 = [41, 34, 36, 32, 32, 35, 33, 31, 35, 34,37, 34, 31, 36, 37, 34, 33, 37, 33, 38,38, 37, 34, 36, 36, 31, 33, 36, 37, 35,33, 34, 33, 35, 34, 34, 34, 35, 35, 34]
###返回的元组形式,第一个值是统计量的值,第二个值是p值
print(sw.ztest(arr1, value=39, alternative='two-sided'))##其中value单样本时候,是样本假设的均值,默认双尾检验
print(sw.ztest(arr1,arr2, value=0))##其中value单样本时候,是两样本假设的均值之差
###根据概率分布求解p(双尾)
p_value = (1 - stats.norm.cdf(z检验统计量值)) * 2四:参数检验之方差分析

方差分析主要研究的是一个因子对反应变量的影响。比如分析食品行和金融行业的股票收益率的差异,如果发现这两个行业的股票收益率有显著差异,则可有一下结论:行业是影响股票收益率的一个重要因素。
方差分析的目的在于分析因子对反应变量的有无显著影响,亦即因子的不同水平下反应变量的均值是否有显著差异。若因子水平对反应变量无影响,则不同因子水平下反应变量的均值是相同的,这也就是方差分析的原假设
方差分析要满足以下两点:

  • 样本是从服从正态分布的总体中独立抽取出来的,
  • 不同反应变量的总体方差是大致相同的(方差一致性)。
接下来,我们简单概括一下方差分析的一般步骤:

  • 根据感兴趣的因子的不同取值水平,将反应变量分为 个组,
  • 提出原假设,即 因子对于反应变量均值没有影响;备择假设 因子对于反应变量均值有影响,
  • 求出样本数据中每组样本的平均值和全体样本的平均值,算出组内均方差MSF和组间均方差MSE,
  • 构建统计量 ,其中 分布,
  • 由显著性水平 的取值,查 分布表的临界值 来判断是接受还是拒绝原假设。


  • 单因素方差分析
比如我们列举的例子就是关于行业是否是影响股票收益率的一个重要因素。
from statsmodels.formula.api import ols
import statsmodels.stats.anova as no
import pandas as pd
return_ls = [0.57298,0.82757,0.33648,0.64532,0.47798,0.25123,0.00256,0.01125,0.75658,0.05654,0.95765,0.87851,0.99856,0.00245]
industry_ls = ['货币金融服务业','房地产行业','医药制造业','房地产行业','房地产行业','游戏业','农业','电影业','服务业','交通业','房地产行业','房地产行业','房地产行业','农业']
df1 = pd.DataFrame([return_ls,industry_ls],index=['Return','Industry']).T
data_new1 = df1.dropna()
data_new1['Return'] = data_new1['Return'].apply(pd.to_numeric)#强行转化为数值
model1 = ols('Return ~ C(Industry)',data_new1).fit()
table1 = no.anova_lm(model1)
print(table1)


图1

由上图图1 值我们发现,对于因变量收益率,自变量行业确实是对因变量有显著影响的。

  • 多因素方差分析(独立)
顾名思义,研究多个因子是否对因变量有重要影响,且每个因子影响对因变量的影响方向和程度是不一样的
edu_ls = [13,18,3,5,8,12,3,8,12,15]
marr_ls = ['y','y','n','n','n','n','y','n','n','y']
ear_ls = [77005,85212,5264,10222,20013,31212,6451,18221,45613,56872]
df2 = pd.DataFrame([edu_ls,marr_ls,ear_ls],index=['education','married','earnings']).T
data_new2 = df2.dropna()
data_new2['earnings'] = data_new2['earnings'].apply(pd.to_numeric)
model2 = ols('earnings ~ C(education)+C(married)',data_new2).fit()
table2 = no.anova_lm(model2)
print(table2)


图2

由上图图2我们发现,当研究两个变量是否对收入有影响时,我们发现教育和是否结婚影响程度是不一样的,教育是有显著影响的,而是否结婚是没有显著影响的。

  • 析因素方差分析(非独立)
析因方差分析与多元素方差分析差不多,仅多了一个因子乘项。比如,在上面的例子中,我们可以添加married与education的乘项,以检验这两者对收入的影响是否与另一个因子水平有关。
model3 = ols('earnings ~ C(education)*C(married)',data_new2).fit()
table3 = no.anova_lm(model3)
print(table3)


图3

由上面图3我们发现,第3个 值等于0.05<0.5,即结果不显著,所以婚姻状况和受教育水平对收入的影响并不依赖于另一者的水平
五:非参数检验之卡方检验

卡方检验(慎与跟卡方分布概念混淆)是一种用途很广的计数资料的假设检验方法。属于非参数检验,主要是比较两个及两个以上样本率(构成比)以及两个分类变量的关联性分析。根本思想在于比较理论频数和实际频数的吻合程度或者拟合优度问题。
接下来,我们简单概括一下卡方检验(特指拟合优度)的一般步骤:

  • 建立独立样本联表,建立原假设 比如不吃晚饭对体重下降没有影响,或者喝牛奶对身体恢复没影响等等,
身体恢复慢身体恢复快总数
喝牛奶1595110
不喝牛奶85590
总数100100200
2. 根据概率频次对四方联表进行理论值频数计算,
身体恢复慢身体恢复快总数
喝牛奶110/200*100=55110/200*100=55110
不喝牛奶90/200*100=4590/200*100=4590
总数100100200
3. 卡方检验统计量公式: ,这里的 就是就是总体样本分为 块,也就是4, 200。根据拟合优度公式有 =
4. 根据自由度计算公式: 以及 临界表、拟合优度值,我们可查到
5. 根据 值的取值的大小来确定是否拒绝原假设。
我们用直接调用Python里的方法走一遍上面的过程。
from scipy.stats import chi2_contingency

df = pd.DataFrame({
    'medical':['A','A','B','B','C','C'],
    'cured':[1,0,1,0,1,0],
    'count':[1800,200,600,1200,500,200]
})
print('\033[1;31m原始表:\033[0m')
print(df)
cross_tab = pd.pivot_table(data=df,values='count',index='medical',columns='cured',margins=True,aggfunc=np.sum)
print('\033[1;32m联表:\033[0m')
print(cross_tab)
kf = chi2_contingency(cross_tab)
print('chisq-statistic=%.2f, p-value=%.6f, df=%s expected_frep=%s'%kf)


图4

从上图图4的 值,我们可以发现不同药对治疗效果是有关系的。
PS:卡方检验的结果非常受数据量级的影响,实际运用中要注意!!!
六:非参数检验之Kruskal-Wallis检验

在实际生产中,经常比较多组独立数据均值(或者分布)之间的差异性,然而实际数据很难符合正态性,基本都是偏态性,这时很难用参数检验进行分析。作为对样本分布没有太大要求的Kruskal-Wallis(简称克氏)检验,它是一个将两个独立样本Wilcoxon(Mann-Whitney)推广到3个或者更多组的检验
接下来,我们简单概括一下Kruskal-Wallis检验的一般步骤

  • 对于分布是否相同的检验的原假设可以设为 ,这里的 为是独立样本的个数, 是分布函数的意思,那么备择假设 中至少两个不相等, 对于位置参数(均值、中位数等)的原假设 ,备择假设同理,
2. 构造检验统计量 这里的统计量涉及的参数比较多,有秩的概念、总样本的概念等,我们这不详细介绍,主要介绍检验用法,有兴趣的可以参考这

4.1 Kruskal-Wallis 秩和检验​www.doc88.com/p-9985360704629.html
3. 作出决策,对于大样本和小样本的统计量分布查表是不同的,大样本下近似 近似服从 ,小样本下可直接查表得到,通过决策值或者 值判定是否拒绝或接受原假设。
我们以实际例子作为联系,研究不同的药对咳嗽的治疗是否不同,
from scipy import stats

##服用不同药情况下咳嗽人群阶段治愈数
medicine_a = [80,203,236,252,284,368,457,393]
medicine_b = [133,180,100,160]
medicine_c = [156,295,320,448,465,481,885]
medicine_d = [194,214,272,330,386,475]
df = pd.DataFrame([medicine_a,medicine_b,medicine_c,medicine_d],index=['medinine_a','medinine_b','medinine_c','medinine_d']).T
test_res = stats.kruskal(df['medinine_a'].dropna(),df['medinine_b'].dropna(),df['medinine_c'].dropna(),df['medinine_d'].dropna())
print(test_res)


图5

由上图5我们根据 值发现,不同药对咳嗽的治疗是有不同作用的
另外,K-W检验对应于参数检验的方法是方差分析,即研究因子在不同水平下对反应变量均值是否有显著影响,那么假设以上数据满足方差齐次和正态分布,方差分析结果如下:
med_ls = ['medicine_a','medicine_a','medicine_a','medicine_a','medicine_a','medicine_a','medicine_a','medicine_a'
          ,'medicine_b','medicine_b','medicine_b','medicine_b','medicine_c','medicine_c','medicine_c','medicine_c',
          'medicine_c','medicine_c','medicine_c','medicine_d','medicine_d','medicine_d','medicine_d','medicine_d',
          'medicine_d']
recov_ls = [80,203,236,252,284,368,457,393,133,180,100,160,156,295,320,448,465,481,885,194,214,272,330,386,475]
df = pd.DataFrame([med_ls,recov_ls],index=['med','nums']).T
data_new = df.dropna()
data_new['nums'] = data_new['nums'].apply(pd.to_numeric)
model = ols('nums ~ C(med)',data_new).fit()
table = no.anova_lm(model)
print(table)


图6

图6就是对应方差分析的结果。
七:非参数检验之K-S分布检验

Kolmogorov-Smirnov(K-S)分布检验是一种非常重要的非参数检验方法。它是一种统计检验方法,它通过比较两样本的频率分布,或者一个样本的频率分布与特定理论分布(如正态分布、泊松分布等)之间的差异大小来推论两个分布是否来自同一个分布
KS检验的原假设 对所有 的值, ,那么双尾的备择假设为 对至少一个 值, 。我们令 表示该组数据的经验分布,一般来说随机样本 的经验分布函数定义为阶梯函数:
,它是小于等于 值的比例,它是总体分布 的一个估计,对于双尾检验,检验统计量设为:
注:统计量 的分布实际上在零假设下对于一切连续分布 是一样的,所以与分布无关。由于 是阶梯函数,只取离散值,考虑到跳跃问题,在实际运作中,如果有 个观测值,则下面的统计量来代替
关于qq图检验的运用

qq图检验数据分布是一种非常直观的方法了。由于样本 的分位数为其经验累积分布函数的逆函数,如果把数据列 的经验分位数点对一个已知分布的相应分位数点画出散点图,那么当 的经验分布类似于已知分布时,图形就近似地形成一条斜率为1的直线,否则,图形中端部就会较大地偏离这个直线
我们用Python感受这一过程
import matplotlib.pyplot as plt
from scipy import stats
norm_arr = np.random.uniform(0,1,10000)
stats.probplot(norm_arr, dist='uniform', plot=plt)
plt.show()
stats.probplot(norm_arr, dist='norm', plot=plt)
plt.show()


图7



图8

我们已知给定的数据是上下限为0-1的均匀随机数,图7是dist='uniform'时的结果,图8是dist='norm'时的结果,明显直观感觉到qq图方法的直观性,且原本随机数是服从均匀分布的
关于KS检验的运用

我们对上述数据用KS检验法看看结果如何:
res = stats.kstest(norm_arr,'uniform',alternative='two-sided')
print('\033[1;33m用KS检验方法检验上述随机数分布:\033[0m',res)


图9

值结果看,很明显原本随机数是服从均匀分布的,接受原假设。
接着我们对两组或两组以上数据运用KS检验方法观察结果:
arr1 = np.random.uniform(0,1,100)
arr2 = np.random.normal(0,1,100)
res1 = stats.ks_2samp(arr1,arr2)
print('\033[1;31m一个正态分布N~(0,1),一个均匀分布U~(0,1)的检测结果:\033[1;0m',res1)

arr1 = np.random.normal(0,1,100)##数据长度不一致也可行!!
arr2 = np.random.normal(0,1,150)
res2 = stats.ks_2samp(arr1,arr2)
print('\033[1;32m两个都是正态分布N~(0,1)的检测结果:\033[1;0m',res2)

注:如果是检验非标准正态分布,则stats.kstest(norm_arr,'norm',(mean,std),alternative='two-sided')即可!

综上,我们能感受到KS检验的方便性和适用性,但对于是否服从正态分布等检验的检验方法不止局限上述两种,还有Shapiro-Wilk正态检验、历史悠久的 检验等等。
八:总结

本篇文章主要是关于统计学中常见和重要的检验分析。其它参数检验如 检验,非参数检验如二项检验、游程检验等等,都是类似的原理和方法。熟练运用以上6种检验能解决生活和生产中很多问题了,学习其它方法(比如金融方面的平稳性检验、格兰杰检验等等,随机过程方面的随机性检验、白噪声检验等等)也会更加游刃有余。
但我们一定要清楚统计检验和统计分布的概念区别,检验是对样本统计量进行一系列操作,分布则就是指一些列数据(一般指随机变量)符合何种概率或者概率密度分布。所以卡方检验和卡方分布是完全不同的两个概念!
回复 支持 反对

使用道具 举报

发表于 2025-3-11 21:30 | 显示全部楼层
做假设检验有一段时间了,经常用这种方法来做数据分析,并写ppt。
用了思维导图汇总了一下这方面的知识,算是给自己做的一个总结。

回复 支持 反对

使用道具 举报

发表于 2025-3-11 21:30 | 显示全部楼层
突然发现这问题缺乏一个不深入且容易理解的回答,来强答一发吧。
T检验、F检验、卡方检验 和 ANOVA究竟有什么区别呢?
先下个定义。显著性检验(significance test)是统计假设检验(statistical hypothesis testing)的一种,显著性检验是用于检测科学实验中实验组与对照组之间是否有差异以及差异是否显著的办法。
在统计学假设检验中,我们会先提出一个原假设(null hypothesis),记为H0。那么我们分析数据会产生这几种情况:


1类错误(type-I error)我们拒绝了一个真的原假设(就是图中的FP);2类错误(type II error)是我们没有拒绝一个错误的原假设(就是图中的FN)。剩下两种情况(TP、TN),我们说检验对样本做了正确的预测。
之后我们有了一些衡量准确率的方法:
        精确率(Precision):Precision=TP / TP+FP
        召回率(Recall):Recall=TP / TP+FN
   F-measure 又叫做F1 factor或F1 score:    F−measure=2×Precision×Recall / Precision+Recall
  准确率(Accuracy):Accuracy=TP+TN/TP+TN+FP+FN

对于小样本,我们应用t检验,t检验过程中会进行F检验。我们想检测两个平均数的差异是否显著,我们先假设两样本间平均数没有差异。那么如果两个样本来源于不同分布,那么我们要做的是拒绝原假设。
实际应用中,有几种情况:
two-sample t-tests:
1)Independent (unpaired) samples 用于独立的样本,即样本之间没有关系。
2)Paired samples 用于相互关联的样本,如处理前及处理后。
其中又有One- and two-tailed tests的区别,单侧意为检验均值大于或小于参考值的可信度,双侧就是不等于了。另外多组检验也有,不展开了。
One-sample t-test:
3)一般用于检测抽样中样本的均值是否能代表总体的情况。
下面说一下费歇尔检验 Ftest(Fisher' test)和卡方检验
一本情况下我们分析一些性状会画一个列联表统计分组样本数,那么什么情况下用F检验呢?
其中三组性状以上我们一般用ANOVA,相对一两样本的T检验,I型错误更少。
再说说卡方检验(chi-squared test),Fisher's exact test理论上能替代卡方检验。一般情况下疾病率要用卡方检验。小样本情况卡方检验误差会有。这里有个卡方检验和方差分析的分类图,大家对照着参考一下就行。。

回复 支持 反对

使用道具 举报

发表于 2025-3-11 21:31 | 显示全部楼层
假设检验是指预先对总体参数的取值做出假定,然后用样本数据来验证,从而做出是接受还是拒绝的结论。
基本思路是:问题是什么?证据是什么?判断依据是什么?做出结论。
基本步骤:1、提出原假设和备择假设
2、确定适当的检验统计量
3、规定显著水平@,查出临界值,确定拒绝域和接受域
4、计算检验统计量的值,做出统计决策。
其中假设检验的种类包括:t检验,Z检验,卡方检验,F检验,ANOVA (方差分析)等等。
方差分析又称“ 变异数分析”,是R.A.Fisher发明的,要求比较的资料服从正态分布,用于两个及两个以上 样本均数差别的显著性检验。方差分析可以用于两样本及以上样本之间的比较。方差分析主要用途:①均数差别的显著性检验,②分离各有关因素并估计其对总变异的作用,③分析因素间的交互作用,④方差齐性检验。
T检验主要用于样本含量较小(例如n<30),要求比较的资料服从正态分布, 总体标准差σ未知的 正态分布资料。t检验只能用于两样本均数及样本均数与总体均数之间的比较。t检验可用于比较男女身高是否存在差别。
Z检验是一般用于大样本(即样本容量大于30)平均值差异性检验的方法。它是用标准正态分布的理论来判断差异发生的概率,从而比较两个平均数>平均数的差异是否显著。
F检验又叫方差齐性检验。在两样本t检验中要用到F检验。从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。其中要判断两总体方差是否相等,就可以用F检验。简单的说就是 检验两个样本的 方差是否有显著性差异 这是选择何种T检验(等方差双样本检验,异方差双样本检验)的前提条件。
T检验与 F检验的差异:T检验用来检测数据的准确度--系统误差;F检验用来检测数据的精密度   偶然误差。
卡方检验就是统计样本的实际观测值与理论推断值之间的偏离程度,实际观测值与理论推断值之间的偏离程度就决定卡方值的大小,如果卡方值越大,二者偏差程度越小;反之,二者偏差越大,若两个值完全相等时,卡方值就为0,表明理论值完全符合。其中卡方检验针对分类变量。
卡方检验就是检验两个变量之间有没有关系。以运营为例:卡方检验可以检验男性或者女性对线上买生鲜食品有没有区别;不同城市级别的消费者对买SUV车有没有什么区别;如果有显著区别的话,我们会考虑把这些变量放到模型或者分析里去。
以下是一个假设检验的应用实例:
例如:某公司想从国外引进一种自动加工装置。这种装置的工作温度X服从正态分布(μ,52),厂方说它的平均工作温度是80度。从该装置试运转中随机测试16次,得到的平均工作温度是83度。该公司考虑,样本结果与厂方所说的是否有显著差异?厂方的说法是否可以接受?
  类似这种根据样本观测值来判断一个有关总体的假设是否成立的问题,就是假设检验的问题。我们把任一关于单体分布的假设,统称为统计假设,简称假设。上例中,可以提出两个假设:一个称为原假设或零假设,记为H0:μ=80(度);另一个称为备择假设或对立假设,记为H1 :μ≠80(度)这样,上述假设检验问题可以表示为:
  H0:μ=80  H1:μ≠80
  原假设与备择假设相互对立,两者有且只有一个正确,备择假设的含义是,一旦否定原假设H0,备择假设H1备你选择。所谓假设检验问题就是要判断原假设H0是否正确,决定接受还是拒绝原假设,若拒绝原假设,就接受备择假设。
  应该如何作出判断呢?如果样本测定的结果是100度甚至更高(或很低),我们从直观上能感到原假设可疑而否定它,因为原假设是真实时,在一次试验中出现了与80度相距甚远的小概率事件几乎是不可能的,而现在竟然出现了,当然要拒绝原假设H0。现在的问题是样本平均工作温度为83度,结果虽然与厂方说的80度有差异,但样本具有随机性,80度与83度之间的差异很可能是样本的随机性造成的。在这种情况下,要对原假设作出接受还是拒绝的抉择,就必须根据研究的问题和决策条件,对样本值与原假设的差异进行分析。若有充分理由认为这种差异并非是由偶然的随机因素造成的,也即认为差异是显著的,才能拒绝原假设,否则就不能拒绝原假设。假设检验实质上是对原假设是否正确进行检验,因此,检验过程中要使原假设得到维护,使之不轻易被否定,否定原假设必须有充分的理由;同时,当原假设被接受时,也只能认为否定它的根据不充分,而不是认为它绝对正确。
回复 支持 反对

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 立即注册 微信登录 手机动态码快速登录

本版积分规则

关闭

官方推荐 上一条 /3 下一条

快速回复 返回列表 客服中心 搜索 官方QQ群 洽谈合作
快速回复返回顶部 返回列表