spss结果中,F值,t值及其显著性(sig)的解释
- 格式:doc
- 大小:12.00 KB
- 文档页数:3
s p s s结果中F值t值及其显著性s i g的解释Document serial number【NL89WT-NY98YT-NC8CB-NNUUT-NUT108】spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(si g)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,H o)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显着性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在着差异呢会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显着性sig值)下会得到目前的结果。
若显着性sig值很少,比如<(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麽就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
spss结果中,F值,t值及其显著性〔sig〕的解释用spss处理完数据的显示结果中,F值,t值及其显著性〔sig〕都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比拟,我们可以知道在多少%的时机下会得到目前的结果。
倘假设经比拟后发现,出现这结果的机率很少,亦即是说,是在时机很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,假设比拟后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性〔sig〕就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比方,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差异是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差异,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差异」作根底的随机变量t分布进行比拟,看看在多少%的时机(亦即显著性sig值)下会得到目前的结果。
假设显著性sig值很少,比方<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差异,那麼就只有在时机很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%时机出错,但我们还是可以「比拟有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设n ull hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中-F值-t值及其显著性(sig)的解释
spss结果中,F值,t值及其显著性(sig)的解释
用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设n ull hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显着性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
s p s s结果中F值t值及其显著性s i g的解释集团企业公司编码:(LL3698-KKI1269-TM2483-LUI12689-ITT289-spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probabilitydistribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设nullhypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F 分布和t分布。
统计显着性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t 检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在着差异呢?会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显着性sig值)下会得到目前的结果。
若显着性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麽就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
spss结果中,F值,t值及其显著性sig的解释在进行数据分析时,尤其是使用 SPSS 这样的统计软件,我们经常会遇到 F 值、t 值以及显著性 sig 这些概念。
对于初学者来说,理解它们可能会有些困难,但其实只要掌握了一些基本的原理和方法,就不难搞清楚它们的含义和作用。
首先,咱们来说说F 值。
F 值通常出现在方差分析(ANOVA)中。
简单来讲,方差分析就是用来比较两个或多个组的均值是否存在显著差异的一种方法。
那么 F 值是怎么来的呢?想象一下,我们有几个不同的组,每个组里都有一些数据。
组内的数据会有差异,这叫做组内变异;而不同组之间的数据也会有差异,这叫做组间变异。
F 值就是组间变异与组内变异的比值。
如果F 值很大,那就意味着组间变异相对于组内变异来说非常显著。
这就提示我们,不同组之间的均值很可能存在着真正的差异,而不仅仅是由于随机误差导致的。
相反,如果 F 值很小,那就说明组间变异和组内变异差不多,也就是说不同组之间的均值差异可能只是随机因素造成的,并非实质上的差异。
举个例子,假设我们想研究不同教学方法对学生成绩的影响。
我们把学生分成三组,分别采用不同的教学方法。
通过计算 F 值,我们可以判断这三种教学方法是否真的对学生的成绩产生了不同的效果。
接下来,再聊聊 t 值。
t 值主要用于 t 检验,包括独立样本 t 检验和配对样本 t 检验。
独立样本 t 检验是用来比较两个独立的组的均值是否有差异。
比如说,我们想比较男生和女生的身高是否不同,就可以用独立样本 t 检验。
配对样本 t 检验则是用于比较同一组对象在不同时间或不同条件下的均值差异。
比如,一组病人在接受治疗前后的血压变化,就可以通过配对样本 t 检验来分析。
t 值反映的是样本均值与总体均值之间的差异程度。
t 值越大,说明样本均值与总体均值的差异越显著。
具体来说,如果 t 值很大,并且对应的显著性 sig 很小(通常小于005),我们就可以有把握地认为样本所代表的总体均值与我们假设的总体均值存在显著差异。
spss结果中,F值,t值及其显著性sig的解释spss 结果中,F 值、t 值及其显著性 sig 的解释在进行数据分析时,我们常常会遇到SPSS 软件给出的一系列结果,其中 F 值、t 值以及显著性 sig 是非常重要的指标。
这些指标对于我们理解数据之间的关系、判断假设的成立与否以及得出有意义的结论都起着关键作用。
接下来,让我们用通俗易懂的方式来深入了解一下它们。
首先,我们来谈谈F 值。
F 值通常出现在方差分析(ANOVA)中。
方差分析主要用于比较两个或多个组之间的均值是否存在显著差异。
那么,F 值到底是怎么来的呢?简单来说,它是通过比较组间方差和组内方差得到的。
组间方差反映了不同组之间的差异程度,组内方差则反映了组内个体之间的差异程度。
如果组间方差相对于组内方差足够大,那么 F 值就会较大,这意味着不同组之间的均值差异很可能不是由随机因素造成的,而是存在真正的差异。
举个例子,假如我们想研究不同教学方法对学生成绩的影响,将学生分为 A、B、C 三种不同的教学方法组。
通过计算,我们得到了一个F 值。
如果这个 F 值较大,并且对应的显著性 sig 小于我们设定的阈值(通常是 005),那么我们就可以得出结论:这三种教学方法对学生成绩的影响是显著不同的。
接下来,我们说说 t 值。
t 值主要用于两个总体均值的比较,比如独立样本 t 检验和配对样本 t 检验。
在独立样本 t 检验中,我们比较两个独立组的均值。
t 值的计算考虑了两组数据的均值差异、标准差以及样本量等因素。
如果 t 值较大,且对应的显著性 sig 较小,就表明这两个组的均值存在显著差异。
比如说,我们想比较男性和女性的平均身高。
通过收集数据和计算,得到一个 t 值。
如果这个 t 值对应的显著性 sig 小于 005,我们就可以说男性和女性的平均身高有显著差异。
在配对样本 t 检验中,我们比较的是同一组对象在不同条件下的均值差异。
例如,测量一组学生在接受培训前后的成绩,看看培训是否有效果。
spss结果中,F值,t值及其显著性sig的解释SPSS 结果中,F 值、t 值及其显著性 sig 的解释在进行数据分析时,尤其是运用 SPSS 这样的统计软件,我们常常会遇到 F 值、t 值以及显著性 sig 这些概念。
对于初学者来说,理解它们可能会有些困难,但一旦掌握,就能更好地解读数据和得出有意义的结论。
首先,咱们来说说F 值。
F 值通常出现在方差分析(ANOVA)中。
简单来讲,方差分析是用来比较两个或多个组的均值是否有显著差异。
那么 F 值是怎么来的呢?它其实是组间变异与组内变异的比值。
组间变异反映的是不同组之间的差异,组内变异则反映的是每组内部的差异。
如果F 值较大,就意味着组间变异相对于组内变异来说比较大,这就暗示着不同组的均值很可能存在显著差异。
举个例子,假设我们想研究不同教学方法对学生成绩的影响。
我们把学生分成三组,分别采用方法 A、方法 B 和方法 C 进行教学。
通过计算,得到了一个 F 值。
如果这个 F 值很大,那就说明这三种教学方法导致的学生平均成绩很可能是不一样的。
接下来,咱们聊聊 t 值。
t 值常见于 t 检验中,t 检验主要用于比较两组数据的均值是否有差异。
比如说,我们想知道男生和女生在某门课程上的平均成绩是否不同,这时候就可以用 t 检验。
计算得出的 t 值反映了两组均值差异的大小。
t 值的大小与两组均值的差异以及样本的标准差有关。
如果 t 值较大,就说明两组均值的差异在统计上很可能是显著的。
那什么是显著性 sig 呢?显著性 sig 其实就是用来判断我们观察到的差异到底是真实存在的,还是仅仅由于随机因素造成的。
通常,我们会设定一个显著性水平,比如 005 或者 001。
如果 sig值小于我们设定的显著性水平,就说明差异是显著的;反之,如果 sig值大于设定的显著性水平,就说明差异不显著,可能只是随机误差导致的。
比如说,我们得到的 sig 值是 003,而我们设定的显著性水平是 005,那么这就意味着我们观察到的差异是具有统计学意义的,不是偶然发生的。
精心整理spss结果中,F值,t值及其显着性(sig)的解释
用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我
(prob abilitydistribution)
义的(
F值和与它们相对应的概率分布,就是F分布和t分
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,
比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,
但这差别是否能推论至总体,代表总体的情况也是存在着差异呢?
会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同?
为此,我们进行t检定,算出一个t检定值,
与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,
看看在多少%的机会(亦即显着性sig
若显着性sig值很少,比如<0.05(
只有在机会很少(5%)
虽然还是有5%
)不是巧合,是具统计学意义的,异。
每一种统计方法的检定的内容都不相同,
同样是t-检定,可能是上述的检定总体中是否存在差异,
也同能是检定总体中的单一值是否等於0或者等於某一个数值。
至於F-检定,方差分析(或译变异数分析,AnalysisofVariance),
它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。
它主要用于:均数差别的显着性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(EqualityofVariances)检验等情况。
spss结果中,F值,t值及其显著性(sig)的解释之樊仲川亿创作用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们即可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,其实不罕见;那我们便不克不及很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比方,你要检验两独立样本均数差别是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数其实不相同,但这不同是否能推论至总体,代表总体的情况也是存在著差别呢?会不会总体中男女生根本没有不同,只不过是你那麼巧抽到这2样本的数值分歧?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没不同」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比方<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有不同,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差别的情况)不是巧合,是具统计学意义的,「总体中男女生不存差别」的虚无假设应予拒绝,简言之,总体应该存在著差别。
spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显着性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中F值t值及其显著性sig的解释文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]@ ©spss结果中,F值,t值及其显着性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,岀现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis, Ho) o相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显着性(sig)就是出现目前样木这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如〈(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
spss结果中,F值,t值及其显着性sig的解释用spss处理完数据的显示结果中,F值,t值及其显着性sig都分别是解释什么的一般而言,为了确定从样本sample统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定;通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布probability distribution进行比较,我们可以知道在多少%的机会下会得到目前的结果;倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho;相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定;F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布;统计显着性sig就是出现目前样本这结果的机率;至於具体要检定的内容,须看你是在做哪一个统计程序;举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验;两样本如某班男生和女生某变量如身高的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会亦即显著性sig值下会得到目前的结果;若显著性sig值很少,比如<少於5%机率, 亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少5%、很罕有的情况下,才会出现目前这样本的情况; 虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况男女生出现差异的情况不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异;每一种统计方法的检定的内容都不相同, 同样是t-检定,可能是上述的检定总体中是否存在差异, 也同能是检定总体中的单一值是否等於0或者等於某一个数值;至於F-检定,方差分析或译变异数分析,Analysis of Variance, 它的原理大致也是上面说的,但它是透过检视变量的方差而进行的; 它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性Equality of Variances检验等情况;。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少xx5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,xx,总体应该存在著差异。
s p s s结果中,F值,t值及其显着性(s i g)的解释用spss处理完数据的显示结果中,F值,t值及其显着性(sig)都分别是解释什么的?
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(prob abilitydistribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设nullhypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显着性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,
比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,
但这差别是否能推论至总体,代表总体的情况也是存在着差异呢?
会不会总体中男女生根本没有差别,只不过是你那麽巧抽到这2样本的数值不同?
为此,我们进行t检定,算出一个t检定值,
与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显着性sig值)下会得到目前的结果。
若显着性sig值很少,比如<0.05(少於5%机率),
亦即是说,「如果」总体「真的」没有差别,那麽就
只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:
目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在着差异。
每一种统计方法的检定的内容都不相同,
同样是t-检定,可能是上述的检定总体中是否存在差异,
也同能是检定总体中的单一值是否等於0或者等於某一个数值。
至於F-检定,方差分析(或译变异数分析,AnalysisofVariance),
它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。
它主要用于:均数差别的显着性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(EqualityofVariances)检验等情况。