1.什么是统计学?怎样理解统计学与统计数据的关系?
答:统计学是一门收集、整理、显示和分析统计数据的科学。统计学与统计数据存在密切关系,统计学阐述的统计方法来源于对统计数据的研究,目的也在于对统计数据的研究,离开了统计数据,统计方法以致于统计学就失去了其存在意义。
3.简要说明统计数据的来源
答:统计数据来源于两个方面:直接的数据:源于直接组织的调查、观察和科学实验,在社会经济管理领域,主要通过统计调查方式来获得,如普查和抽样调查。间接的数据:从报纸、图书杂志、统计年鉴、网络等渠道获得。
5.简要说明抽样误差和非抽样误差
答:统计调查误差可分为非抽样误差和抽样误差。非抽样误差是由于调查过程中各环节工作失误造成的,从理论上看,这类误差是可以避免的。抽样误差是利用样本推断总体时所产生的误差,它是不可避免的,但可以控制的。
1.描述次数分配表的编制过程
答:分二个步骤:
(1) 按照统计研究的目的,将数据按分组标志进行分组。
按品质标志进行分组时,可将其每个具体的表现作为一个组,或者几个表现合并成一个组,这取决于分组的粗细。
按数量标志进行分组,可分为单项式分组与组距式分组
单项式分组将每个变量值作为一个组;组距式分组将变量的取值范围(区间)作为一个组。 统计分组应遵循“不重不漏”原则
将数据分配到各个组,统计各组的次数,编制次数分配表。
4.一组数据的分布特征可以从哪几个方面进行测度?
答:数据分布特征一般可从集中趋势、离散程度、偏态和峰度几方面来测度。常用的指标有均值、中位数、众数、极差、方差、标准差、离散系数、偏态系数和峰度系数。
7.简述众数、中位数和均值的特点和应用场合。
答:众数、中位数和均值是分布集中趋势的三个主要测度,众数和中位数是从数据分布形状及位置角度来考虑的,而均值是对所有数据计算后得到的。众数容易计算,但不是总是存在,应用场合较少;中位数直观,不受极端数据的影响,但数据信息利用不够充分;均值数据提取的信息最充分,但受极端数据的影响。
10.为什么要计算离散系数?
答:在比较二组数据的差异程度时,由于方差和标准差受变量值水平和计量单位的影响不能直接比较,由此需计算离散系数作为比较的指标。
以反映一组数据分布的特征,还可以进行多组数据特征的比较。
1.总体分布指某个变量在总体中各个个体上的取值所形成的分布,它是未知的,是统计推断的对象。从总体中随机抽取容量为n的样本x1,x2,,xn,它的分布称为样本分布。由样本的某个函数所形成的统计量fx1,x2,,xn,它的分布称为抽样分布(如样本均值、样本方差的分布)
2.重复抽样和不重复抽样下,样本均值的标准差分别为:
因此不重复抽样下的标准差小于重复抽样下的标准差,两者相差一个调整系数
3.解释中心极限定理的含义
答:在抽样推断中,中心极限定理指出,不论总体服从何种分布,只要其数学期望和方差存在,对总体进行重复抽样时,当样本容量充分大,样本均值趋近于正态分布。中心极限定理为均值的抽样推断奠定了理论基础。
简述评价估计量好坏的标准
答:评价估计量好坏的标准主要有:无偏性、有效性和相合性。设总体参数的
ˆ,称ˆ是无偏估计量;如果ˆ和ˆ,如果Eˆ是无偏估计估计量有ˆ1和12112
ˆ小于Dˆ,则ˆ比ˆ,ˆ更有效;如果当样本容量n,量,且D12112
则ˆ1是相合估计量。
2.说明区间估计的基本原理
答:总体参数的区间估计是在一定的置信水平下,根据样本统计量的抽样分布计算出用样本统计量加减抽样误差表示的估计区间,使该区间包含总体参数的概率为置信水平。置信水平反映估计的可信度,而区间的长度反映估计的精确度。
3.解释置信水平为95%的置信区间的含义
答:总体参数是固定的,未知的,置信区间是一个随机区间。置信水平为95%的置信区间的含义是指,在相同条件下多次抽样下,在所有构造的置信区间里大约有95%包含总体参数的真值。
4.简述样本容量与置信水平、总体方差、允许误差的关系
2z/22答:以估计总体均值时样本容量的确定公式为例:n E2
样本容量与置信水平成正比、与总体方差成正比、与允许误差成反比。
1.理解原假设与备择假设的含义,并归纳常见的几种建立原假设与备择假设的原则.
答:原假设通常是研究者想收集证据予以反对的假设;而备择假设通常是研究者想收集证据予以支持的假设。建立两个假设的原则有:
(1)原假设和备择假设是一个完备事件组。(2)一般先确定备择假设。再确定原假设。(3)等号“=”总是放在原假设上。(4)假设的确定带有一定的主观色彩。(5)假设检验的目的主要是收集证据来拒绝原假设。
2.第一类错误和第二类错误分别是指什么?它们发生的概率大小之间存在怎样的关系?
答:第I类错误指,当原假设为真时,作出拒绝原假设所犯的错误,其概率为。第II类错误指当原假设为假时,作出接受原假设所犯的错误,其概率为。在其他条件不变时,增大,减小;增大,减小。
4.什么是p值?p值检验和统计量检验有什么不同?
答:p值是当原假设为真时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率。P值常常作为观察到的数据与原假设不一致程度的度量。统计量检验采用事先确定显著性水平,来控制犯第一类错误的上限,p值可以有效地补充提供地关于检验可靠性的有限信息。p值检验的优点在于,它提供了更多的信息,让人们可以选择一定的水平来评估结果是否具有统计上的显著性。
5.什么是统计上的显著性?
答:一项检验在统计上是显著的(拒绝原假设),是指这样的(样本)结果不是偶然得到的,或者说,不是靠机遇能够得到的。显著性的意义在于“非偶然的”. 相关分析与回归分析的区别与联系是什么?
答:相关与回归分析是研究变量之间不确定性统计关系的重要方法,相关分析主要是判断两个或两个以上变量之间是否存在相关关系,并分析变量间相关关系的形态和程度。回归分析主要是对存在相关关系的现象间数量变化的规律性作出测度。但它们在研究目的和对变量的处理上有明显区别。它们均是统计方法,不能揭示现象之间的本质关系。
3.什么是总体回归函数和样本回归函数?它们之间的区别是什么?
答:以简单线性回归模型为例,总体回归函数是总体因变量的条件期望表现为自变量的函数:EYXifXiXi,或YiXiui。总体回归函数是确定的和未知的,是回归分析所估计的对象。样本回归函数是根据样本数据所估
ˆx或yˆxe。回归分ˆˆˆi计出的因变量与自变量之间的函数关系:yiiii
析的目的是用样本回归函数来估计总体回归函数。它们的区别在于,总体回归函数是未知但是确定的,而样本回归函数是随样本波动而变化;总体回归函数的参
ˆ是随机变量;总体回归函数中的ˆ,数,是确定的,而样本回归函数的系数
误差项ui不可观察的,而样本回归函数中的残差项ei是可以观察的。
4. 什么是随机误差项和残差?它们之间的区别是什么?
答:随机误差项ui表示自变量之外其他变量的对因变量产生的影响,是不可观察
的,通常要对其给出一定的假设。残差项ei指因变量实际观察值与样本回归函数
计算的估计值之间的偏差,是可以观测的。它们的区别在于,反映的含义是不同且可观察性也不同,它们的联系可有下式:
垐?xu 垐?eiyixixiuixiii
5.为什么在对参数进行最小二乘估计时,要对模型提出一些基本的假定?
答:最小二乘法只是寻找估计量的一种方法,其寻找到的估计量是否具有良好的性质则依赖模型的一些基本的假定。只有在一系列的经典假定下,最小二乘估计量才是BLUE。
15. .为什么在多元回归中要对可决系数进行修正?
答:在样本容量一定下,随着模型中自变量个数的增加,可决系数R2会随之增加,模型的拟合程度上升,但自由度会损失,从而降低推断的精度,因此需要用自由度来修正可决系数,用修正的可决系数来判断增加自变量的合适性。
16.在多元线性回归中,对参数作了t检验后为什么还要作方差分析和F检验? 答:t检验仅是对单个系数的显著性进行检验,由于自变量之间存在着较为复杂的关系,因此有必要对回归系数进行整体检验,方差分析和F检验就是对回归方程的整体统计显著性进行的检验方法。
1.什么是统计学?怎样理解统计学与统计数据的关系?
答:统计学是一门收集、整理、显示和分析统计数据的科学。统计学与统计数据存在密切关系,统计学阐述的统计方法来源于对统计数据的研究,目的也在于对统计数据的研究,离开了统计数据,统计方法以致于统计学就失去了其存在意义。
3.简要说明统计数据的来源
答:统计数据来源于两个方面:直接的数据:源于直接组织的调查、观察和科学实验,在社会经济管理领域,主要通过统计调查方式来获得,如普查和抽样调查。间接的数据:从报纸、图书杂志、统计年鉴、网络等渠道获得。
5.简要说明抽样误差和非抽样误差
答:统计调查误差可分为非抽样误差和抽样误差。非抽样误差是由于调查过程中各环节工作失误造成的,从理论上看,这类误差是可以避免的。抽样误差是利用样本推断总体时所产生的误差,它是不可避免的,但可以控制的。
1.描述次数分配表的编制过程
答:分二个步骤:
(1) 按照统计研究的目的,将数据按分组标志进行分组。
按品质标志进行分组时,可将其每个具体的表现作为一个组,或者几个表现合并成一个组,这取决于分组的粗细。
按数量标志进行分组,可分为单项式分组与组距式分组
单项式分组将每个变量值作为一个组;组距式分组将变量的取值范围(区间)作为一个组。 统计分组应遵循“不重不漏”原则
将数据分配到各个组,统计各组的次数,编制次数分配表。
4.一组数据的分布特征可以从哪几个方面进行测度?
答:数据分布特征一般可从集中趋势、离散程度、偏态和峰度几方面来测度。常用的指标有均值、中位数、众数、极差、方差、标准差、离散系数、偏态系数和峰度系数。
7.简述众数、中位数和均值的特点和应用场合。
答:众数、中位数和均值是分布集中趋势的三个主要测度,众数和中位数是从数据分布形状及位置角度来考虑的,而均值是对所有数据计算后得到的。众数容易计算,但不是总是存在,应用场合较少;中位数直观,不受极端数据的影响,但数据信息利用不够充分;均值数据提取的信息最充分,但受极端数据的影响。
10.为什么要计算离散系数?
答:在比较二组数据的差异程度时,由于方差和标准差受变量值水平和计量单位的影响不能直接比较,由此需计算离散系数作为比较的指标。
以反映一组数据分布的特征,还可以进行多组数据特征的比较。
1.总体分布指某个变量在总体中各个个体上的取值所形成的分布,它是未知的,是统计推断的对象。从总体中随机抽取容量为n的样本x1,x2,,xn,它的分布称为样本分布。由样本的某个函数所形成的统计量fx1,x2,,xn,它的分布称为抽样分布(如样本均值、样本方差的分布)
2.重复抽样和不重复抽样下,样本均值的标准差分别为:
因此不重复抽样下的标准差小于重复抽样下的标准差,两者相差一个调整系数
3.解释中心极限定理的含义
答:在抽样推断中,中心极限定理指出,不论总体服从何种分布,只要其数学期望和方差存在,对总体进行重复抽样时,当样本容量充分大,样本均值趋近于正态分布。中心极限定理为均值的抽样推断奠定了理论基础。
简述评价估计量好坏的标准
答:评价估计量好坏的标准主要有:无偏性、有效性和相合性。设总体参数的
ˆ,称ˆ是无偏估计量;如果ˆ和ˆ,如果Eˆ是无偏估计估计量有ˆ1和12112
ˆ小于Dˆ,则ˆ比ˆ,ˆ更有效;如果当样本容量n,量,且D12112
则ˆ1是相合估计量。
2.说明区间估计的基本原理
答:总体参数的区间估计是在一定的置信水平下,根据样本统计量的抽样分布计算出用样本统计量加减抽样误差表示的估计区间,使该区间包含总体参数的概率为置信水平。置信水平反映估计的可信度,而区间的长度反映估计的精确度。
3.解释置信水平为95%的置信区间的含义
答:总体参数是固定的,未知的,置信区间是一个随机区间。置信水平为95%的置信区间的含义是指,在相同条件下多次抽样下,在所有构造的置信区间里大约有95%包含总体参数的真值。
4.简述样本容量与置信水平、总体方差、允许误差的关系
2z/22答:以估计总体均值时样本容量的确定公式为例:n E2
样本容量与置信水平成正比、与总体方差成正比、与允许误差成反比。
1.理解原假设与备择假设的含义,并归纳常见的几种建立原假设与备择假设的原则.
答:原假设通常是研究者想收集证据予以反对的假设;而备择假设通常是研究者想收集证据予以支持的假设。建立两个假设的原则有:
(1)原假设和备择假设是一个完备事件组。(2)一般先确定备择假设。再确定原假设。(3)等号“=”总是放在原假设上。(4)假设的确定带有一定的主观色彩。(5)假设检验的目的主要是收集证据来拒绝原假设。
2.第一类错误和第二类错误分别是指什么?它们发生的概率大小之间存在怎样的关系?
答:第I类错误指,当原假设为真时,作出拒绝原假设所犯的错误,其概率为。第II类错误指当原假设为假时,作出接受原假设所犯的错误,其概率为。在其他条件不变时,增大,减小;增大,减小。
4.什么是p值?p值检验和统计量检验有什么不同?
答:p值是当原假设为真时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率。P值常常作为观察到的数据与原假设不一致程度的度量。统计量检验采用事先确定显著性水平,来控制犯第一类错误的上限,p值可以有效地补充提供地关于检验可靠性的有限信息。p值检验的优点在于,它提供了更多的信息,让人们可以选择一定的水平来评估结果是否具有统计上的显著性。
5.什么是统计上的显著性?
答:一项检验在统计上是显著的(拒绝原假设),是指这样的(样本)结果不是偶然得到的,或者说,不是靠机遇能够得到的。显著性的意义在于“非偶然的”. 相关分析与回归分析的区别与联系是什么?
答:相关与回归分析是研究变量之间不确定性统计关系的重要方法,相关分析主要是判断两个或两个以上变量之间是否存在相关关系,并分析变量间相关关系的形态和程度。回归分析主要是对存在相关关系的现象间数量变化的规律性作出测度。但它们在研究目的和对变量的处理上有明显区别。它们均是统计方法,不能揭示现象之间的本质关系。
3.什么是总体回归函数和样本回归函数?它们之间的区别是什么?
答:以简单线性回归模型为例,总体回归函数是总体因变量的条件期望表现为自变量的函数:EYXifXiXi,或YiXiui。总体回归函数是确定的和未知的,是回归分析所估计的对象。样本回归函数是根据样本数据所估
ˆx或yˆxe。回归分ˆˆˆi计出的因变量与自变量之间的函数关系:yiiii
析的目的是用样本回归函数来估计总体回归函数。它们的区别在于,总体回归函数是未知但是确定的,而样本回归函数是随样本波动而变化;总体回归函数的参
ˆ是随机变量;总体回归函数中的ˆ,数,是确定的,而样本回归函数的系数
误差项ui不可观察的,而样本回归函数中的残差项ei是可以观察的。
4. 什么是随机误差项和残差?它们之间的区别是什么?
答:随机误差项ui表示自变量之外其他变量的对因变量产生的影响,是不可观察
的,通常要对其给出一定的假设。残差项ei指因变量实际观察值与样本回归函数
计算的估计值之间的偏差,是可以观测的。它们的区别在于,反映的含义是不同且可观察性也不同,它们的联系可有下式:
垐?xu 垐?eiyixixiuixiii
5.为什么在对参数进行最小二乘估计时,要对模型提出一些基本的假定?
答:最小二乘法只是寻找估计量的一种方法,其寻找到的估计量是否具有良好的性质则依赖模型的一些基本的假定。只有在一系列的经典假定下,最小二乘估计量才是BLUE。
15. .为什么在多元回归中要对可决系数进行修正?
答:在样本容量一定下,随着模型中自变量个数的增加,可决系数R2会随之增加,模型的拟合程度上升,但自由度会损失,从而降低推断的精度,因此需要用自由度来修正可决系数,用修正的可决系数来判断增加自变量的合适性。
16.在多元线性回归中,对参数作了t检验后为什么还要作方差分析和F检验? 答:t检验仅是对单个系数的显著性进行检验,由于自变量之间存在着较为复杂的关系,因此有必要对回归系数进行整体检验,方差分析和F检验就是对回归方程的整体统计显著性进行的检验方法。