请使用回归分析解释最后一列和前八列的关系。 7.30 7.80 7.20 7.30 7.70 7.30 8.30 9.60 9.10 9.50 7.80 8.60 8.50 9.20 8.20 7.00 9.70 9.80 8.60 8.80 9.30 7.50 9.00 8.90 9.90 7.20 7.00 7.30 9.00 7.50 9.10 7.60 7.70 7.70 8.10 8.50 9.80 9.20 9.90 8.90 9.90 7.50 8.90 7.70 8.00 8.70 7.40 8.40 7.80 7.60 8.30 9.80 8.80 9.70 8.50 8.90 9.10 9.10 9.20 7.50 9.90 9.90 9.40 9.00 9.80 7.90 9.30 9.70 10.00 7.20 7.10 7.50 9.00 8.50 9.70 8.00 8.30 7.90 8.40 9.60 9.80 9.20 9.90 8.70 10.00 8.50 9.60 8.70 7.10 7.20 7.10 7.20 7.20 7.20 7.70 9.30 8.60 9.00 8.30 7.80 8.10 8.00 7.90 7.10 9.10 9.50 8.20 7.90 9.30 7.20 7.80 8.90 9.70 7.00 7.00 7.10 8.10 7.20 8.60 7.20 7.40 7.30 7.90 8.70 9.70 8.10 9.70 7.90 9.20 7.50 8.80 7.40 7.70 8.40 7.50 7.90 8.40 8.10 8.50 9.80 9.10 9.60 9.10 9.00 9.30 9.40 9.10 7.40 9.70 9.80 9.50 8.50 9.80 8.10 9.10 9.50 9.90 7.90 7.20 7.60 9.10 8.50 9.60 8.90 8.40 8.70 8.90 9.20 9.90 9.60 9.90 9.00 9.90 8.20 9.30 8.50 7.20 7.50 7.20 7.50 7.60 7.30 7.80 8.80 7.80 8.90 8.00 8.00 8.00 8.50 7.80 7.10 9.00 9.00 8.70 8.10 8.70 7.30 8.20 8.60 9.40 7.10 7.00 7.30 7.80 8.00 9.10 7.40 7.50 7.40 7.90 8.40 8.90 8.40 9.10 8.40 9.00 7.50 8.40 7.70 7.20 8.10 7.10 8.50 7.40 7.20 7.80 9.90 9.30 9.80 9.50 8.70 8.30 9.60 8.30 7.10 10.00 10.00 9.80 9.30 10.00 7.70 9.40 9.70 10.00 7.10 7.00 7.90 9.30 8.90 9.90 7.60 8.30 7.70 8.60 9.30 9.90 9.60 10.00 9.70 10.00 8.70 9.90 8.30 7.00 7.30 7.00 7.30 7.10 7.00 7.20 9.40 8.50 9.20 7.60 7.80 7.80 8.60 7.50 7.00 9.60 9.70 8.30 8.00 9.30 7.10 8.10 9.40 9.90 7.00 7.00 7.10 7.70 7.20 9.50 7.10 7.40 7.30 7.70 8.30 9.80 8.80 9.70 8.40 9.30 7.90 9.20 7.30 7.60 7.10 7.00 7.10 7.10 7.00 7.80 10.00 8.50 10.00 7.90 7.80 8.50 8.90 8.20 7.70 9.90 9.90 9.50 9.80 9.30 7.20 8.50 9.20 9.90 7.30 7.00 7.60 7.10 7.60 7.60 7.20 8.50 8.30 7.00 8.70 9.90 9.20 9.80 7.50 8.00 9.40 9.10 7.10 -1.50 -2.57 0.39 -2.45 -0.35 -0.04 -1.70 -5.99 -3.77 -5.93 -3.22 -3.15 -4.07 -4.45 -3.92 -0.54 -5.84 -5.90 -5.48 -4.86 -5.54 -0.88 -3.94 -5.94 -5.89 0.60 0.86 -0.30 -2.33 -2.82 -4.30 -1.08 -2.95 -1.65 -1.98 -4.92 -6.16 -4.99 -5.74 -2.80 -3.45 -4.77 -5.71 -2.72 7.30 7.80 7.20 7.30 7.70 7.30 8.30 9.60 9.10 9.50 7.80 8.60 8.50 9.20 7.30 7.30 8.00 8.70 7.40 8.40 7.80 7.60 8.30 9.80 8.80 9.70 8.50 8.90 9.10 9.10 8.00 8.00 7.10 7.20 7.10 7.20 7.20 7.20 7.70 9.30 8.60 9.00 8.30 7.80 8.10 8.00 7.10 7.10 7.70 8.40 7.50 7.90 8.40 8.10 8.50 9.80 9.10 9.60 9.10 9.00 9.30 9.40 7.70 7.70 7.20 7.50 7.20 7.50 7.60 7.30 7.80 8.80 7.80 8.90 8.00 8.00 8.00 8.50 7.20 7.20 7.20 8.10 7.10 8.50 7.40 7.20 7.80 9.90 9.30 9.80 9.50 8.70 8.30 9.60 7.20 7.20 7.00 7.30 7.00 7.30 7.10 7.00 7.20 9.40 8.50 9.20 7.60 7.80 7.80 8.60 7.00 7.00 7.60 7.10 7.00 7.10 7.10 7.00 7.80 10.00 8.50 10.00 7.90 7.80 8.50 8.90 7.60 7.60 -1.50 -2.57 0.39 -2.45 -0.35 -0.04 -1.70 -5.99 -3.77 -5.93 -3.22 -3.15 -4.07 -4.45 -1.50 -1.50 2、模型的准备
多元统计分析是运用数理统计方法来研究解决多指标问题的理论和方法。并通过计算机对相关的数据进行分析得到相应的结果。本文通过建立多元统计分析方法中的多元回归分析模型并使用SPSS软件来分析数据得到多元回归方程。 2.1 多元回归分析原理与模型
回归分析是一种处理变量的统计相关关系的一种数理统计方法。回归分析的基本思想是: 虽然自变量和因变量之间没有严格的、确定性的函数关系, 但可以设法找出最能代表它们之间关系的数学表达形式。
回归分析主要解决以下几个方面的问题:
(1)、确定几个特定的变量之间是否存在相关关系, 如果存在的话, 找出它们之间合适的数学表达式;
(2)、根据一个或几个变量的值, 预测或控制另一个变量的取值, 并且可以知道这种预测或控制能达到什么样的精确度;
(3)、进行因素分析。例如在对于共同影响一个变量的许多变量(因素)之间, 找出哪些是重要因素, 哪些是次要因素, 这些因素之间又有什么关系等等。
多元回归分析是研究多个变量之间关系的回归分析方法, 按因变量和自变量的数量对应关系可划分为一个因变量对多个自变量的回归分析(简称为“一对多”回归分析)及多个因变量对多个自
变量的回归分析(简称为“多对多”回归分析), 按回归模型类型可划分为线性回归分析和非线性回归分析。
设随机变量y与m个自变量 回归方程, 式中
现在解决用且假定的待定常数。
设有n组样本观测数据:
其中xij表示xj在第i次的观测值, 于是有:
,
存在线性关系:
(1) (1)式称为
为回归系数, 为随机误差。
估计y的均值
,
的问题, 即
是与
无关
其中布
为m+1个待定参数,
(2)
为n个相互独立的且服从同一正态分
的随机变量, (2)式称为多元(元)线性回归的数学模型。
(2)式亦可写成矩阵形式, 设 则(2)式变为:
(3)
, , ,
(3)式称为多元线性回归模型的矩阵形式。
用最小二乘法估计参数(0,1,……,m),使残差平方和
SEEi(y10xi11xi2...mxim)^2 (4)
2i1i1nn达到最小,根据微积分中求极值的原理,SSE分别对0,1,……m求偏微商,经整理后用矩阵形式表示为
X(yX)0 (5) 直接用矩阵运算求解为
b(XTX)1XTy (6) 从而得多元线性经验回归方程
y01x12x2...mxm (7)
回归方程建立后要对回归模型进行检验,一般包括一级检验和二级检验。一级检验又称统计学检验,主要是利用统计学的抽样理论来检验样本回归方程的可靠性,具体分为拟合优度评价和显著性检验;二级检验又称经济计量学检验,它是对线性回归模型的假定条件能否得到满足进行检验,包括残差正态性检验和序列相关检验等。
对被解释变量进行方差分析,得到方差分析表,见表1。 方差来源 解释变量 离差平方和 T自由度 K-1 均方差 F值 MSR=SSR/(K-1) F=MSR/MSE 剩余变量 总变量 N-K MSE=SSE/(N-K) 表1 回归模型方差分析表
其中SST=SSR+SSE,SST 称为总离差平方和,反映被解释变量的总变动;SSR 称为回归平方和,反映了被解释变量的总变动中能够被回归方程解释的部分;SSE 称为残差平方和,反映了被解释变量的总变动中由随机因素引起的变动,即不能被回归方程解释的部分。 回归方程的拟合优度评价可用决定系数来衡量,反映因变量y 的全部变异中能够通过回归关系被自变量解释的比例。即解释变差占总变差的比重:
R2SSRSSE1 (8) SSTSST 对回归方程整体显著性进行检验可建立如下假设:
H0:12...m0,即回归方程整体不显著;
H1:j不全等于0(j=1,2...m),即回归方程整体显著。
由表1中的F 统计量及其对应的显著水平p 来进行检验。若p 小于要求的显著水平,则拒绝原假设,可以认为回归方程总体显著;反之不能拒绝原假设,应认为回归方程总体不显著。
对回归系数的显著性检验可以建立假设:
H0:j0(j=1,2...m),即第j个回归系数不显著; H1:j0(j=1,2...m),即第j 个回归系数显著;
构造t统计量:tjnj (9)
xj)2(xi1ij 其中 (yy)iii1n2n2 (10)
由计算出的t统计量及其对应的显著水平p来进行检验。若p小于要求的显著水平,则拒绝原假设,可以认为第j个回归系数显著;若p大于要求的显著水平则不能拒绝原假设,应认为第j个回归系数不显著。 2.2 SPSS简介
SPSS( Statistical Package for the Social Science) 社会科学统计软件包是世界最著名的统计分析软件之一。该软件包理论严谨, 各种统计分析功能齐全, 其内容覆盖了从描述统计、探索性数据分析到多元分析的几乎所有统计分析功能, 目前已经在国内逐渐流行起来。SPSS 的基木功能包括数据管理、统计分析、图表分析、输出管理等等。SPSS 统计分析过程包括描述性统计、均值比较、一般线性模型、相关分析、回归分析、对数线性模型、聚类分析、数据简化、生存分析、时间序列分析、多重响应等几大类。每类中又分好几个统计过程, 比如回归分析中又分线性回归分析、曲线估计、Logistic 回归、Probit 回归、加权估计、两阶段最小二乘法、非线性回归等多个统计过程, 而且每个过程中又允许用户选择不同的方法及参数。
SPSS软件多元线性回归操作步骤如下:
(1)多元线性回归所用命令语句与一元线性回归相同,同样可以通过单击主菜单Analyze / Regression / Linear…,进入设置对话框如图1所示。从左边变量表列中把因
变量选入到因变量(Dependent)框中,把自变量选入到自变量(Independent)框中。
图1
(2)点击Method后面的下拉框,在Method框中选择一种回归分析的方 SPSS提供下列几种变量进入回归方程的方法:
·Enter选项,强行进入法,即所选择的自变量全部进入回归模型,该选项是默认方式。 ·Remove选项,消去法,建立回归方程时,根据设定的条件剔除部分自变量。
·Forward选项,向前选择法,根据在Option对话框中所设定的判据,从无自变量开始,在拟合过程中,对被选择的自变量进行方差分析,每次加入一个F值最大的变量,直到所有符合判据的变量都进入模型为止。第一个引入回归模型的变量应该与因变量相关程度最大。 ·Backward选项,向后剔除法,根据在Option对话框中所设定的判据,先建立全模型,然后根据设置的判据,每次剔除一个使方差分析中的F值最小的自变量,直到回归方程中不再含有不符合判据的自变量为止。
·Stepwise选项,逐步进入法,是向前选择法和向后剔除法的结合。根据在Option对话框中所设定的判据,首先根据方差分析结果选择符合判据的自变量且对因变量贡献最大的进入回归方程。根据向前选择法则进入自变量;然后根据向后剔除法,将模型中F值最小的且符合剔除判据的变量剔除模型,重复进行直到回归方程中的自变量均符合进入模型的判据,模型外的自变量都不符合进入模型的判据为止。
这里我们采用系统默认的强行进入法,其他选项均采用系统默认的设置。 (3)点击OK,得到上面定义模型的输出结果。
3、模型的建立和求解
在SPSS回归分析中,首先对SPSS Data Editor中录入变量值,然后选择菜单栏中的Analyze->Regression->Linear后出现以下界面图2,然后在Dependent中转入因变量y,在Indepents(s)中转入x向量组。为了获得相应有分析数据,我们可以在Statistics面板中选择相应,如下图3是本次分析所使用的操作,按继续返回原来界面,再选择OK键就分析完毕。结果图表如4所示。
图2 图3 Variables Entered/Removed Variables Model 1 Variables Entered x8, x4, x6, x3, x2, x1, x5, x7 a. All requested variables entered. abRemoved Method . Enter Variables Entered/Removed Variables Model 1 Variables Entered x8, x4, x6, x3, x2, x1, x5, x7 b. Dependent Variable: y babRemoved Method . Enter Model Summary Std. Error of the Model 1 R .993 aR Square .986 Adjusted R Square .984 Estimate .26182 Durbin-Watson 2.081 a. Predictors: (Constant), x8, x4, x6, x3, x2, x1, x5, x7 b. Dependent Variable: y bANOVA Model 1 Regression Residual Total Sum of Squares 248.190 3.496 251.686 df 8 51 59 Mean Square 31.024 .069 F 452.557 Sig. .000 a a. Predictors: (Constant), x8, x4, x6, x3, x2, x1, x5, x7 b. Dependent Variable: y a Coefficients Standardized Unstandardized Coefficients Model 1 (Constant) x1 x2 x3 x4 x5 x6 x7 x8 a. Dependent Variable: y B 15.675 .724 -1.939 .352 -.350 .803 -.566 -.235 -.884 Std. Error .586 .130 .134 .144 .147 .207 .090 .157 .060 .322 -.775 .143 -.131 .252 -.290 -.109 -.445 Coefficients Beta t 26.733 5.578 -14.521 2.454 -2.384 3.883 -6.259 -1.493 -14.850 Sig. .000 .000 .000 .018 .021 .000 .000 .142 .000 a Residuals Statistics Predicted Value Residual Std. Predicted Value Minimum -6.1254 -.38010 -1.471 Maximum .7499 1.00983 1.881 Mean -3.1090 .00000 .000 Std. Deviation 2.05100 .24343 1.000 N 60 60 60 Std. Residual a. Dependent Variable: y -1.452 3.857 .000 .930 60 图4
4 总结
参 考 文 献
[1] 姜启源 谢金星 叶 俊编.数学模型(第三版)[M].北京:高等教育出版社,2005 [2] 何晓群 刘文卿 应用回归分析(第三版)[M].北京:中国人民大学出版社,2011 [2] 庞皓 计量经济学 (第二版) [M].北京;科学出版社;2010
因篇幅问题不能全部显示,请点此查看更多更全内容