《SPSS统计分析 第六章 回归分析.ppt》由会员分享,可在线阅读,更多相关《SPSS统计分析 第六章 回归分析.ppt(47页珍藏版)》请在三一办公上搜索。
1、第六章 回归分析,变量之间的联系,确定型的关系:指某一个或某几个现象的变动必然会引起另一个现象确定的变动,他们之间的关系可以使用数学函数式确切地表达出来,即y=f(x)。当知道x的数值时,就可以计算出确切的y值来。如圆的周长与半径的关系:周长=2r。非确定关系:例如,在发育阶段,随年龄的增长,人的身高会增加。但不能根据年龄找到确定的身高,即不能得出11岁儿童身高一定就是1.40米公分。年龄与身高的关系不能用一般的函数关系来表达。研究变量之间既存在又不确定的相互关系及其密切程度的分析称为相关分析。,回归分析,如果把其中的一些因素作为自变量,而另一些随自变量的变化而变化的变量作为因变量,研究他们之
2、间的非确定因果关系,这种分析就称为回归分析。回归分析是研究一个自变量或多个自变量与一个因变量之间是否存在某种线性关系或非线性关系的一种统计学方法。,线性回归分析;曲线回归分析;二维Logistic回归分析;多维Logistic回归分析;概率单位回归分析;非线性回归分析;权重估计分析;二阶段最小二乘分析;最优编码回归。,一、线性回归,(一)一元线性回归方程直线回归分析的任务就是根据若干个观测(xi,yi)i=1n找出描述两个变量x、y之间关系的直线回归方程y=a+bx。y是变量y的估计值。求直线回归方程y=a+bx,实际上是用回归直线拟合散点图中的各观测点。常用的方法是最小二乘法。也就是使该直线
3、与各点的纵向垂直距离最小。即使实测值y与回归直线y之差的平方和(y-y)2达到最小。(y-y)2也称为剩余(残差)平方和。因此求回归方程y=a+bx的问题,归根到底就是求(y-y)2取得最小值时a和b的问题。a称为截距,b为回归直线的斜率,也称回归系数。,1、一元线性回归方程的适用条件,线形趋势:自变量与因变量的关系是线形的,如果不是,则不能采用线性回归来分析。独立性:可表述为因变量y的取值相互独立,它们之间没有联系。反映到模型中,实际上就是要求残差间相互独立,不存在自相关。正态性:自变量x的任何一个线形组合,因变量y均服从正态分布,反映到模型中,实际上就是要求随机误差项i服从正态分布。方差齐
4、性:自变量的任何一个线形组合,因变量y的方差均齐性,实质就是要求残差的方差齐。,2、一元线性回归方程的检验,检验的假设是总体回归系数为0。另外要检验回归方程对因变量的预测效果如何。(1)回归系数的显著性检验对斜率的检验,假设是:总体回归系数为0。检验该假设的t值计算公式是;t=b/SEb,其中SEb是回归系数的标准误。对截距的检验,假设是:总体回归方程截距a=0。检验该假设的t值计算公式是:t=a/SEa,其中SEa是截距的标准误。,(2)R2判定系数,在判定一个线性回归直线的拟合度的好坏时,R2系数是一个重要的判定指标。R2判定系数等于回归平方和在总平方和中所占的比率,即R2体现了回归模型所
5、能解释的因变量变异性的百分比。如果R2=0.775,则说明变量y的变异中有77.5是由变量X引起的。当R21时,表示所有的观测点全部落在回归直线上。当R2=0时,表示自变量与因变量无线性关系。为了尽可能准确的反应模型的拟合度,SPSS输出中的Adjusted R Square是消除了自变量个数影响的R2的修正值。,(3)方差分析,体现因变量观测值与均值之间的差异的偏差平方和SSt是由两个部分组成:SSt=SSrSSeSSr:回归平方和,反应了自变量X的重要程度;SSe:残差平方和,它反应了实验误差以及其他意外因素对实验结果的影响。这两部分除以各自的自由度,得到它们的均方。统计量F=回归均方残差
6、均方。当 F值很大时,拒绝接受b=0的假设。,(4)DurbinWatson检验,在对回归模型的诊断中,有一个非常重要的回归模型假设需要诊断,那就是回归模型中的误差项的独立性。如果误差项不独立,那么对回归模型的任何估计与假设所作出的结论都是不可靠的。其参数称为DW或D。D的取值范围是0D4,统计学意义如下:当残差与自变量互为独立时D2;当相邻两点的残差为正相关时,D2,(5)残差图示法,在直角坐标系中,以预测值y为横轴,以y与y之间的误差et为纵轴(或学生化残差与拟和值或一个自变量),绘制残差的散点图。如果散点呈现出明显的规律性则,认为存在自相关性或者非线性或者非常数方差的问题。,(二)多元线
7、性回归,多元线性回归:根据多个自变量的最优组合建立回归方程来预测因变量的回归分析称为多元回归分析。多元回归分析的模型为:y=b0+b1x1+b2x2+bnxn 其中y为根据所有自变量x计算出的估计值,b0为常数项,b1、b2 bn称为y对应于x1、x2 xn的偏回归系数。偏回归系数表示假设在其他所有自变量不变的情况下,某一个自变量变化引起因变量变化的比率。多元线性回归模型也必须满足一元线性回归方程中所述的假设理论。,2.多元线性回归分析中的参数,(l)复相关系数 R复相关系数表示因变量 xi 与他的自变量y之间线性相关密切程度的指标,复相关系数使用字母R表示。复相关系数的取值范围在01之间。其
8、值越接近1表示其线性关系越强,越接近0表示线性关系越差。,(2)R2判定系数与经调整的判定系数,与一元回归方程相同,在多元回归中也使用判定系数R2来解释回归模型中自变量的变异在因变量变异中所占比率。但是,判定系数的值随着进入回归方程的自变量的个数(或样本容量的大小n)的增加而增大。因此,为了消除自变量的个数以及样本量的大小对判定系数的影响,引进了经调整的判定系数(Adjusted R Square)。,K为自变量的个数,n为观测量数目。自变量的个数大于1时,其值小于判定系数。自变量个数越多,与判定系数的差值越大。,(3)零阶相关系数、部分相关与偏相关系数,零阶相关系数(ZeroOrder)计算
9、所有自变量与因变量之间的简单相关系数。部分相关(Part Correlation)表示:在排除了其他自变量对 xi的影响后,当一个自变量进入回归方程模型后,复相关系数的平均增加量。偏相关系数(Partial Correlation)表示:在排除了其他变量的影响后;自变量 Xi与因变量y之间的相关程度。部分相关系数小于偏相关系数。偏相关系数也可以用来作为筛选自变量的指标,即通过比较偏相关系数的大小判别哪些变量对因变量具有较大的影响力。,3、多元线性回归分析的检验,建立了多元回归方程后,需要进行显著性检验,以确认建立的数学模型是否很好的拟和了原始数据,即该回归方程是否有效。利用残差分析,确定回归方
10、程是否违反了假设理论。对各自变量进行检验。其假设是总体的回归方程自变量系数或常数项为0。以便在回归方程中保留对因变量y值预测更有效的自变量。以便确定数学模型是否有效。,(l)方差分析,多元回归方程也采用方差分析方法对回归方程进行检验,检验的H0假设是总体的回归系数均为0(无效假设),H1假设是总体的回归系数不全为0(备选假设)。它是对整个回归方程的显著性检验。使用统计量F进行检验。原理与一元回归的方程分析原理相同。,(2)偏回归系数与常数项的检验,在多元回归分析中,可能有的自变量对因变量的影响很强,而有的影响很弱,甚至完全没有作用,这样就有必要对自变量进行选择,使回归方程中只包含对因变量有统计
11、学意义的自变量;检验的假设是:各自变量回归系数为0,常数项为0。它使用的统计量是t;t=偏回归系数/偏回归系数的标准误,(3)方差齐性检验,方差齐性是指残差的分布是常数,与预测变量或因变量无关。即残差应随机的分布在一条穿过0点的水平直线的两侧。在实际应用中,一般是绘制因变量预测值与学生残差的散点图。在线性回归Plots对话框中的源变量表中,选择SRESID(学生氏残差)做Y轴;选择ZPRED(标准化预测值)做X轴就可以在执行后的输出信息中显示检验方差齐性的散点图。,共线性诊断,在回归方程中,虽然各自变量对因变量都是有意义的,但某些自变量彼此相关,即存在共线性的问题。给评价自变量的贡献率带来困难
12、。因此,需要对回归方程中的变量进行共线性诊断;并且确定它们对参数估计的影响。当一组自变量精确共线性时,必须删除引起共线性的一个和多个自变量,否则不存在系数唯一的最小二乘估计。因为删除的自变量并不包含任何多余的信息,所以得出的回归方程并没有失去什么。当共线性为近似时,一般是将引起共线性的自变量删除,但需要掌握的原则是:务必使丢失的信息最少。,进行共线性论断常用的参数有,(l)容许度(Tolerance)在只有两个自变量的情况下,自变量X1与X2之间共线性体现在两变量间相关系数r12上。精确共线性时对应r1221,当它们之间不存在共线性时r1220。r122越接近于1,共线性越强。多于两个自变量的
13、情况,Xi与其他自变量X之间的复相关系数的平方体现其共线性,称它为Ri2。它的值越接近1,说明自变量之间的共线性程度越大。,容许度定义为Tolil一Ri2当容许度的值较小时,自变量Xi 与其他自变量X之间存在共线性。使用容许度作为共线性量度指标的条件是,观测量应大致近似于正态分布,但在大多数情况下观测量的正态分布的假设是不被接受的。而且,由于容许度中相关系数对极端值极为敏感,所以用它来作为共线性的量度指标是不适合的。,(2)方差膨胀因子(VIF)方差膨胀因于(VIF)定义为 VIF1/(l一Ri2),即它是容许度的倒数。它的值越大,自变量之间存在共线性的可能性越大。(3)条件参数(Condit
14、ion Index)条件参数是在计算特征值时产生的一个统计量,其具体含义尚不大清楚,但己经提出一些原则:其数值越大,说明自变量之间的共线性的可能性越大;有些学者提议,条件参数30时认为有共线性存在的可能性,但理论上并没有得到证明。特征值(Eigenvalue)如果很小,就应该怀疑共线性的存在。,例 题,Data09-03美国某银行雇员情况调查,建立一个使用初始工资(salbegin)、工作经验(prevexp)、工作时间(jobtime)、工作类型(jobcat)、受教育年限(educ)预测当前工资(salary)的回归方程。,1变量间线性关系的初步探索,在获得数据后,应将所得到的数据绘图,探
15、索因变量随自变量变化的趋势。以便确定数据是否适合线性模型。如果数据之间大致呈线性关系,可以建立线性回归方程。如果图中数据不呈线性分布,那么还可以根据其他回归方程模型的观测量分布图形特点以及建立各方程后所得的判定系数R2进行比较后确定一种最佳模型。见曲线拟合及非线性回归。通过散点图还可以发现奇异值,如图中画圈的观测值要认真检查数据的合理性。,2、选择自变量和因变量,3、选择回归分析方法,Enter选项,强行进入法,即所选择的自变量全部进人回归模型,该选项是默认方式。Remove选项,消去法,建立的回归方程时,根据设定的条件剔除部分自变量。,Forward选项,向前选择法,根据在option对话框
16、中所设定的判据,从无自变量开始。在拟合过程中,对被选择的自变量进行方差分析,每次加入一个F值最大的变量,直至所有符合判据的变量都进入模型为止。第一个引入归模型的变量应该与因变量间相关系数绝对值最大。,Backward选项,向后剔除法,根据在option对话框中所设定的判据,先建立全模型,然后根据设置的判据,每次剔除一个使方差分析中的F值最小的自变量,直到回归方程中不再含有不符合判据的自变量为止。,Stepwise选项,逐步进入法,它是向前选择变量法与向后剔除变量方法的结合。根据在 option对话框中所设定的判据,首先根据方差分析结果选择符合判据的自变量且对因变量贡献最大的进入回归方程。根据向
17、前选择变量法则选入变量。然后根据向后剔除法,将模型中F值最小的且符合剔除判据的变量剔除出模型,重复进行直到回归方程中的自变量均符合进入模型的判据,模型外的自变量都不符合进入模型的判据为止。,4、选择参与回归的观测量,根据变量值选择参与回归分析的观测量,将作为参照的变量进入 Selection Variable框中,单击 Rule按钮。打开 Set Rule对话框。,5、Statistics按钮,Estimates:输出回归系数B、B的标准误、标准回归系数beta、B的t值及t值的双侧检验的显著性水平;Confidence interval:输出每一个非标准化回归系数95的可信区间;Covari
18、ance maxtrix:输出非标准化回归系数的协方差矩阵、各变量的相关系数矩阵;,Model fit(模型拟合):输出引入模型与从模型中剔除的变量,提供复相关系数R,R2及其修正值,估计值的标准误,方差分析表;R squared change:表示回归方差中引入或剔除一个自变量后的R2变化量;Descriptives:输出合法观测量的数目、变量的平均值、标准差、相关系数矩阵和单侧检验显著性水平,Part and partial correlations:输出部分相关系数、偏相关系数、零阶相关系数;Collinearity diagnostics:输出方差膨胀因子及特征值;DurbinWats
19、on:输出DurbinWatson统计量及可能的奇异值;Casewise diagnostics:输出观测量检测表;,6、plot按钮,Dependent:因变量;ZPRED:标准化预测值ZRESID:标准化残差DRESID:剔除残差ADJPRED:修正后预测值SRESID:学生化残差SDRESID:学生化剔除残差,Histogrom:输出带有正态曲线的标准化残差的直方图;Normal probability plot:残差的正态概率图,检查残差的正态性;Produce all partial plots:输出一个自变量残差相对于因变量残差的散布图。,Option按钮,Stepping met
20、hod criteria(设置变量引入模型或从模型中剔除的判据)Use probability of F:采用F概率作为变量引入模型或从模型中剔除的判据。Entry:0.05当一个变量的sigT值0.05时该变量被引入方程;Removal:0.10当一个变量的sigT值0.10时该变量从回归方程剔除。,Use F values(采用F值作为变量引入模型或从模型中剔除的判据)Entry:0.05当一个变量的sigF值3.84时该变量被引入方程;Removal:0.10当一个变量的sigF值2.71时该变量从回归方程剔除。,练习题,为研究男性高血压患者血压与年龄、身高、体重等变量间的关系,随机测量
21、了32名40岁以上的男性患者的血压、年龄、体重以及吸烟史(过去吸烟或现在吸烟设置为1,不吸烟为0)。试建立回归方程。Mreg2.sav,二、曲线回归分析,线性回归可以满足许多数据分析,然而线性回归不会对所有的问题都适用,有时因变量与自变量是通过一个已知或未知的非线性函数关系相联系。尽管有可能通过一些函数的转换方法,在一定范围内将它们转变为线性关系,但这种转换有可能导致更为复杂的计算或数据失真。,在很多情况下有两个相关的变量,用户希望利用其中的一个变量对另一个变量进行预测,此时可采用的方法也很多;从简单的直线模型到复杂的时间序列模型。如果不能马上根据观测量数据确定一种最佳模型,可以利用曲线估计在
22、众多的回归模型中来建立一个简单而又比较适合的模型。,例 题,汽车每加仑汽油行驶的里程数(mpg)与汽车重量(weight)建立回归方程。Data1301,线形回归方程Y=b0+b1X二次回归方程Y=b0+b1X+b2X2复合曲线回归方程Y=b0(b1X)等比级数曲线回归方程对数回归方程三次回归方程Y=b0+b1X+b2X2+b3X3,三、Logistic回归分析,多元线性回归要求Y是呈正态分布的连续型随机变量。难以处理因变量为二值变量的情况。在医学中,存在很多二值化的状态,比如生存与死亡、感染与不感染、有效与无效、患病与不患病等等。这时,我们往往要分析生存与死亡或感染与不感染与哪些因素有关。而
23、这些因素(自变量)可能是二值数据或等级分组资料或是计量资料,此时,可以使用logistic回归来分析因变量(二值变量)与自变量的关系。,logistic回归的基本概念:设P表示某事件发生的概率,取值范围为01,1P是该事件不发生的概率,将比值 P/(1P)取自然对数得ln(P/1P),即对P作logit转换,记为logitP,则logitP的取值范围在-,+之间。以logitP为因变量,建立线形回归方程:logitP=b0+bixi p=exp(b0+bixi)/1+exp(b0+bixi)OR=e=exp,可见:b0表示一个不接触危险因素(自变量取值全为0时)的个体发病(死亡或感染)的比值的
24、对数。b0是常数。bi 表示危险因素改变一个单位时,比值的对数的改变量。在实际比较xi对比值的对数影响时,应使用标准化的系数,以克服自变量不同量纲的影响。bi称为logistic回归系数。,数据背景(data13-02)北京医科大学附属人民医院内分泌科卢纹凯教授课题。颈总动脉中层厚度imt0.8mm或有斑块定义为动脉硬化,因变量type值为1;非硬化imt0.8mm且无斑块,因变量type值为0。糖尿病患者123例数据。研究哪些指标可以判断糖尿病患者是否动脉硬化。自变量AGE年龄、ALB尿白蛋白、BMI体重指数、ISI胰岛素敏感指数、SBP收缩压、TG甘油三脂、CHO胆固醇、DURA糖尿病程。其中尿白蛋白、甘油三脂、胆固醇三项生化指标在回归估计过程中均使用他们的对数变量:ALBLN、TGLN、CHOLN。,