第九章 SPSS的线性回归分析分析ppt课件.ppt

上传人:小飞机 文档编号:1876146 上传时间:2022-12-23 格式:PPT 页数:36 大小:291.50KB
返回 下载 相关 举报
第九章 SPSS的线性回归分析分析ppt课件.ppt_第1页
第1页 / 共36页
第九章 SPSS的线性回归分析分析ppt课件.ppt_第2页
第2页 / 共36页
第九章 SPSS的线性回归分析分析ppt课件.ppt_第3页
第3页 / 共36页
第九章 SPSS的线性回归分析分析ppt课件.ppt_第4页
第4页 / 共36页
第九章 SPSS的线性回归分析分析ppt课件.ppt_第5页
第5页 / 共36页
点击查看更多>>
资源描述

《第九章 SPSS的线性回归分析分析ppt课件.ppt》由会员分享,可在线阅读,更多相关《第九章 SPSS的线性回归分析分析ppt课件.ppt(36页珍藏版)》请在三一办公上搜索。

1、第九章 SPSS的线性回归分析,一、回归分析概述,(一)回归分析理解(1)“回归”的含义Galton研究研究父亲身高和儿子身高的关系时的独特发现。 (2)回归线的获得方式一:局部平均 回归曲线上的点给出了相应于每一个x(父亲)值的y(儿子)平均数的估计 (3)回归线的获得方式二:拟和函数使数据拟和于某条曲线;通过若干参数描述该曲线;利用已知数据在一定的统计准则下找出参数的估计值(得到回归曲线的近似);,一、回归分析概述,(二)回归分析的基本步骤(1)确定自变量和因变量(父亲身高关于儿子身高的回归与儿子身高关于父亲身高的回归是不同的)。(2)从样本数据出发确定变量之间的数学关系式,并对回归方程的

2、各个参数进行估计。(3)对回归方程进行各种统计检验。(4)利用回归方程进行预测。,一、回归分析概述,(三)参数估计的准则目标:回归线上的观察值与预测值之间的距离总和达到最小最小二乘法(利用最小二乘法拟和的回归直线与样本数据点在垂直方向上的偏离程度最低),二、一元线性回归分析,(一)一元回归方程 y=0+1x0为常数项;1为y对x回归系数,即:x每变动一个单位所引起的y的平均变动(二)一元回归分析的步骤利用样本数据建立回归方程回归方程的拟和优度检验回归方程的显著性检验(F检验和t检验)残差分析预测,Y=a+bX,F检验,T检验,拟合优度如何,即X对Y的解释能力,线性关系是否显著,系数是否显著不为

3、零,=,b,三、一元线性回归方程的检验,(一)拟和优度检验 R2(1)目的:检验样本观察点聚集在回归直线周围的密集程度,评价回归方程对样本数据点的拟和程度。(2)思路:因为: 因变量取值的变化受两个因素的影响自变量不同取值的影响其他因素的影响于是: 因变量总变差=自变量引起的+其他因素引起的即: 因变量总变差=回归方程可解释的+不可解释的可证明:因变量总离差平方和=回归平方和+剩余平方和,三、一元线性回归方程的检验,(一)拟和优度检验 (3)统计量:判定系数R2=SSR/SST=1-SSE/SST。R2体现了回归方程所能解释的因变量变差的比例;1-R2则体现了因变量总变差中,回归方程所无法解释

4、的比例。R2越接近于1,则说明回归平方和占了因变量总变差平方和的绝大部分比例,因变量的变差主要由自变量的不同取值造成,回归方程对样本数据点拟合得好在一元回归中R2=r2; 因此,从这个意义上讲,判定系数能够比较好地反映回归直线对样本数据的代表程度和线性相关性。,三、一元线性回归方程的检验,(二)回归方程的显著性检验 F检验(1)目的:检验自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示。(2)H0: =0 即:回归系数与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和F(1,n-1-1)如果F值较大,则说明自变量造成的因变量的线性变动远大于随机因素

5、对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断p=a:拒绝H0,即:回归系数与0有显著差异,自变量与因变量之间存在显著的线性关系。反之,不能拒绝H0,三、一元线性回归方程的检验,(三)回归系数的显著性检验 t检验(1)目的:检验自变量对因变量的线性影响是否显著。(2)H0:=0 即:回归系数与0无显著差异(3)利用t检验,构造t统计量:其中:Sy是回归方程标准误差(Standard Error)的估计值,由均方误差开方后得到,反映了回归方程无法解释样本数据点的程度或偏离样本数据点的程度如果回归系数的标准误差较小,必然得到一个相对较大的t值,表明该

6、自变量x解释因变量线性变化的能力较强。(4)计算t统计量的值和相伴概率p (5)判断,三、一元线性回归方程的检验,(四)t检验与F检验的关系一元回归中,F检验与t检验一致,即: F=t2,两种检验可以相互替代(五)F统计量和R2值的关系如果回归方程的拟合优度高,F统计量就越显著。F统计量越显著,回归方程的拟合优度就会越高。,四、一元线性回归分析操作,(一)基本操作步骤(1)菜单选项: Analyze-regression-linear(2)选择一个变量为因变量进入dependent框(3)选择一个变量为自变量进入independent框(4)enter:所选变量全部进入回归方程(默认方法)(5

7、)对样本进行筛选(selection variable)利用满足一定条件的样本数据进行回归分析(6)指定作图时各数据点的标志变量(case labels),四、一元线性回归分析操作,(二) statistics选项(1)基本统计量输出Estimates:默认。显示回归系数相关统计量。confidence intervals:每个非标准化的回归系数95%的置信区间。Descriptive:各变量均值、标准差和相关系数单侧检验概率。Model fit:默认。判定系数、估计标准误差、方差分析表、容忍度(2)Residual框中的残差分析Durbin-waston:D-W值casewise diagn

8、ostic:异常值(奇异值)检测 (输出预测值及残差和标准化残差),四、一元线性回归分析操作,(三)plot选项:图形分析 Standardize residual plots:绘制残差序列直方图和累计概率图,检测残差的正态性绘制指定序列的散点图,检测残差的随机性、异方差性ZPRED:标准化预测值 ZRESID:标准化残差SRESID:学生化残差produce all partial plot:绘制因变量和所有自变量之间的散点图,五、线性回归方程的残差分析,(一)残差序列的正态性检验 绘制标准化残差的直方图或累计概率图(二)残差序列的随机性检验绘制残差和预测值的散点图,应随机分布在经过零的一条

9、直线上下,五、线性回归方程的残差分析,(三)残差序列独立性检验 残差序列是否存在后期值与前期值相关的现象,利用D。W(Durbin-Watson)检验d-w=0:残差序列存在完全正自相关;d-w=4:残差序列存在完全负自相关;0d-w2:残差序列存在某种程度的正自相关;2d-w4:残差序列存在某种程度的负自相关;d-w=2:残差序列不存在自相关。残差序列不存在自相关,可以认为回归方程基本概括了因变量的变化;否则,认为可能一些与因变量相关的因素没有引入回归方程或回归模型不合适或滞后性周期性的影响。,五、线性回归方程的残差分析,(四)异常值(casewise或outliers)诊断利用标准化残差不

10、仅可以知道观察值比预测值大或小,并且还知道在绝对值上它比大多数残差是大还是小。一般标准化残差的绝对值大于3,则可认为对应的样本点为奇异值异常值并不总表现出上述特征。当剔除某观察值后,回归方程的标准差显著减小,也可以判定该观察值为异常值,六、线性回归方程的预测,(一)点估计y0(二)区间估计,x0为xi的均值时,预测区间最小,精度最高。x0越远离均值,预测区间越大,精度越低。,七、多元线性回归分析,(一)多元线性回归方程多元回归方程: y= 0 +1x1+2x2+。+kxk 1、2、k为偏回归系数。1表示在其他自变量保持不变的情况下,自变量x1变动一个单位所引起的因变量y的平均变动(二)多元线性

11、回归分析的主要问题回归方程的检验自变量筛选多重共线性问题,八、多元线性回归方程的检验,(一)拟和优度检验 (1)判定系数R2 R是y和xi的复相关系数(或观察值与预测值的相关系数),测定了因变量y与所有自变量全体之间线性相关程度 (2)调整的R2 考虑的是平均的剩余平方和,克服了因自变量增加而造成R2也增大的弱点在某个自变量引入回归方程后,如果该自变量是理想的且对因变量变差的解释说明是有意义的,那么必然使得均方误差减少,从而使调整的R2得到提高;反之,如果某个自变量对因变量的解释说明没有意义,那么引入它不会造成均方误差减少,从而调整的R2也不会提高。,八、多元线性回归方程的检验,(二)回归方程

12、的显著性检验 F(1)目的:检验所有自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示。(2)H0: 1 = 2 = k =0 即:所有回归系数同时与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和F(k,n-k-1)如果F值较大,则说明自变量造成的因变量的线性变动大于随机因素对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断p=a:拒绝H0,即:所有回归系数与0有显著差异,自变量与因变量之间存在显著的线性关系。反之,不能拒绝H0,八、多元线性回归方程的检验,(三)回归系数的显著性检验 T(1)目的:检验每

13、个自变量对因变量的线性影响是否显著。(2)H0:i=0 即:第i个回归系数与0无显著差异(3)利用t检验,构造t统计量:其中:Sy是回归方程标准误差(Standard Error)的估计值,由均方误差开方后得到,反映了回归方程无法解释样本数据点的程度或偏离样本数据点的程度如果某个回归系数的标准误差较小,必然得到一个相对较大的t值,表明该自变量xi解释因变量线性变化的能力较强。(4)逐个计算t统计量的值和相伴概率p (5)判断,八、多元线性回归方程的检验,(四) F 统计量与t统计量一元回归中,F检验与t检验一致,即: F=t2,可以相互替代在多元回归中,F检验与t检验不能相互替代Fchange

14、 =ti2从Fchange 角度上讲,如果由于某个自变量xi的引入,使得Fchange是显著的(通过观察Fchange 的相伴概率值),那么就可以认为该自变量对方程的贡献是显著的,它应保留在回归方程中,起到与回归系数t检验同等的作用。,九、多元线性回归分析中的自变量筛选,(一)自变量筛选的目的多元回归分析引入多个自变量。 如果引入的自变量个数较少,则不能很好的说明因变量的变化;并非自变量引入越多越好。原因:有些自变量可能对因变量的解释没有贡献自变量间可能存在较强的线性关系,即:多重共线性。 因而不能全部引入回归方程。,九、多元线性回归分析中的自变量筛选,(二)自变量向前筛选法(forward)

15、 即:自变量不断进入回归方程的过程。首先,选择与因变量具有最高相关系数的自变量进入方程,并进行各种检验;其次,在剩余的自变量中寻找偏相关系数最高的变量进入回归方程,并进行检验;默认:回归系数检验的概率值小于PIN(0。05)才可以进入方程。反复上述步骤,直到没有可进入方程的自变量为止。,九、多元线性回归分析中的自变量筛选,(三)自变量向后筛选法(backward) 即:自变量不断剔除出回归方程的过程。首先,将所有自变量全部引入回归方程;其次,在一个或多个t值不显著的自变量中将t值最小的那个变量剔除出去,并重新拟和方程和进行检验;默认:回归系数检验值大于POUT(0。10),则剔除出方程如果新方

16、程中所有变量的回归系数t值都是显著的,则变量筛选过程结束。否则,重复上述过程,直到无变量可剔除为止。,九、多元线性回归分析中的自变量筛选,(四)自变量逐步筛选法(stepwise) 即:是“向前法”和“向后法”的结合。向前法只对进入方程的变量的回归系数进行显著性检验,而对已经进入方程的其他变量的回归系数不再进行显著性检验,即:变量一旦进入方程就不会被剔除随着变量的逐个引进,由于变量之间存在着一定程度的相关性,使得已经进入方程的变量其回归系数不再显著,因此会造成最后的回归方程可能包含不显著的变量。逐步筛选法则在变量的每一个阶段都考虑的剔除一个变量的可能性。,十、线性回归分析中的共线性检测,(一)

17、共线性带来的主要问题高度的多重共线会使回归系数的标准差随自变量相关性的增大而不断增大,以至使回归系数的置信区间不断增大,造成估计值精度减低。(二)共线性诊断自变量的容忍度(tolerance)和方差膨胀因子容忍度:Toli=1-Ri2。 其中: Ri2是自变量xi与方程中其他自变量间的复相关系数的平方。容忍度越大则与方程中其他自变量的共线性越低,应进入方程。 (具有太小容忍度的变量不应进入方程,spss会给出警)(T0。1一般认为具有多重共线性)方差膨胀因子(VIF):容忍度的倒数SPSS在回归方程建立过程中不断计算待进入方程自变量的容忍度,并显示目前的最小容忍度,十、线性回归分析中的共线性检

18、测,(二)共线性诊断用特征根刻画自变量的方差如果自变量间确实存在较强的相关关系,那么它们之间必然存在信息重叠,于是可从这些自变量中提取出既能反映自变量信息(方差)又相互独立的因素(成分)来。从自变量的相关系数矩阵出发,计算相关系数矩阵的特征根,得到相应的若干成分。如果某个特征根既能够刻画某个自变量方差的较大部分比例(如大于0。7),同时又可以刻画另一个自变量方差的较大部分比例,则表明这两个自变量间存在较强的多重共线性。条件指标0=100 严重,十一、线性回归分析中的异方差问题,(一)什么是差异方差回归模型要求残差序列服从均值为0并具有相同方差的正态分布,即:残差分布幅度不应随自变量或因变量的变

19、化而变化。否则认为出现了异方差现象(二)异方差诊断可以通过绘制标准化残差序列和因变量预测值(或每个自变量)的散点图来识别是否存在异方差(三)异方差处理实施方差稳定性变换残差与yi(预测值)的平方根呈正比:对yi开平方残差与yi(预测值)呈正比:对yi取对数。残差与yi(预测值)的平方呈正比,则1/yi,十二、多元线性回归分析操作,(一)基本操作步骤(1)菜单选项: analyze-regression-linear(2)选择一个变量为因变量进入dependent框(3)选择一个或多个变量为自变量进入independent框(4)选择多元回归分析的自变量筛选方法:enter:所选变量全部进入回归

20、方程(默认方法)remove:从回归方程中剔除变量stepwise:逐步筛选;backward:向后筛选;forward:向前筛选(5)对样本进行筛选(selection variable)利用满足一定条件的样本数据进行回归分析(6)指定作图时各数据点的标志变量(case labels),十二、多元线性回归分析操作,(二) statistics选项(1)基本统计量输出Part and partial correlation:与Y的简单相关、偏相关和部分相关R square change:每个自变量进入方程后R2及F值的变化量Collinearity dignostics:共线性诊断。,十二、多

21、元线性回归分析操作,(三)options选项 stepping method criteria:逐步筛选法参数设置。use probability of F:以F值相伴概率作为变量进入和剔除方程的标准。一个变量的F值显著性水平小于entry(0。05)则进入方程;大于removal(0。1)则剔除出方程。因此:Entryremovaluse F value:以F值作为变量进入(3。84)和剔除(2。71)方程的标准(四)save选项 将回归分析结果保存到数据编辑窗口中或某磁盘文件中,十三、曲线估计(curve estimate),(一)目的 在一元回归分析或时间序列中,因变量与自变量(时间)之

22、间的关系不呈线性关系,但通过适当处理,可以转化为线性模型。可进行曲线估计。(二)曲线估计的常用模型 y=b0+b1t(线性拟和linear)y=b0+b1t+b2t2(二次曲线quadratic)y=b0+b1t+b2t2+b3t3(三次曲线cubic)t为时间,也可为某一自变量。,十三、曲线估计(curve estimate),(三)基本操作步骤(1)绘制散点图,观察并确定模型。(2)菜单选项: analyze-regression-curve estimation(3) 选择因变量到dependent框(4) 选择自变量到independent框或选time以时间作自变量(5)选择模型 (

23、R2最高拟和效果最好),十三、曲线估计(curve estimate),(四)其他选项(1)display ANOVA table:方差分析表(2)plot models:绘制观察值和预测值的对比图。(3)save选项:predicted values:保存预测值。Residual:保存残差值。prediction interval:保存预测值的默认95%的可置信区间。Predict case:以time作自变量进行预测。Predict from estimation period through last case:计算保存所有预测值。Predict through :如果预测周期超过了数据文件的最后一个观测期,选择此项,并输入预测期数。,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号