《多元线性回归模型分析ppt课件.pptx》由会员分享,可在线阅读,更多相关《多元线性回归模型分析ppt课件.pptx(82页珍藏版)》请在三一办公上搜索。
1、第三章 多元线性回归模型*,多元线性回归模型是我们课程的重点,原因在于: 多元线性回归模型应用非常普遍; 原理和方法是理解更复杂计量经济学模型的基础; 内容较为丰富。,本章主要内容,多元线性回归模型的描述参数的OLS估计OLS估计量的有限样本性质参数估计量的方差-协方差矩阵和随机误差项方差2的估计单方程模型的统计检验多元线性回归模型实例,3.1 多元线性回归模型的描述,1、多元线性回归模型的形式,由于在实际经济问题中,一个变量往往受到多个原因变量的影响;“从一般到简单”的建模思路。所以,在线性回归模型中的解释变量有多个,至少开始是这样。这样的模型被称为多元线性回归模型。多元线性回归模型参数估计
2、的原理与一元线性回归模型相同,只是计算更为复杂。,以多元线性回归模型的一般形式K元线性回归模型入手进行讲解,其模型结构如下:,Y= x11 + x22 + xk k + (1),其中,Y是被解释变量(因变量、相依变量、内生变量),x是解释变量(自变量、独立变量、外生变量), 是随机误差项,i, i = 1, , k 是回归参数。 线性回归模型的意义在于把Y分成两部分:确定性部分和非确定性部分。,在研究中,我们根本无法了解式(1)所示的总体模型的特征,而只能通过样本特征来近似考察。 设经过n次试验,得到n个样本,如下所示:,y1 x11 x12 x1 k y2 x21 x22 x2 k yn x
3、 n1 x n2 x nk,在计量经济学分析中,通常会借助矩阵工具,在此亦将多元线性模型表示成矩阵形式,以便于下一步的数学运算。,(2),写成一般形式为: Y = X + (3) 针对式(3),在这里主要讲参数估计和统计推断,但在此之前,我们要先回顾一下什么模型才是多元线性回归模型,即了解线性回归模型的6大假设,这一点十分重要。,(1)线性性。即要求模型关于参数是线性的,关于扰动项是可加的。 (2) 满秩。说明解释变量之间是线性无关的,这一假设很重要,在后面会经常受到。(3)回归性。x与不相关。(4)x的DGP是外生的。x相对于y是外生的,是非随机的。(5)球形扰动。同方差性和非自相关性。(6
4、)正态假设。,2、多元回归方程及偏回归系数的含义,称为多元回归方程(函数)。,多元回归分析(multiple regression analysis)中,诸i称为偏回归系数(partial regression coefficients)。,在经典回归模型的诸假设下,对(1)式两边求条件期望得 E(Y|X1,X2,Xk)= x11 + x22 + xk k,偏回归系数的含义如下: 1度量着在X2,X3,Xk保持不变的情况下,X1每变化1个单位时,Y的均值E(Y)的变化,或者说1给出X1的单位变化对Y均值的“直接”或“净”(不含其他变量)影响。 其他参数的含义与之相同。,需要说明的是,如果令x1
5、1,则1便是常数项。习惯上把常数项看成为一个虚变量的系数,在参数估计过程中该虚变量的样本观测值始终取1。 常数项的作用在于中心化误差。,3.2 参数的OLS估计,参数的OLS估计 附录:极大似然估计和矩估计投影和投影矩阵分块回归和偏回归偏相关系数,我们的模型是:,残差为:,一、参数的OLS估计普通最小二乘估计原理:使样本残差平方和最小,Y= x11 + x22 + xk k + ,关键问题是选择的估计量b,使得残差平方和最小。,要使残差平方和,于是得到关于待估参数估计值的K个方程(即正规方程组):,为最小,则应有:,按矩阵形式,上述方程组可表示为:,即,上述结果,亦可从矩阵表示的模型 出发,完
6、全用矩阵代数推导出来。,其中:,残差可用矩阵表示为:,残差平方和,注意到上式中所有项都是标量,且,与采用标量式推导所得结果相同。因为x是满秩的(假设2),所以(X X)-1存在。所以,得到的估计为,用向量展开或矩阵微分法(前导不变、后导转置),我们可得到关于待估参数估计值的正规方程组:,令,故,注:这只是得到了求极值的必要条件。到目前为止,仍不能确定这一极值是极大还是极小。接下来考察求极值充分条件。,注意到上述条件只是极小化问题的必要条件,为了判断充分性,我们需要求出目标函数的Hessian矩阵 :,如果这个Hessian矩阵是正定的,则可以判断所得到的解是唯一的最小二乘解。 显然,根据正定矩
7、阵的定义或者正定矩阵的判断准则,可知当矩阵的满秩条件满足时,矩阵是正定的,因此最小二乘解的充分性成立。从而,OLS估计量为:,样本回归线的数值性质,需要注意的是,上述命题成立的前提是线性模型中包含常数项,也就是第一个解释变量是“哑变量”形式。这样一个思考题目就是,当线性模型中不包含常数项时,结论是什么样的?,(3)的证明方法1 因为ei=0,所以对 两边求和即可。,极大似然估计,Y的随机抽取的n组样本观测值的联合概率,对数似然函数为参数的极大似然估计 结果与参数的普通最小二乘估计相同,矩估计(Moment Method,MM),矩估计是基于实际参数满足一些矩条件而形成的一种参数估计方法。随机变
8、量的均值和方差如何得到? 例:总体:E(Y-)=0 样本矩(用样本矩估计总体矩): 满足相应的矩条件:,同理,方差的估计量是样本的二阶中心矩。现在,考虑一元线性回归模型中的假设条件:,其所对应的样本矩条件分别为:,可见,与OLS估计量的正规方程组是相同的。多元线性回归模型矩估计的矩条件通常是这样构造的: 对于多元线性回归模型 Y=X+ 两边分别左乘 ,即得到,上式称为总体回归方程的一组矩条件。现在,我们随机抽取样本,用样本矩代替总体矩,得到:,解此正规方程组即得参数的估计量,这种估计方法称为矩估计。其参数估计结果与OLS一致。样本形式:用每个解释变量分别乘以模型的两边,并对所有样本点求和,即得
9、到:,对每个方程的两边求期望,有:,得到一组矩条件求解这组矩条件,即得到参数估计量与OLS、ML估计量等价,矩方法是工具变量方法(Instrumental Variables,IV)和广义矩估计方法(Generalized Moment Method, GMM)的基础在矩方法中关键是利用了如果某个解释变量与随机项相关,只要能找到1个工具变量,仍然可以构成一组矩条件。这就是IV。如果存在k+1个变量与随机项不相关,可以构成一组方程数k+1的矩条件。这就是GMM。,广义矩估计中,矩条件的个数大于参数个数,会出现什么问题呢? 过度识别则必须想办法调和出现在过度识别系统中相互冲突的估计。那如何解决呢?
10、 广义矩估计的思想是使得样本矩与总体矩的加权距离(即马氏距离)最小。主要是考虑到不同的矩所起的作用可能不同。,注意:GMM估计是一个大样本估计。在大样本的情况下,GMM估计量是渐进有效的,在小样本情况下是无效的。所以,只有在大样本情况下,才能使用GMM方法进行参数估计。,二、投影和投影矩阵 OLS估计的几何性质,获得最小二乘估计以后,可以获得下述最小二乘残差:,将最小二乘估计的表达式代入,得到:,其中定义的矩阵 在回归分析中是非常基础和重要的。显然,这个矩阵是对称幂等矩阵:,其次,还有一些重要的性质需要注意,例如对称幂等矩阵的特征根非0即1(对称矩阵的特征根均为实数),因此矩阵具有性质:矩阵的
11、迹等于矩阵的秩。,显然,矩阵M的作用是,它乘积作用在某个向量y上,就可以得到这个向量y基于数据变量的最小二乘回归的残差向量,因此经常将这个矩阵称为“残差生成矩阵”(residual maker)。这里需要注意M的定义和所作用的变量,是所作用变量关于M定义中数据矩阵的回归残差。即,显然,X基于自己的线性回归的最小二乘残差一定为零,则必然有(即使验证也十分显然):,根据此性质,我们来考察最小二乘估计的性质。已知:,这说明最小二乘回归将变量y分解成为两个部分,一个部分是拟合值 ,另一个部分是残差e,由于,这说明最小二乘回归与残差是正交的。因此,这样的分解是正交分解,也就是说最小二乘的拟合值向量和残差
12、向量是正交的(意味着这两个向量之间的夹角为垂角)。这时也可以得到:,这里矩阵 也是一个对称幂等矩阵,我们称其为投影矩阵(project matrix),它是由矩阵X构成的,并且它如果乘积作用到向量y上,则可以得到y基于变量X的最小二乘回归的拟合值。这也是向量y在矩阵X的各列生成的线性空间上的投影。,注释:假设y在矩阵X的各列生成的线性空间上的投影是yp ,则yp的定义是:,且选择 使得,由于上述向量之间的模与最小二乘距离是一致的,因此投影值便是最小二乘估计的拟合值,即,为了更好地理解上述定义和公式,我们将一些有用的结论归纳为下述命题: 命题1 在线性模型的最小二乘估计中,可以得到: (1)P+
13、M=I(显然) (2)PM=MP=0,即矩阵P与M是正交的。 证明:因为P=I-M,所以PM=(I-M)M=M-M2=0 (3)矩阵P具有自投影不变性,即PX=X。 (4)向量y可以通过投影进行正交分解,即分解为投影和残差:y=Py+My。 证明:y=Iy=(P+M)y=Py+My,投影和残差是正交的,(5)平方和分解公式成立: 证明:因为 所以 (6)残差平方和可以表示为: 证明:因为e=My,且M是对阵幂等矩阵,所以,(7)残差平方和也可以表示为: 证明:根据(5)式,可得 而且可推知, 又因为e=y-Xb,则有,三、分块回归与偏回归(partitioned regression and
14、partial regression ),通常在进行线性回归时我们假定了完全的回归变量,但事实上我们只对其中的部分变量感兴趣。这时我们就需要考虑将一部分变量从回归变量中删除所导致的结果。假设回归方程中涉及到两部分变量X1和X2,这时有:由于X=(X1,X2), k1 k2,请问:根据模型 得到的b1,是否与根据模型 得到的b1相等?,思考,则有:,从而,正规方程组X Y = X Xb变成:从而得到,上述四块矩阵可以通过下述分块逆矩阵公式得到: 利用该公式可得到:,以上结果也可以直接计算得到:由正规方程组,得到:,根据第一个方程得到,上述解的公式表明,系数 的最小二乘估计 是y基于X1的回归系数
15、,减去一个修正向量 。上述获得参数估计 的过程具有典型的统计意义,首先, 是被解释变量中剔除变量X2的剩余部分;其次,将剩余部分基于X1再进行回归,因此,参数估计 是剔除变量X2所剩余的部分。一种特殊情形是 ,这时, 正好是y基于X1的回归系数。更为一般的结果可以由下述定理给出:,定理1: 正交分块回归 在变量y基于两部分变量X1和X2进行多元线性回归时,如果这两个变量之间是正交的,则X1和X2的回归系数可以通过单独进行y基于X1的回归系数和基于X2的回归系数得到。,上述结论对于回归分析来说是一个基础结论,非常重要。可以进一步归纳成为下述定理:定理(Frisch-Waugh Theorem):
16、 在向量Y基于两部分变量X1和X2的最小二乘回归中,系数最小二乘估计的部分估计可以通过Y基于变量X1的残差,再基于X2的每列基于变量X1回归的残差,进行回归的回归系数得到。,这个过程一般被称为变量X1作用的“挤出”或者“分离”过程。出于这个原因,多元回归系数经常被称为偏回归系数(partial regression coefficients)。对于这个情形的一种特例,我们考虑向量Y基于一组变量X和一个附加变量Z的最小二乘回归问题。这时最小二乘系数表示为b和c。这种情形下的结果可以由下述推论得到:,例子:这个命题的一个直接应用是,可以考虑采用时间趋势脱离后的残差向量进行替代,以求出包含时间变量的
17、多元回归系数。这与将时间T作为解释变量放入模型中的效果是等同的。,例子:在下列模型中Earnings =a+b*education+c*age+d*age2 +第二个系数b如何得到?,对数据做中心化处理是否会改变参数估计结果? 作为这些结论的一个应用,我们考虑矩阵X的第一列全为1的包含常数项的情形。,通常将 称为中心化矩阵。从矩阵结构可以看出,其与变量X无关,只是一个数据转换工具,其中的矩阵Jn被称为列求和矩阵。例子: 中心化矩阵是对称幂等矩阵吗?其是否满秩?,四、偏回归与偏相关系数(partial regression and partial correlation coefficients
18、 ),多元回归的用途之一,是提供了一个概念性框架,用以解决实践中难以进行的实验,就象经济学中的“其他假设不变”(ceteris paribus)的分析。 比如说,在收入与教育关系的多元线性回归模型中,我们能够比较两个年龄完全相同,但教育水平不同的人的收入,即使我们的样本中并不包含这样的个体数据。这就是偏回归系数的特征。,偏回归系数是这样得到的:我们将收入和教育分别基于年龄回归,得到回归残差。我们知道,年龄对这些残差毫无解释能力。因此,“挤出”年龄影响后的成分之间的关系是完全独立于年龄的。同样的道理可以应用到两个变量之间的相关关系方面。在多元回归中,“偏相关系数”经常表示两个变量之间的“直接关系
19、”,这是一种分离其他变量影响之后的两者之间的“净关系”。,关于两个模型y=xd+zc+u和y=xb+e的残差平方和的详细关系的推导见下页:,上述定理的一个重要启示是,只要增加线性回归模型中的解释变量,就可以降低回归模型的残差平方和。这样一来,无论解释变量与相依变量之间的关系如何,解释变量都是“有用”的或者是“有价值”的。,例子:取自Greene的经济计量分析 投资与其余变量之间的关系表 简单相关系数 偏相关系数 时间 0.7496 -0.9360 GNP 0.8632 0.9680 利率 0.5871 -0.5167 通货膨胀 0.4777 -0.0221注意到:偏相关系数的符号与多元回归模型的参数符号相同。,