元线性回归模型的参数估计.ppt

上传人:小飞机 文档编号:6550273 上传时间:2023-11-11 格式:PPT 页数:23 大小:658KB
返回 下载 相关 举报
元线性回归模型的参数估计.ppt_第1页
第1页 / 共23页
元线性回归模型的参数估计.ppt_第2页
第2页 / 共23页
元线性回归模型的参数估计.ppt_第3页
第3页 / 共23页
元线性回归模型的参数估计.ppt_第4页
第4页 / 共23页
元线性回归模型的参数估计.ppt_第5页
第5页 / 共23页
点击查看更多>>
资源描述

《元线性回归模型的参数估计.ppt》由会员分享,可在线阅读,更多相关《元线性回归模型的参数估计.ppt(23页珍藏版)》请在三一办公上搜索。

1、2.3 一元线性回归模型的参数估计,一、参数的普通最小二乘估计(OLS)二、参数估计的最大或然法(ML)三、最小二乘估计量的性质 四、参数估计量的概率分布及随机干 扰项方差的估计,二、参数的普通最小二乘估计(OLS),给定一组样本观测值(Xi,Yi)(i=1,2,n)要求样本回归函数尽可能好地拟合这组值。普通最小二乘法(Ordinary least squares,OLS)给出的判断标准是:二者之差的平方和最小。,方程组(*)称为正规方程组(normal equations)。,记,上述参数估计量可以写成:,称为OLS估计量的离差形式(deviation form)。由于参数的估计结果是通过最

2、小二乘法得到 的,故称为普通最小二乘估计量(ordinary least squares estimators)。,三、参数估计的最大或然法(ML),最大或然法(Maximum Likelihood,简称ML),也称最大似然法,是不同于最小二乘法的另一种参数估计方法,是从最大或然原理出发发展起来的其它估计方法的基础。基本原理:对于最大或然法,当从模型总体随机抽取n个样本观测值后,最合理的参数估计量应该使得从模型中抽取该n个样本观测值的概率最大。,在满足基本假设条件下,对一元线性回归模型:,随机抽取一组样本观测值(Xi,Yi)(i=1,2,n)。,那么Yi服从如下的正态分布:,于是,Y的概率函数

3、为,(i=1,2,n),假如模型的参数估计量已经求得,为,因为Yi是相互独立的,所以的所有样本观测值的联合概率,也即或然函数(likelihood function)为:,将该或然函数极大化,即可求得到模型参数的极大或然估计量。,由于或然函数的极大化与或然函数的对数的极大化是等价的,所以,取对数或然函数如下:,解得模型的参数估计量为:,可见,在满足一系列基本假设的情况下,模型结构参数的最大或然估计量与普通最小二乘估计量是相同的。,例:在上述家庭可支配收入-消费支出例中,对于所抽出的一组样本数,参数估计的计算可通过下面的表进行。,因此,由该样本估计的回归方程为:,0.670,4974750,15

4、83-0.6702150=142.4,142.4+0.670 xi,四、最小二乘估计量的性质,当模型参数估计出后,需考虑参数估计值的精度,即是否能代表总体参数的真值,或者说需考察参数估计量的统计性质。,一个用于考察总体的估计量,可从如下几个方面考察其优劣性:(1)线性性,即它是否是另一随机变量的线性函数;,(2)无偏性,即它的均值或期望值是否等于总体的真实值;(3)有效性,即它是否在所有线性无偏估计量中具有最小方差。拥有这类性质的估计量称为最佳线性无偏估计量(best liner unbiased estimator,BLUE)。,高斯马尔可夫定理(Gauss-Markov theorem)在给定经典线性回归的假定下,最小二乘估计量是具有最小方差的线性无偏估计量。,证:,易知,故,同样地,容易得出,(2)证明最小方差性,其中,ci=ki+di,di为不全为零的常数则容易证明,普通最小二乘估计量(ordinary least Squares Estimators)称为最佳线性无偏估计量(best linear unbiased estimator,BLUE),五、参数估计量的概率分布及随机干扰项方差的估计,2、随机误差项的方差2的估计,2又称为总体方差。,由于随机项i不可观测,只能从i的估计残差ei出发,对总体方差进行估计。可以证明,2的最小二乘估计量为,它是关于2的无偏估计量。,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号