2.1 简单回归模型的的定义
误差项(error term)又被称为干扰项,只有我们在对无法观测到的U与解释变量x之间的关系加以约束时,才能从一个随机样本中得到系数的可靠估计量。才能得到在其他因素不变的情况下,效应系数的值。
第一步,假定E(U)=0 ,这个假定无非是定义了截距
第二步,E(u|x)=E(u),u均值独立于x
两者合并既可以称为零条件均值假定,由这个假定可以得到一个非常重要的总体回归函数(PRF)的性质:
E(y|x)=beta0+beta1x,在这个式子中,U便消失了。
2.2 普通最小二乘法的推导(OLS,ordinary least square)
残差项是实际值和估计值之间的差额,估计值的推导是最小化残差平方和。为什么是最小化残差平方和?
两个角度:数学处理的方便和难易,统计理论的复杂程度
由样本估计的是样本回归函数,亦称为OLS回归线,和总体回归函数是不一样的。
我们总是称因变量对自变量回归。
2.3 OLS的操作技巧
OLS统计量的三大代数性质:
第一,OLS残差和及其样本均值都为0
第二,回归元和OLS残差的样本协方差为0
误差项(error term)又被称为干扰项,只有我们在对无法观测到的U与解释变量x之间的关系加以约束时,才能从一个随机样本中得到系数的可靠估计量。才能得到在其他因素不变的情况下,效应系数的值。
第一步,假定E(U)=0 ,这个假定无非是定义了截距
第二步,E(u|x)=E(u),u均值独立于x
两者合并既可以称为零条件均值假定,由这个假定可以得到一个非常重要的总体回归函数(PRF)的性质:
E(y|x)=beta0+beta1x,在这个式子中,U便消失了。
2.2 普通最小二乘法的推导(OLS,ordinary least square)
残差项是实际值和估计值之间的差额,估计值的推导是最小化残差平方和。为什么是最小化残差平方和?
两个角度:数学处理的方便和难易,统计理论的复杂程度
由样本估计的是样本回归函数,亦称为OLS回归线,和总体回归函数是不一样的。
我们总是称因变量对自变量回归。
2.3 OLS的操作技巧
OLS统计量的三大代数性质:
第一,OLS残差和及其样本均值都为0
第二,回归元和OLS残差的样本协方差为0
