3
多重共线性问题
3.1
导读
根据回归分析的基本假设,自变量之间要求相互独立的。如果某两个或多个自变量之间
出现了相关性,导致参数估计出现偏差,或者标准误很大,模型失真,则称为存在多重共线
性。
3.2
主要内容
3.2.1
概念
多重共线性是指线性回归模型中的自变量之间由于存在高度相关关系而使模型估计失
真或难以估计准确。
3.2.2 后果
(1)
参数估计的意义不合理
当变量之间高度相关时,可能使回归的结果混乱,甚至会把分析引入歧途,使得各自变量的
参数失去了应有的含义, 表现出反常现象。例如估计结果本来应该是正的, 结果却是负的。
因此当模型存在多重共线性时, 对回归系数的解释将是危险的。
(2)
变量的显著性检验和模型的预测功能失去意义(显著变不显著)
模型存在多重共线性时,参数估计值的方差与标准差变大,从而容易使通过样本计算的 t 值
小于临界值,误导做出参数为 0 的推断,可能将重要的自变量排除在模型之外。而变大的方
差容易使预测值区间预测的“区间”变大, 使预测失去意义。
温馨提示 :
对于中介模型, 如果中介变量和自变量相关非常高(如高达 0.9, 此时 VIF=5.26),则也
有 多重共线性问题,影响中介效应和直接效应的估计精确度和稳定性(王惠文,吴载斌 孟
洁, 2006)。对于调节效应模型,变量中心化可以减少非本质的共线性问题(温忠麟,刘
红云, 侯杰泰,2012;Echambadi & Hess ,2007)。例如, 在叶宝娟、杨强、胡竹菁
(2012) 的一 项研究中, 建模前各变量做了中心化处理, 所有自变量的 VIF 均低于
1.28, 故不存在多重 共线性问题。
3.2.3 识别
① 各自变量之间显著相关(使用散点图矩阵和相关系数矩阵)0.6 以上;
② 线性关系检验显著(F
检验显著),各自变量系数却大多数不显著;
评论0
最新资源