"回归分析回归诊断"
回归分析是统计学中的一种重要技术,通过简单回归和多元回归模型,可以获得计算结果。但是,这些结果只有在满足某些假定时才是合理的、有意义的。这些假定包括模型设定的假定、误差的假定、预测变量的假定、线性无关的假定和观测的假定。
在回归分析中,异常点的出现会影响分析结果的可信度。异常点的出现可能是由于新事物的出现或者新情况的发生,也可能是由于人为差错或者仪器的故障所引起的。因此,异常点的研究受到了广大研究者的重视。
异常点的成因可以归结为三种情况:整体模型变化、局部模型变化和自然变异。在统计诊断中,判断异常点的成因是很重要的,是对异常点进行正确处理的先决条件。
对异常点的处理方法有两种。一种是把异常点作为工作重点,目标就是发现异常点并确定是否要作进一步的研究。这时不仅要判断出异常点的存在与否,还要确定异常点出现的位置以及影响大小。另一种方法就是对于异常点采取容忍的态度,把整个数据集作为研究的基础,对于一定比例的坏数据或者远离数据中心的数据采取一定的容忍或适应政策。
在回归分析中,回归系数一般采用“最小二乘估计”(least squares estimator,LS estimator)求解,但是需要满足一些假定,如误差服从正态分布、总体方差相同且相互独立等。当实际数据没有近似满足这些假定时,就会出现一些异常点、杠杆点及影响点,使分析结果变得不可靠。
统计诊断(Statistical Diagnostics)是对从实际问题中收集起来的数据、提炼出来的模型以及由此出发所作的推断方法的合理性进行深入而细致的分析,并通过一些诊断统计量来检查数据、模型及推断方法中可能存在的毛病,进而提出治疗方案,进行模型或者推断方法的改进。统计诊断主要包括异常点识别、残差分析、影响分析和数据变换等内容,异常点的识别是处理统计诊断的重要内容。
回归分析回归诊断是统计学中的一种重要技术,需要满足一些假定,并且需要处理异常点,否则将会出现一些不可靠的结果。