文章标题和描述提及的是一种名为"参数独立的加权局部均值伪近邻分类算法"(PIW-LMPNN),它旨在解决局部均值伪近邻(LMPNN)算法存在的问题,即对k值敏感且未充分考虑各属性对分类结果的影响。PIW-LMPNN算法通过引入一种新的优化方法,即基于成功历史记录的自适应参数差分进化(SHADE)算法,来确定最佳的k值和与类别相关的最优权重。
局部均值伪近邻(LMPNN)算法是一种基于邻域的分类方法,它利用样本的局部信息来预测未知样本的类别。然而,LMPNN的一个主要缺点是其性能高度依赖于k值的选择,k值代表了在邻域内考虑的最近邻的数量。此外,LMPNN通常假设所有特征对分类同等重要,这可能不适用于某些数据集,其中某些特征可能比其他特征更具区分性。
PIW-LMPNN算法为解决这些问题,首先采用SHADE算法对训练集进行优化,SHADE是一种差分进化算法的变体,能自适应地调整参数并利用历史成功的策略,以寻找最佳的k值。这个过程可以确保算法在不同数据集上具有更好的鲁棒性和泛化能力。
PIW-LMPNN算法在计算样本间距离时,根据类别赋予每个属性不同的权重。这种方法考虑了不同属性的重要性,使得算法能够更精确地捕捉到影响分类的关键特征。通过对每个类别的属性分配不同的权重,可以提高分类的准确性和效率。
在实验部分,该研究在15个实际数据集上对比了PIW-LMPNN算法与其他8种分类算法的性能。实验结果显示,PIW-LMPNN在分类准确率和F1值上都有显著提升,最高提升了约28个百分点和23.1个百分点。此外,通过统计检验(如Wilcoxon符号秩检验、Friedman秩方差检验和Hollander-Wolfe两处理比较),进一步证明了PIW-LMPNN在分类精度和k值选择上的优越性。
总结来说,参数独立的加权局部均值伪近邻分类算法(PIW-LMPNN)是一种创新的分类方法,它通过SHADE算法优化k值选择,并引入特征权重机制,提高了分类效果,尤其在处理具有复杂特性和多变性的数据集时表现突出。这种改进的算法对于提升机器学习模型的性能,特别是在分类任务中,具有重要的理论和实践意义。