文件名称:论文研究-基于AdaBoost的类不平衡学习算法.pdf
文件大小:1017KB
文件格式:PDF
更新时间:2022-08-11 15:50:19
机器学习,类不平衡学习,集成学习,SMOTE,数据清理技术
处理类不平衡数据时,少数类的边界实例非常容易被错分。为了降低类不平衡对分类器性能的影响,提出了自适应边界采样算法(AB-SMOTE)。AB-SMOTE算法对少数类的边界样本进行自适应采样,提高了数据集的平衡度和有效性;同时将AB-SMOTE算法与数据清理技术融合,形成基于AdaBoost的集成算法ABTAdaBoost。ABTAdaBoost算法主要包括三个阶段:对训练数据集采用AB-SMOTE算法,降低数据集的类不平衡度;使用Tomek links数据清理技术清除数据集中的噪声和抽样方法产生的重叠样例,有效提高数据的可用性;使用AdaBoost集成算法生成一个基于N个弱分类器的集成分类器。实验分别以J48决策树和朴素贝叶斯作为基分类器,在12个UCI数据集上的实验结果表明,ABTAdaBoost算法的预测性能优于其他几种算法。