这篇文档属于类型a——报告了一项原创性研究,以下是根据要求生成的学术报告:
IEEE Transactions on Evolutionary Computation 于2023年8月刊登了南方科技大学张清泉(Qingquan Zhang)、刘佳琳(Jialin Liu,通讯作者)等学者合作的研究论文《Mitigating Unfairness via Evolutionary Multiobjective Ensemble Learning》。该研究由华为可信理论研究中心、英国伯明翰大学等机构共同完成,获多个基金支持(如广东省重点实验室、国家自然科学基金等)。
研究领域为机器学习公平性(fairness in machine learning)与多目标进化计算(multiobjective evolutionary computation)的结合。该研究的核心背景是:现有机器学习模型常因数据偏见导致预测结果不公,而不同公平性度量(fairness measures)之间存在冲突,例如优化群体公平性(group fairness)可能牺牲个体公平性(individual fairness)。传统方法(如加权求和)难以平衡多目标间的矛盾。为此,作者提出两个关键问题:
1. 如何同时优化模型准确性与多公平性指标?
2. 如何通过集成学习(ensemble learning)自动平衡指标?
流程设计:
- 模型初始化:使用人工神经网络(ANN)作为基模型,权重编码为实数向量个体。
- 目标函数:包含交叉熵损失(模型精度)、个体不公平性(fi)、群体不公平性(fg)及8种代表性公平性指标(fair1–fair8,涵盖统计奇偶性、校准度等)。
- 优化算法:基于多目标进化算法(MOEA),提出改进策略:
- 探索阶段:针对每个目标独立训练模型,增强多样性。
- 开发阶段:通过交叉(权重混合)和突变(高斯扰动)生成新模型,并采用随机排序算法(SRA)进行选择。
- 终止条件:最大迭代200代,通过验证集评估模型性能。
创新方法:
- 混合选择策略:结合极端模型训练与自适应权重更新,解决目标冲突。
- 部分训练(partial training):每次迭代仅部分更新模型参数,提升效率。
基模型从进化得到的非支配解集中选取,提出4种集成策略:
- ensbest:选择最优模型。
- ensall:纳入所有非支配模型。
- ensknee:基于拐点选择模型子集。
- ensdiv:基于多样性选择模型子集。
作者指出数据分布不均衡(如Bank数据集)可能影响性能,未来将通过并行计算提升大规模模型效率。研究代码已公开,便于复现与改进。
此报告完整呈现了研究的学术逻辑与创新点,数据支撑充分,符合学术传播的严谨性要求。