这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本文由Xiangyun Tang(中央民族大学)、MinYang Li(中央民族大学)、Meng Shen(北京理工大学)、Jiawen Kang(广东工业大学)、Liehuang Zhu(北京理工大学)、Zhiquan Liu(暨南大学)、Guomin Yang(新加坡管理大学)、Dusit Niyato(南洋理工大学)和Robert H. Deng(新加坡管理大学)合作完成,发表于IEEE Transactions on Information Forensics and Security期刊2025年第20卷。研究得到了中国国家重点研发计划、国家自然科学基金等项目的支持。
研究领域:
本文属于联邦学习(Federated Learning, FL)与信息安全交叉领域,聚焦于解决联邦学习中的两大核心问题:拜占庭攻击(Byzantine attacks)和隐私泄露。
研究动机:
联邦学习允许多个数据所有者通过共享本地模型(而非原始数据)联合训练机器学习模型,从而缓解隐私问题。然而,本地计算的不可预测性使其容易受到拜占庭攻击(即恶意参与者提交异常本地模型,导致全局模型准确性下降)。现有抗拜占庭攻击的联邦学习方法依赖于半诚实服务器(semi-honest server)执行预定义的聚合规则(Byzantine-robust aggregation rules, ByRules),但若服务器被攻破,这些方法将失效。此外,现有的无服务器联邦学习方法(serverless FL)存在两大缺陷:
1. ByRules共识难以达成:缺乏中心服务器时,恶意参与者可能干扰决策过程;
2. 隐私保护负担重:现有方法依赖密码学或多方计算,计算和通信开销大。
研究目标:
提出ROBY框架,实现无服务器环境下抗拜占庭攻击的联邦学习,同时通过高效隐私保护策略降低开销。
ROBY框架包含以下核心步骤:
步骤一:构建共享根数据集(Root Dataset)
- 研究对象:所有数据所有者协作构建一个与全局数据分布对齐的根数据集(Dr),每个参与者贡献r条非隐私数据。
- 方法:通过广播和聚合形成Dr,作为后续共识数据集的基础。
步骤二:动态共识数据集(Consensus Dataset)机制
- 方法:每轮迭代中,每个数据所有者从Dr中随机抽取索引(rk),生成局部共识数据集(Drk)。所有参与者的Drk聚合形成全局共识数据集(Dtr)。
- 创新点:动态更新防止攻击者通过长期观察规避ByRules。
步骤三:双层级隐私保护策略
1. 掩码模型(Mask Model):
- 每个数据所有者从Drk中训练掩码模型(∇f′k),将其与本地模型(∇fk)相加,生成受保护的本地模型(∇̃fk)。
- 作用:掩盖本地模型的敏感信息,防止推理攻击(如属性推断、成员推断攻击)。
2. 动态批次大小(Dynamic Batch Size):
- 每轮随机选择批次大小(如32、48、64、128),破坏数据重构攻击(如DLG、iDLG)的关键条件。
步骤四:ByRules的分布式执行
- 方法:基于共识数据集Dtr,所有良性数据所有者独立应用ByRules(如FLTrust、Krum、Trimmed Mean)过滤异常模型。
- 创新点:通过共识数据集实现分布式一致性,避免中心服务器依赖。
实验设计:
- 数据集:MNIST(手写数字分类)和LFW(人脸识别)。
- 模型:LeNet网络。
- 攻击场景:梯度上升(GA)、标签翻转(LF)、随机故障(RF)攻击,攻击比例30%~50%。
- 对比基线:传统服务器联邦学习(半诚实/恶意服务器)及无服务器方案(如CMFL、BASIL)。
抗拜占庭攻击性能:
隐私保护效果:
效率优化:
科学价值:
- 首次提出共识数据集机制,解决了无服务器联邦学习中ByRules共识难题。
- 双层级隐私保护策略在不牺牲模型精度的情况下,显著降低隐私泄露风险。
应用价值:
- 适用于医疗、金融等对隐私和安全性要求高的场景,为分布式学习提供可靠解决方案。
(注:以上内容严格基于原文,未添加额外信息。)