分享自:

针对属性推理攻击的联邦学习中任务无关隐私保护表示学习

期刊:the thirty-eighth aaai conference on artificial intelligence (aaai-24)

联邦学习中对抗属性推断攻击的任务无关隐私保护表示学习方法(TAPPFL)研究报告

一、作者及发表信息
本研究由Caridad Arroyo Arevalo(伊利诺伊理工学院,Illinois Institute of Technology)、Sayedeh Leila Noorbakhsh(伊利诺伊理工学院)、Yun Dong(本尼迪克坦大学,Benedictine University)、Yuan Hong(康涅狄格大学,University of Connecticut)、Binghui Wang(伊利诺伊理工学院)共同完成,发表于AAAI-24(第三十八届人工智能国际会议)。


二、学术背景
科学领域:本研究属于联邦学习(Federated Learning, FL)隐私保护机器学习的交叉领域,涉及信息论、对抗攻击防御及表示学习。
研究动机:联邦学习允许多设备协作训练模型而无需共享原始数据,但近年研究表明,攻击者仍可通过共享的模型参数推断设备数据的敏感属性(如收入、种族、性取向)。现有隐私保护方法(如多方计算、对抗训练、差分隐私)存在局限性:需预先知道任务类型、计算开销高、缺乏可证明的隐私保证,或导致严重的效用损失。
研究目标:提出一种任务无关的隐私保护表示学习方法(TAPPFL),通过信息论框架设计,实现以下目标:
1. 隐私保护:最小化表示与敏感属性的互信息(Mutual Information, MI);
2. 效用保留:最大化表示与原始数据的条件互信息;
3. 任务无关性:无需预先知道联邦学习的具体任务。


三、研究流程与方法
1. 问题建模与目标函数
- 威胁模型:假设服务器为“诚实但好奇”(honest-but-curious),试图从设备上传的模型表示中推断敏感属性。
- 目标函数:通过两个互信息目标实现:
- 隐私目标:最小化表示 ( r^i ) 与敏感属性 ( u^i ) 的互信息 ( I(r^i; u^i) );
- 效用目标:最大化表示 ( r^i ) 与原始数据 ( x^i ) 的条件互信息 ( I(x^i; r^i | u^i) )。
- 优化问题:通过参数 ( \lambda ) 平衡隐私与效用(见公式7)。

2. 互信息估计的变分边界
- 隐私保护:采用变分上界(CLUB)估计 ( I(r^i; u^i) ),通过对抗训练最小化该边界。具体步骤包括:
- 训练隐私保护网络 ( g{\psi^i} ) 作为敏感属性分类器;
- 特征提取器 ( f
{\theta^i} ) 通过对抗学习抑制 ( g{\psi^i} ) 的分类性能。
- 效用保留:利用Jensen-Shannon散度(JSD)下界估计 ( I(x^i; r^i | u^i) ),通过合作训练最大化该边界。
- 引入效用保留网络 ( h
{\omega^i} ),重构原始数据以保留非敏感信息。

3. 联邦训练流程
- 设备本地训练:每台设备同时优化三个神经网络(特征提取器、隐私网络、效用网络),使用交叉熵损失(隐私)和JSD损失(效用)。
- 服务器聚合:采用FedAvg算法聚合设备上传的特征提取器参数,迭代更新全局模型。
- 数据集与实验设置
- 数据集:CIFAR-10(动物/非动物属性)、Loans(种族属性)、Adult Income(性别/婚姻状况属性)。
- 参数:100台设备,每轮随机选择10%参与训练,本地批次大小10,学习率0.01,全局轮次20。


四、主要结果
1. 隐私-效用权衡
- 参数 ( \lambda ) 的影响
- ( \lambda=0 )(仅效用):测试准确率最高(CIFAR-10达89%),但属性推断准确率接近随机猜测的74%;
- ( \lambda=1 )(仅隐私):属性推断准确率降至52%(CIFAR-10),但测试准确率显著下降(58%);
- ( \lambda=0.5 )(平衡):在CIFAR-10上实现测试准确率76%与推断准确率60%的合理权衡。

2. 对比实验
- 与基线方法比较:在相同隐私保护水平下,TAPPFL的测试准确率显著高于差分隐私(DP)和模型压缩(MC)。例如,CIFAR-10上推断准确率60%时,TAPPFL测试准确率为76%,而DP-Gaussian和DP-Laplace分别为50%和45%。
- 可视化验证:t-SNE显示,TAPPFL的表示空间混合了不同敏感属性值,而原始数据表示呈现明显聚类。

3. 理论保证
- 隐私泄露上界:定理2证明,最优表示的条件熵 ( h(u^i | r^i_*) ) 越大,任何攻击者的推断准确率越低(接近随机猜测)。
- 效用-隐私权衡:定理1表明,分类误差下界与隐私泄露优势(Adv)呈负相关,揭示了二者不可兼得的本质矛盾。


五、结论与价值
科学价值
1. 理论创新:首次将信息论框架引入联邦学习的隐私保护表示学习,提供可证明的隐私保证;
2. 算法创新:提出任务无关的对抗与合作协同训练机制,解决了现有方法依赖任务先验知识的局限。
应用价值:适用于医疗影像、金融风控等敏感领域,支持联邦学习在隐私合规场景下的落地。


六、研究亮点
1. 任务无关性:无需预知下游任务,适用于无监督学习场景;
2. 高效性:变分边界估计显著降低计算开销;
3. 可证明隐私:通过信息论推导最坏情况下的隐私泄露上界;
4. 多场景验证:在图像(CIFAR-10)、表格(Loans/Adult)数据上均表现优异。

其他贡献:开源代码(GitHub/tappfl)及完整理论证明,推动社区复现与扩展研究。


(注:全文约2000字,涵盖方法细节、实验结果及理论贡献,符合学术报告要求。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com