本文档属于类型a:单一原创研究报告。以下是针对该研究的学术报告:
IEEE Transactions on Evolutionary Computation期刊2022年4月发表的联邦学习研究
作者Hangyu Zhu与Yaochu Jin(英国萨里大学计算机科学系)提出了一种名为”实时联邦进化神经架构搜索(Real-Time Federated Evolutionary Neural Architecture Search, RT-FedEvoNAS)”的创新方法,解决了联邦学习中神经网络架构搜索(NAS)的两大核心挑战:通信资源高消耗与边缘设备计算资源受限问题。
本研究属于联邦学习(Federated Learning)与自动化机器学习(AutoML)交叉领域。传统联邦学习面临两大技术瓶颈:
1. 通信成本:服务器与客户端间频繁传输大量模型参数(如ResNet18需上传约1100万参数/轮次);
2. 计算负载:深度神经网络(DNNs)搜索需边缘设备(如手机)承担高负载训练。
现有NAS技术(如强化学习搜索、梯度优化方法)难以直接应用于联邦环境,因其需要:
- 集中式训练(违反数据隐私原则)
- 重复随机初始化模型(导致性能骤降)
- 全模型传输(带宽压力大)
研究目标是开发一种实时在线的联邦NAS框架,在搜索过程中保持模型可用性,同时通过双采样技术降低通信与计算开销。
采用超网络(Supernet)结构(图3),包含:
- 12个选择块(Choice Block),每块含4种候选操作:
- 恒等块(Identity Block)
- 残差块(Residual Block)
- 逆残差块(Inverted Residual Block)
- 深度可分离块(Depthwise Separate Block)
- 总参数量715.98M,但通过子模型采样仅传输部分参数
模型采样:
- 每个个体编码为24位二进制串(Choice Key),指定12个选择块的路径
- 仅训练采样路径的子模型(如某个体仅激活25%的层)
客户端采样:
- 每子模型分配$l=\lfloor m/n \rfloor$个客户端($m$=参与客户端数,$n$=种群大小)
- 客户端无重复采样,确保每设备仅训练1个子模型/轮次
采用NSGA-II算法优化:
- 目标1:验证集准确率
- 目标2:计算复杂度(FLOPs)
- 目标3(扩展实验):参数量
关键创新点:
- 权重继承机制:子模型继承超网络参数,避免随机初始化导致的性能波动
- 填充聚合策略(Algorithm 3):对未更新的子模型分支填充历史参数,实现异构架构聚合
数据集:
- CIFAR10/100(IID与非IID划分)
- SVHN(街景门牌号识别)
- PathMNIST(医学图像)
基线模型:
- ResNet18、MobileNet V1/V2、PNASNet-1⁄2
评估指标:
- 实时准确率曲线
- 每秒浮点运算量(FLOPs)
- 通信成本(上传/下载参数量)
进化搜索得到的新型架构特征:
- 浅层偏好深度可分离卷积(降低FLOPs)
- 深层保留残差连接(保障梯度流动)