本研究由Yan Luo(哈佛大学医学院Schepens眼科研究所、哈佛大学AI与机器人实验室)、Muhammad Osama Khan(纽约大学阿布扎比分校人工智能与机器人中心)、Congcong Wen(纽约大学AIR实验室)等共同作者合作完成,通讯作者为Mengyu Wang(哈佛大学Kempner自然与人工智能研究所)。论文《FairDiffusion》于2025年4月4日发表在Science Advances(期刊编号:sci. adv. 11, eads4593)。
研究领域:本研究属于医疗人工智能(AI)与生成模型公平性的交叉领域,聚焦于潜在扩散模型(Latent Diffusion Models, LDMs)在医学图像生成中的公平性问题。
研究动机:尽管扩散模型(如Stable Diffusion)在文本到图像生成任务中表现出色,但其在不同人口统计学亚组(如性别、种族、民族)中的生成质量是否存在系统性偏差尚不明确。这种偏差可能导致医疗AI在诊断或教育中加剧现有健康不平等。例如,已有研究表明,Stable Diffusion生成的视网膜图像在白人、非西班牙裔群体中质量更高,而其他群体的图像质量或临床特征对齐性较差。
研究目标:
1. 评估现有扩散模型在医学图像生成中的公平性缺陷;
2. 提出FairDiffusion框架,通过公平贝叶斯扰动(Fair Bayesian Perturbation)优化模型,减少生成偏差;
3. 构建FairGenMed数据集,为医疗生成模型的公平性研究提供标准化基准。
研究设计了两类评估指标:
- 图像生成质量:
- Fréchet Inception Distance (FID):衡量生成图像与真实图像的分布差异,数值越低越好。
- Inception Score (IS):评估生成图像的多样性和真实性,数值越高越好。
- 公平性扩展指标(ES-FID/ES-IS):计算不同亚组间FID/IS的差异,量化偏差程度。
- 临床特征语义对齐:
- 训练分类器(如EfficientNet、ViT-B)对生成图像进行疾病分类(如青光眼检测),通过AUC和ES-AUC评估模型在不同亚组中的诊断一致性。
核心创新:在Stable Diffusion v1.5基础上引入公平贝叶斯扰动,通过以下步骤优化生成公平性:
1. 贝叶斯优化框架:将不同人口亚组的生成性能差异建模为黑箱函数,通过高斯过程(Gaussian Process)动态调整扰动参数。
2. 自适应扰动:对每个亚组的潜在空间施加条件扰动ζ{𝓭_i},其强度由贝叶斯优化器根据历史性能数据(窗口大小w=30)动态调整。
3. 探索-利用平衡:设置扰动更新率ν=0.95,平衡局部优化与全局探索。
在HAM10000和CheXpert上的实验显示:
- 皮肤镜图像:ES-FID在性别维度降低19.29,ES-IS提升1.18。
- 胸部X光:ES-AUC在种族维度从51.72提升至55.24。
科学意义:
1. 首次系统性揭示了扩散模型在医学图像生成中的公平性缺陷,并提出可量化的评估框架。
2. FairDiffusion通过贝叶斯扰动实现了无需重新训练的公平性优化,为生成模型的伦理设计提供新范式。
应用价值:
- 医疗教育:生成多样化的病例图像,避免教学数据偏差。
- 数据增强:为罕见病或少数群体生成合成数据,弥补真实数据不足。
(报告字数:约1,800字)