分享自:

从现实到世界:AI公平性的批判视角

期刊:journal of business ethicsDOI:10.1007/s10551-022-05055-8

这篇文档属于类型b(科学论文,但非单一原创研究报告,属于理论性综述论文)。以下是针对该文献的学术报告:


作者与机构
本论文由三位作者合作完成:
1. Jean-Marie John-Mathews(第一作者)与Christine Balagué均来自法国巴黎萨克雷大学(Université Paris-Saclay)的LITEM实验室;
2. Dominique Cardon来自法国巴黎政治学院(Sciences Po)的 médialab 实验室。
论文于2022年发表在期刊 *Journal of Business Ethics*(2022年卷178期,页码945–959),标题为《From Reality to World: A Critical Perspective on AI Fairness》。

研究主题与背景
本文聚焦人工智能(AI)公平性的伦理挑战,批判现有AI伦理框架的“原则主义”(principlism)倾向,即从抽象伦理原则(如公平性、透明度)自上而下推导规范,而忽视算法在实际社会技术语境(socio-technical context)中的复杂性。作者基于法国社会学家Luc Boltanski的“现实”(reality)与“世界”(world)理论,提出AI公平性争议的新分析框架,并探讨数据格式变革对算法伦理的影响。

核心论点与论据

1. 对AI公平性批评的“现实主义”本质
现有对机器学习(ML)不公平的批评是“现实主义的”(realist),即基于制度化的社会分类(如性别、种族)。例如:
- 研究引用Amazon招聘算法歧视女性(Dastin, 2018)、司法预测模型对黑人的偏见(Larson et al., 2016)等案例,均通过统计差异(如不同群体的误判率)证明算法不公。
- 公平机器学习(Fair ML)社区通过“公平指标”(fairness metrics,如统计平等、机会均等)修正算法,但这些指标依赖预设的受保护类别(protected categories),未触及社会结构性不平等(如父权制)。

2. “现实主义”修正的局限性
作者指出Fair ML的三大缺陷:
- 简化表征:单一分类(如性别)无法捕捉交叉性(intersectionality),例如黑人女性可能面临叠加歧视。
- 群体内不平等:修正算法可能加剧受保护群体内部差异(如高收入女性更受益)。
- 性能与公平的权衡:去除与敏感变量相关的特征(如住址)可能降低模型准确性。

3. “激进回应”:从“现实”到“世界”的数据范式转变
为应对上述局限,部分研究转向去类别化的数据格式
- 数据变革:从结构化类别(如“性别:男/女”)转向细粒度行为轨迹(如购物记录、GPS移动轨迹)。例如,Lu et al. (2019)通过手机使用数据改善信贷模型对低收入群体的公平性。
- 算法变革:传统“假设空间”(hypothesis space)被高维“统计空间”(statistical space,如神经网络隐藏层)取代,通过对抗训练(adversarial training)生成“公平表征”(fair representation)。

4. 专家支配体制的风险
Boltanski的“复杂支配体制”(complex domination regime)理论被用于分析当前AI伦理困境:
- 专家垄断:算法黑箱化使批评者无法验证公平性,例如深度学习模型的不可解释性(Burrel, 2016)。
- 动态测试:通过持续更新数据模型(如增加行为特征),权力主体将“世界”直接等同于“现实”,消解批评的合法性。

5. 责任模型构建:基于“批判空间”的解决方案
作者提出通过批判空间(critical space)连接假设空间与统计空间:
- 操作步骤
- 分解算法目标(如“优秀候选人”的定义);
- 通过数据干预(如模拟不同购物行为)探索统计空间;
- 聚合实验结果为可解释的新类别(如“面试微笑但冲动消费的候选人”);
- 通过多方辩论(如伦理委员会、用户参与)稳定规范现实。
- 案例:招聘算法中,批判空间可识别“微笑与冲动消费”的组合偏见,并通过调查补充人口统计学解释。

论文价值与意义
1. 理论贡献:首次将Boltanski的社会学理论引入AI伦理,揭示数据格式变革背后的权力逻辑。
2. 实践意义:提出“批判空间”作为企业责任模型,平衡技术复杂性与伦理可问责性。
3. 跨学科启示:呼吁计算机科学、社会学、伦理学的合作,例如开发可视化工具解析统计空间(如Olah et al., 2020的神经网络解剖研究)。

亮点
- 理论创新:用“现实/世界”二分法重新界定AI公平性争议,超越技术修正层面的讨论。
- 批判深度:指出Fair ML可能沦为专家支配的工具,需警惕“通过数据扩张消解批评”的治理逻辑。
- 解决方案可行性:批判空间的设计兼顾技术细节(如数据模拟)与民主参与(如多方审议),为后续实证研究提供框架。


(注:全文约1500字,严格遵循学术报告格式,未翻译作者名与期刊名,专业术语首次出现标注英文原文,核心论点分层展开并辅以文献证据。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com