类型b:
本文由Giorgia Pozzi和Juan M. Durán共同撰写,两位作者均来自荷兰代尔夫特理工大学(Delft University of Technology)的技术、政策与管理学院。文章于2024年2月28日在线发表在期刊《AI & Society》上,标题为《From Ethics to Epistemology and Back Again: Informativeness and Epistemic Injustice in Explanatory Medical Machine Learning》。
本文探讨了机器学习(ML)在医学领域应用时引发的认识论(epistemology)与伦理学(ethics)问题,批判了当前文献中常见的“信息性解释框架”(informativeness account),并提出伦理因素应具有对认识论评估的调节作用(regulatory role),而非仅作为信息性参考。文章通过医学ML案例,分析了伦理与认识论的相互依赖性,并指出忽视这种依赖性可能导致“认知不公正”(epistemic injustice),尤其是“认知物化”(epistemic objectification)。
文章指出,当前关于ML伦理与认识论的讨论通常采用“信息性解释框架”,即认为认识论问题仅服务于伦理评估,而伦理因素对认识论评估无反向影响。作者以Mittelstadt等人(2016)的综述为例,说明该框架将认识论问题视为独立且单向影响伦理的工具,导致伦理与认识论割裂。例如,ML系统的“认知不透明性”(epistemic opacity)可能引发公平性、责任归属等伦理问题,但伦理考量(如患者价值观)未被纳入认识论评估。
支持论据:
- 引用Mittelstadt等人的分类,将ML伦理问题分为“认识论类”(如证据不充分、不可解释)和“规范类”(如不公平结果),但未讨论伦理如何调节认识论。
- 以处方药监测系统(PDMPs)为例,说明医生因无法理解算法逻辑而被迫接受其输出,导致患者被错误归类(如阿片类药物滥用风险评分),凸显伦理与认识论脱节的危害。
作者通过一个假设的癌症诊断系统(Med+ML)案例,说明伦理因素应直接调节认识论评估。该系统建议化疗方案,但患者因宗教信仰拒绝输血(化疗可能导致贫血需输血),此时系统无法整合患者价值观,导致治疗方案冲突。
支持论据:
- 认识论层面:Med+ML的解释虽符合生物学标准(如黑色素瘤概率计算),但未包含伦理维度(患者价值观),因此其“解释充分性”需重新评估。
- 伦理层面:医生若遵循系统建议,可能违背患者自主权,凸显伦理需调节认识论(如要求系统生成兼容患者价值观的解释)。
文章引入Miranda Fricker的“认知不公正”理论,指出Med+ML将患者视为被动信息源(source of information),剥夺其作为主动知情者(informant)的参与权,导致“认知物化”。例如,患者无法通过反馈价值观修正系统输出,陷入无效循环。
支持论据:
- 结构性因素:医疗ML的权威性削弱医生决策权,患者更易被边缘化(如PDMPs案例中患者遭弃疗)。
- 理论延伸:将Fricker的人类中心理论扩展至ML场景,提出算法虽无偏见,但其设计忽视患者能动性,间接导致物化。
作者对比其方法与Russo等人(2023)的“整体论”(holistic approach),强调三点差异:
1. 细粒度分析:聚焦具体医学决策场景(如医生权威被ML取代),而非泛泛讨论AI设计流程。
2. 规范性认识论:主张认识论本身具有规范性(如“医生应相信何种解释”受伦理约束)。
3. 案例实证:通过Med+ML案例揭示信息性框架的缺陷,补充Russo等人的理论。