Donghee Shin和Yong Jin Park共同撰写了一篇题为《Role of Fairness, Accountability, and Transparency in Algorithmic Affordance》的科学论文。这篇文章发表于国际期刊《Computers in Human Behavior》,由Elsevier出版,在线发布日期为2019年4月23日。文章主要讨论了算法中“公平性、公信力和透明性”(Fairness, Accountability, Transparency)的概念(简称FAT),研究了这些因素与算法服务的用户体验、信任及其接受度之间的联系,并提出了基于用户体验的算法评价框架。
近年来,随着算法技术和人工智能(Artificial Intelligence,AI)的快速发展,算法广泛应用于内容推荐、信用评分、定位服务等多个领域。然而,这些技术的普及也带来了社会性问题,包括公平性、公信力和透明性不足,这些都对用户数据隐私、算法偏差、责任界定等问题提出了巨大的挑战。
论文指出,尽管FAT问题在算法背景中备受关注,但关于这一概念的系统性定义和操作性定义仍存在争议。因此,学术界和工业界都难以形成共识。这种困境阻碍了算法技术设计的伦理性和社会可持续性。基于此,该研究旨在结合用户的认知体验,对FAT进行规范化定义,并分析FAT在算法服务设计和用户交互中的作用。
论文采用了一种“三角”混合研究方法,将解释性方法、深度访谈与用户调查相结合,以全面探索FAT在算法服务中的表现及其对用户体验的影响。
通过深度访谈和关键案例分析,该阶段量化并定义了FAT的三个核心维度: 1. 公平性(Fairness):指算法决策不产生歧视或不公后果(例如基于种族或性别的贷款政策)。研究中还细分了公平性为非歧视性、公正性和结果准确性三个概念。 2. 公信力(Accountability):涉及算法设计者或系统在用户面前承担责任的能力。此维度包括责任性、可审计性及公平性。 3. 透明性(Transparency):要求算法透明化,使用户能够理解算法的工作逻辑。这细化为可理解性(Understandability)、可解释性(Explainability)和可观察性(Observability)。
此阶段通过问卷调查,以用户体验模型(User Experience Model)为核心,检验了以下假设:透明性、公平性和公信力的不同程度如何对用户满意度造成影响。样本包括240名参与者,分为高信任组和低信任组,依据用户以往对算法服务的信任等级来划分。
研究模型构建了FAT与用户满意度之间的关系路径,并测试了信任(Trust)在其中的作用是否具有调节效果。
FAT与用户满意度关系:
信任的调节作用:
调研发现,与FAT相关的用户体验是高度主观的,依赖于用户的背景知识、信任水平以及应用环境。例如,在公平性方面,尽管用户普遍认为算法应无偏见,但实际的公平概念往往因个人认知而异。
研究还表明,用户对算法操作的理解越深入,他们对算法结果的信任和接受度也越高。例如,一个直观易懂的算法界面可以显著提升用户的使用意图和满意度。
FAT的概念性框架: 本研究首次系统性地明确了算法服务中FAT的定义和操作化路径,为FAT的用户模型开发提供了新视角。
信任的核心作用: 信任被证实是算法服务用户体验的重要调节因素,研究建议企业加强透明性和公信力以赢得用户信任。
用户中心的算法设计方法: 研究呼吁应采用基于用户经验的算法设计方法(User-Centered Design),通过提升FAT水平和用户互动体验,改进算法的使用场景。
该研究具有重要的理论意义和实际应用价值。从理论上讲,它拓展了关于用户体验和算法社会技术系统的理解,建立了FAT框架在用户认知中的作用模型。从应用角度来看,研究对行业提出了多项建议: 1. 设计人性化的算法:开发具备FAT属性的易用算法服务。 2. 提高算法的解释能力:通过展示算法工作过程,提升可解释性与用户信任。 3. 建立责任体系:确保透明度的同时,提出具体的问责机制。
这项研究为如何构建公平、可信和透明的算法服务提供了一个良好的开端,其结论对全球AI和大数据技术的发展也具有重要的参考价值。