分享自:

理解算法管理决策的感知:对算法与人类决策的公平性、信任和情感反应的研究

期刊:big data & societyDOI:10.1177/2053951718756684

Min Kyung Lee是本研究的主要作者,隶属于Carnegie Mellon University(卡内基梅隆大学)。本研究发表在期刊《Big Data & Society》2018年1月至6月的期刊中,标题为“Understanding perception of algorithmic decisions: fairness, trust, and emotion in response to algorithmic management”。以下是对该研究的全面报告。


学术背景:

人工智能(Artificial Intelligence)、机器学习(Machine Learning)以及数据基础设施的快速发展正在快速变革社会和组织的治理方式,尤其是管理决策领域。传统由人类管理者承担的决策任务,如雇佣、任务分配和工作评价等,正逐渐被算法所接管。然而,这种变化引发了重要的社会问题:人们对由算法作出的决策抱有怎样的看法?人们是否认为算法做出的决策比人类更公平、更值得信赖,或者相反?本文旨在系统研究人们对算法管理(Algorithmic Management)的感知,特别是如何看待算法决策与人类决策在公平性、可信度和情绪上的差异。过去的研究表明,当人们认为决策不公平时,他们可能会对组织产生怨恨,甚至采取报复行为;因此,理解这一新兴管理方式对社会态度的影响具有重要意义。

研究目的包括: 1. 探讨算法与人类决策在管理背景下的感知差异。 2. 研究任务类型(机械性技能任务或人类技能任务)对感知的影响。


研究流程:

本研究采用了一项在线实验,实验包括多个步骤,详细如下:

1. 实验设计

研究选择了四种典型的管理性决策场景,其分别涉及机械性技能(Mechanical Tasks)和人类技能(Human Skills): - 任务分配(Work Assignment):算法或人类管理者将员工分配到工厂设备的特定维护任务。 - 工作排班(Work Scheduling):算法或人类管理者基于顾客流量预测安排咖啡店员工的工作时间。 - 招聘任务(Hiring):算法或人类管理者选择合适的求职者参加终轮面试。 - 工作评价(Work Evaluation):算法或人类管理者基于员工的客服通话内容评估其工作表现。

每个场景均设置了两种决策条件(由算法或人类决策),以衡量参与者对公平性、信任以及情绪反应的感知差异。

2. 参与者招募与实验操作

实验对象来自Amazon Mechanical Turk平台,共招募了321名参与者,清理数据后最终样本为228人。参与者需要根据以上四种场景中的一个,评价决策的公平性、信任度和假想场景中的人物情绪反应。参与者被随机分配到某一类型的决策条件(算法或人类决策)。为了确保实验对象对“算法”的理解一致,算法组研究对象看到一个定义说明:“算法是一种基于统计模型或决策规则、能够自动地且无需人工干预做出决策的计算公式(computational formula)。”

3. 数据收集与分析

研究使用7点李克特量表(Likert Scale)收集了参与者对公平性、信任程度和情绪反应的定量评价,还通过开放性问卷收集了参与者对这些评估的原因描述。数据分析包括单因素方差分析(ANOVA)和多层次分析,并结合定性语义分析(Qualitative Analysis)深入探讨参与者的感知逻辑及其背后的主题。


研究主要结果:

1. 公平性(Fairness)

研究发现: - 在机械性任务中(任务分配和工作排班),算法和人类的决策被认为同样公平。然而,参与者对于公平性的原因存在不同看法:对人类决策的公平性感知通常基于管理者权威,而对算法决策的公平性感知则基于算法的效率和避免偏见(Bias-free)。 - 在涉及人类技能的任务中(招聘和工作评价),人类决策被认为更公平。参与者认为,算法缺乏直觉与判断能力,且过于依赖可量化的指标,因此难以公平地评估人类特质(如社会互动和主观能力)。

2. 信任(Trust)

  • 机械性任务中,参与者对算法和人类的信任度无显著差异。许多参与者信任算法是基于其“无偏见和一致性”,但也有人提到,算法可能存在技术故障的风险。
  • 在人类技能相关任务中,人类决策更被信任。参与者表示,人类管理者更具专业知识和直觉能力,而算法因为欠缺这些能力,导致信任度显著降低。

3. 情绪反应(Emotion)

  • 在机械性任务中,算法和人类决策引发的情绪反应相似。部分参与者提到,人类决策可能带来一定的社会认可感,而算法则被视为工具或监控机制。
  • 在人类技能任务中,算法决策引发了更多的负面情绪。这主要与参与者认为算法无法理解人类复杂性有关,且一些人感到被算法评价是“去人性化”的经历。

研究结论:

本研究总结了算法管理与人类管理在感知公平性、信任度及情绪反应方面的显著差异,特别是任务类型对感知差异的影响。其结论如下: 1. 对于机械任务,算法和人类决策对感知公平性和信任度的影响相似,但源自不同的社会理解(managerial authority vs. efficiency and objectivity)。 2. 对于人类技能任务,人们认为算法难以胜任。这对算法在组织管理中的应用信任造成障碍。 3. 社会对被算法评估的负面情绪可能阻碍其进一步应用。

研究强调,算法在去偏见和高效性上有独特优势,但在涉及人类直觉、主观判断和社交情感的任务中,算法作用仍受到质疑。未来需要深入研究算法如何优化决策、人机协作的最佳实践,以及如何减少员工对算法管理的负面情感。


研究亮点:

  1. 任务类型的重要性:研究首次系统性揭示任务属性对人们感知算法决策公平性与信任度的重要影响。
  2. 社会心理洞察:揭示了人们对算法管理的民间理论(Folk Theories),以及算法与人类决策在社会意义上的关键区别。

研究的意义与价值:

随着算法越来越多地参与人类管理领域,该研究为如何设计可信、公平且人性化的算法管理实践提供了强有力的理论支持。这对组织管理效率提升,以及科技与人性平衡具有重要的借鉴价值。同时,它揭示了引入算法管理时需注意的伦理与社会问题,可为相关领域政策制定提供参考依据。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com