类型a:学术研究报告
作者及机构
本研究由Piotr Gaczek、Grzegorz Leszczyński(波兰波兹南经济大学)、Yuling Wei(中国中山大学)和Hao Sun(中国科学技术大学)合作完成,发表于2025年的*Journal of Business Ethics*,标题为《The Bright Side of AI in Marketing Decisions: Collaboration with Algorithms Prevents Managers from Violating Ethical Norms》。
学术背景与研究动机
该研究属于商业伦理与人工智能交叉领域,聚焦人工智能(AI)在管理决策中的伦理影响。研究背景源于AI在营销决策中的广泛应用引发的责任归属困境(responsibility gap),例如剑桥分析事件中AI驱动的微观定向(microtargeting)如何模糊人类决策者的责任。现有研究多关注AI的“工具性”或“代理性”(agency),但缺乏对“人-AI协作形式如何影响伦理决策”的实证检验。因此,本研究旨在探索以下问题:
1. 不同人-AI协作形式(单独使用AI推荐 vs. 与人类团队共同使用AI)如何影响管理者对伦理违规的责任归因(attribution of responsibility)?
2. 伦理违规的严重性(中度 vs. 重度)如何调节上述影响?
3. AI的“利益导向沟通”(benefit-oriented communication)是否会降低管理者的责任感,从而增加不道德行为?
研究设计与方法
研究通过三个情景实验(vignette experiments)展开,共招募587名营销经理(通过Prolific平台筛选,要求具备管理决策经验),采用假设性情境模拟伦理困境。
实验1:责任归因的协作形式差异
- 样本:178名管理者,随机分为两组:一组接受AI单独推荐,另一组接受“人类团队+AI”的联合建议。
- 情境:模拟“对重要客户提价”的中度伦理违规行为,要求参与者评估责任归属(管理者自身 vs. AI/人类团队)。
- 测量:
- 责任归因:采用语义差异量表(1=管理者负责,7=AI/团队负责)和Likert量表(1=完全不同意,7=完全同意)。
- 控制变量:情绪反应、AI预期效能、对AI的控制感等。
- 结果:
- 单独使用AI时,管理者更倾向于自我归责(M=5.79 vs. 人类团队组的M=4.82,p<0.001)。
- 责任扩散效应(responsibility diffusion)在人类团队协作中显著,削弱了个人责任感。
实验2:违规严重性的调节作用
- 样本:237名管理者,采用2(协作形式)×2(违规严重性:价格操纵 vs. 滥用敏感数据)设计。
- 发现:
- 中度违规(提价)时,AI单独推荐组更不愿采纳建议(M=3.11 vs. 人类团队组M=3.52,p=0.032),且责任归因中介此效应(β=-0.17,p=0.023)。
- 重度违规(数据滥用)时,协作形式无显著差异,因道德清晰性(moral clarity)压倒责任分配差异。
实验3:利益导向沟通的伦理风险
- 样本:172名管理者,分为两组:一组仅接收AI的负面后果提示,另一组额外接收“公司利益”框架的沟通。
- 关键结果:
- 利益沟通显著降低责任感(M=4.63 vs. 负面组M=5.17,p=0.038),并增加数据滥用意愿(M=3.48 vs. 2.89,p=0.018)。
- 日常AI依赖度(>21%)强化此效应,高依赖者(>52%)表现最显著的数据滥用倾向。
结论与价值
1. 理论贡献:
- 揭示了“人-AI协作形式”通过责任归因影响伦理决策的机制,填补了AI道德研究中责任动态(responsibility dynamics)的空白。
- 提出“道德清晰性阈值”概念,解释重度违规情境下协作形式差异的消失。
2. 应用价值:
- 为组织设计AI协作流程提供依据:明确责任框架(如避免人类团队过度稀释责任)、限制利益导向的AI沟通。
- 警示AI过度依赖的风险,建议对高频使用AI的管理者加强伦理培训。
研究亮点
1. 方法创新:首次将情景实验与责任归因理论结合,量化AI协作对伦理决策的影响。
2. 跨学科视角:融合商业伦理(Bandura的道德脱离理论)、心理学(Weiner的归因理论)与AI研究(人机协作模型)。
3. 现实针对性:直击营销领域高发的数据滥用与定价伦理问题,为企业治理AI提供实证支持。
其他价值
- 数据公开于Open Science Framework(OSF),支持后续研究验证。
- 提出“AI参与度阈值”(21%和52%)的实践指标,为组织监控AI依赖提供量化参考。