分享自:

人工智能的伦理代价:探究工作场所人工智能使用如何及何时导致员工不道德结果

期刊:journal of business ethicsDOI:10.1007/s10551-025-06060-3

人工智能的伦理成本:揭示职场人工智能使用如何及何时诱发员工不道德结果的学术研究报告

本文旨在向学术界同仁介绍一篇发表于《Journal of Business Ethics》(2026年,第203卷)的原创性实证研究论文。该研究由Xiamen University的Puchu Zhao、Shenzhen University的Guohua He(通讯作者)以及Shanghai Jiao Tong University的Jian Guan三位学者共同完成。论文题为“The Ethical Costs of Artificial Intelligence: Investigating How and When Workplace Artificial Intelligence Usage Promotes Employee Unethical Outcomes”,已于2025年6月在线发表。

一、研究的学术背景 本研究的科学领域横跨组织行为学行为伦理学道德心理学,并聚焦于人工智能(Artificial Intelligence, AI) 在组织中的应用这一前沿议题。随着AI技术在工作场所的普及(据统计,2023年超过56%的美国员工使用AI完成工作任务),现有研究普遍关注其带来的积极效益,如提升生产力、创造力和任务绩效。这种共识描绘了AI作为组织获取竞争优势利器的光明图景。

然而,研究团队挑战了这一主流观点,指出可持续的竞争优势离不开坚实的伦理基础。尽管已有学者对AI的伦理影响表示担忧,但关于员工主动、持续地使用AI这一最普遍、最基本的行为,如何具体影响其自身的伦理信念与行为,尚缺乏深入探讨。先前研究多集中于消费者领域,或仅探讨被动接触、短暂交互等AI相关构念。员工因使用AI而需对AI的行为与产出承担道德责任,这一独特情境可能引发更深刻的伦理心理变化。因此,厘清AI使用是否、如何以及在何种条件下会导致员工不道德行为,具有重要的理论与现实意义。本研究旨在填补这一空白,超越对AI绩效收益的单方面关注,提供一个关于AI使用“阴暗面”的平衡视角,并深化理解“AI如何对人类伦理行为产生腐蚀力”这一核心问题。

二、详细的研究流程 本研究采用了多方法、多文化样本的设计,共包含三个子研究,以确保证据的因果推断力、内部效度与外部效度。

研究一:基于关键事件技术的实验(中国样本) * 研究对象与样本量:通过Credamo平台招募了208名有工作场所AI使用经验的中国全职员工(平均年龄33.10岁,平均组织任期6.70年)。参与者被随机分配到实验组或控制组。 * 研究流程与操作: 1. 操纵:采用关键事件技术组间实验设计。实验组参与者被要求回忆并详细描述过去一周中使用AI完成一项工作任务的具体事例;控制组则回忆并描述未使用AI完成工作的事例。此回忆式设计旨在通过真实经历激活与AI使用相关的认知状态。 2. 测量:操纵后,所有参与者立即完成道德相对主义的测量(采用Forsyth开发的10项目量表),以及对操纵效果进行检查的AI使用程度测量。 * 数据分析方法:采用独立样本t检验比较两组在道德相对主义得分上的差异,以检验AI使用对道德相对主义的因果效应(假设H1)。

研究二:实时AI使用任务的实验(美国样本) * 研究对象与样本量:通过Prolific平台招募了130名工作场所AI使用经验的美国全职员工(平均年龄42.07岁)。研究分为两个时间点。 * 研究流程与操作: 1. 时间点1:测量参与者的人口学信息实验前道德相对主义水平作为控制变量。 2. 时间点2操纵与任务。参与者被随机分配。实验组在完成一项商业咨询模拟任务(为客户的柠檬水摊位提供决策建议并撰写报告邮件)时,被要求实时使用ChatGPT(GPT-3.5 Turbo模式) 协助决策和撰写;控制组则独立完成相同任务。任务通过Qualtrics平台集成ChatGPT API实现实时交互。 3. 测量:任务完成后,参与者报告道德相对主义工作场所偏差行为对他人道德判断的宽恕度,并进行操纵检查。 * 数据分析方法:首先使用t检验分析操纵效果。随后,使用OLS回归,在控制实验前道德相对主义的基础上,检验AI使用对实验后道德相对主义的影响(假设H1)。本研究通过引入真实的AI使用体验,增强了因果推断的强度。

研究三:三波次追踪问卷调查(美国样本) * 研究对象与样本量:通过Prolific平台分三波(间隔一周)收集数据,最终获得307名能够(但非必须)在工作中使用大语言模型的美国全职员工的有效配对数据(来自IT、教育、医疗等多个行业)。 * 研究流程与测量: 1. 时间点1:测量AI使用程度(将量表措辞改为“大语言模型”)、道德认同(采用Aquino & Reed的10项目量表)以及人口学变量、工作满意度等控制变量。 2. 时间点2:测量道德相对主义。 3. 时间点3:测量结果变量:工作场所偏差行为(采用Bennett & Robinson的19项目量表,涵盖人际与组织偏差)和对他人道德判断的宽恕度(采用Klein & Shtudiner的11个情景量表)。 * 数据分析方法: 1. 进行验证性因子分析以检验核心变量的区分效度,对题项较多的量表采用平衡项目打包技术。 2. 使用OLS回归检验AI使用对道德相对主义的主效应(H1),以及道德认同的调节效应(H3)。 3. 使用偏差校正的Bootstrap法(Process Macro)检验道德相对主义的中介效应(H2a, H2b)以及被调节的中介效应(H4a, H4b)。

三、主要研究结果 研究一结果:操纵检查成功,实验组报告的AI使用程度显著高于控制组。t检验结果显示,回忆使用AI经历的被试,其道德相对主义得分显著高于回忆未使用AI经历的被试。这为“AI使用导致道德相对主义升高”提供了初步的因果证据,支持了假设H1。

研究二结果:操纵检查再次成功。t检验显示,在任务中实际使用ChatGPT的实验组,其道德相对主义得分显著高于控制组。即使在控制了实验前的道德相对主义水平后,OLS回归结果仍然显示AI使用对道德相对主义有显著正向影响。这在不同文化样本和更严格的实验设计下重复验证了H1。

研究三结果: 1. 验证性因子分析表明,五因子模型(AI使用、道德认同、道德相对主义、工作场所偏差行为、道德判断宽恕度)拟合最佳,核心变量具有良好的区分效度。 2. 主效应与中介效应:OLS回归支持H1,AI使用显著正向预测道德相对主义。Bootstrap中介分析显示,道德相对主义在AI使用与工作场所偏差行为之间、以及在AI使用与对他人道德判断宽恕度之间均起到显著的中介作用,支持H2a和H2b。这表明AI使用通过提升员工的道德相对主义信念,进而增加了其自身实施不道德行为的可能性,也使其对他人的不道德行为更为容忍。 3. 调节效应与被调节的中介效应:OLS回归中,AI使用与道德认同的交互项对道德相对主义有显著负向预测作用,支持H3。简单斜率分析显示,对于低道德认同的员工,AI使用对道德相对主义的正向影响强且显著;对于高道德认同的员工,该影响不显著。条件过程分析进一步显示,通过道德相对主义的间接效应(即AI使用→道德相对主义→不道德结果)仅在低道德认同员工中显著成立,而在高道德认同员工中不显著,支持H4a和H4b。这明确了道德认同是关键边界条件,能够缓冲AI使用带来的伦理风险。

补充分析表明,上述效应不受AI类型(如机器人、大语言模型等)或参与者种族背景的调节,增强了结论的普适性。此外,一项补充研究在控制了社会称许性偏差后,核心假设依然成立,确保了结果的稳健性。

四、研究结论与价值 本研究得出核心结论:员工在工作场所使用AI会带来意想不到的伦理成本。具体而言,AI使用会通过触发员工的道德相对主义信念,进而同时促进其自身的工作场所偏差行为对其人不道德行为的宽恕判断。然而,这一负面效应并非均匀作用于所有员工,个体的道德认同水平是关键调节因素:高道德认同的员工能有效免疫AI使用带来的道德相对主义倾向及后续的不道德结果。

科学价值: 1. 挑战主流叙事,揭示绩效-伦理悖论:将AI使用的讨论从单纯的“性能增益”拓展到“伦理成本”,揭示了组织在追求AI带来的竞争优势时可能面临的潜在伦理风险,推动了对该议题更平衡、全面的理解。 2. 深化AI伦理影响机制研究:首次将道德相对主义这一元伦理信念确立为AI使用影响不道德行为的关键中介机制。该机制具有情境独立性,能解释AI使用在非AI情境下的“溢出效应”(如对他人行为的判断),提供了比既往机制(如减少内疚感)更广泛的解释力。 3. 拓展不道德行为的前因研究:将AI技术本身识别为工作场所偏差行为和宽松道德 judgment 的一个新颖而重要的前因变量,突破了以往主要从个人特质或社会人际角度进行解释的范式。 4. 丰富道德认同理论在AI时代的应用:明确了道德认同在技术环境下的保护性作用,回答了“对谁而言AI使用更有害”这一新兴问题,为行为伦理学在AI时代的发展提供了新的见解。 5. 贡献于更广泛的伦理决策理论:将员工的AI使用作为一个新的情境因素,整合进Schwartz的综合伦理决策模型,解释了其如何影响个体伦理决策过程中的判断与行为阶段。

应用价值: 1. 对组织与管理者的启示:管理者需认识到AI部署的“双刃剑”效应,在评估AI效益时进行包含伦理影响的成本收益分析。可通过招聘筛选(关注道德认同)、设计强化道德自我概念的培训项目来培育员工的道德认同,以缓冲AI的伦理风险。同时应建立AI使用相关的伦理问题报告渠道。 2. 对AI开发者的启示:应考虑设计更符合人类道德直觉、减少用户接触矛盾道德准则的AI系统,或在AI输出中嵌入适当的“道德助推”以激活用户的道德身份。 3. 对政策制定者的启示:需推动建立超越性能与安全的AI伦理监管框架,如要求组织进行AI伦理影响评估、设立AI伦理官职位、制定激励组织维护AI应用伦理标准的政策。

五、研究亮点 1. 重要的研究发现:率先系统揭示并实证检验了员工AI使用通过道德相对主义诱发双重不道德结果(自身行为与对他人判断)的“阴暗面”,并发现了道德认同的关键保护作用。 2. 严谨的方法与设计:采用多方法三角验证(两个实验+一个多波次追踪调查)和多文化样本(中国与美国),极大增强了研究结论的内部效度、因果推断力与外部效度。 3. 理论整合与创新:创造性地将道德相对主义理论与关于人类对AI道德感知的道德心理学最新发现相结合,构建了具有解释力的理论模型。 4. 具有挑战性的检验:研究三特意选取使用具有“道德对齐”设计的大语言模型的员工作为样本,这实际上为假设提供了一个更为保守的检验,因为此类AI本应传递更一致的道德准则,但即便如此仍观测到了显著效应,使得结论更具说服力。

六、其他有价值的内容 研究在讨论部分指出了未来潜在的研究方向,包括:探索AI使用方式(如任务切换的时序变异性)的影响;将研究模型拓展至领导者或高管层面;探索除道德相对主义外的其他中介机制(如道德意识降低、道德推脱);深入考察文化价值观(如集体主义、文化紧密度)与不同类型AI技术的调节作用;以及探究AI使用与道德相对主义之间可能存在的双向因果关系。这些都为后续研究提供了清晰的路线图。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com