本研究《Beyond Human-in-the-Loop: Sensemaking between Artificial Intelligence and Human Intelligence Collaboration》由Xinyue Hao、Emrah Demir和Daniel Eyers(作者单位:Business & Economics Artificial Intelligence Research Network, Cardiff Business School, Cardiff University)完成,并于2025年8月16日在线发表在期刊《Sustainable Futures》(卷10,文章编号101152)上。
本研究属于运营与供应链管理(Operations and Supply Chain Management, OSCM)、人工智能与人机协作交叉的学术领域。随着人工智能(Artificial Intelligence, AI)在优化、预测等结构化任务中展现出超越人类的速度与精度,而人类智能(Human Intelligence, HI)则在处理不确定性、进行情境判断和伦理监督方面保持不可替代性,一种超越简单“人在回路”(Human-in-the-Loop)模式的协同范式正在兴起。然而,现有研究多将AI与HI视为独立的研究对象,或局限于静态的辅助模型,对于二者在真实、复杂、动态的运营环境中如何具体互动与协同工作(co-functioning)的理解存在显著缺口。特别是,在OSCM领域,决策往往需要在快速、直觉的系统一(System 1)思维与分析性、深思熟虑的系统二(System 2)思维之间灵活切换,这为研究AI(通常关联System 2)与HI(能驾驭两种系统)的协作提供了独特的、高数据强度的现实场景。
鉴于此,本研究的核心目标是:在需要快速直觉反应与分析性数据处理的OSCM中断情境下,探究AI与HI代理(如数据分析师、运营经理)如何互动,以及何种机制促成了它们在真实运营环境中的有效协同。研究旨在超越“人在回路”或“AI辅助”等静态模型,构建一个将AI-HI协作概念化为一个动态的、共同构成的(co-constitutive)社会技术系统的新框架。
本研究采用了定性、探索性的多案例研究方法,以意义建构(Sensemaking)理论为框架,结合认知映射(Cognitive Mapping)方法,深入剖析了AI-HI协作的实践过程。
第一,案例与场景选择。 研究团队并非进行随机抽样,而是精心选择了9家在OSCM领域被公认为AI应用标杆的领先企业作为“基准案例”(Benchmark Cases),以确保能获取信息丰富、面向实践的深度见解。这些案例被组织成一个“洋葱模型”,包括: - 核心创新者(Innovators): 直接应用AI技术优化自身运营的企业。包括3家运输行业创新者(案例A-C,涉及航空供应链、端到端物流、农业食品供应链)和2家零售行业创新者(案例D-E,涉及电子商务、数字医药供应链)。 - 解决方案提供者(Solution Providers): 为其他企业开发、定制和优化AI解决方案的公司。包括2家定制AI服务提供商(案例F-G,涉及机器人制造、算法解决方案服务)和1家AI微调咨询公司(案例H,涉及智能决策服务)。 - 生态系统利益相关者(Ecosystem Stakeholders): 外围的影响者(如监管机构、行业协会),其影响在研究中作为背景考量。 在每个案例企业内部,研究者进一步选择了具体的、AI密集的决策场景,如航班调度、物流路径优化、自动化仓储、需求预测等,确保所选场景体现了人机之间紧密且持续的互动。
第二,数据收集。 数据收集工作在2022年9月至2023年8月间进行。研究团队对来自这9家公司的28位关键专家进行了半结构化深度访谈。受访者覆盖了多元化的角色,以同时捕捉技术实施与战略决策视角,包括:运筹学科学家、算法工程师、数据科学家、解决方案设计工程师、集成负责人、总监、副总裁以及AI顾问等。他们的经验从1-5年到10-15年不等,确保了洞察的深度与广度。
第三,数据采集与分析过程(认知映射方法)。 本研究的核心创新在于采用了动态的、累积式的认知映射方法来分析和呈现数据。 - 访谈结构: 访谈围绕AI-HI实施生命周期的三个阶段展开:1) 开发前(Pre-development): 早期开发与试点;2) 部署(Deployment): 实施;3) 部署后(Post-development): 交付成果的接受与未来应用。 - 实时映射与迭代: 每次访谈中,参与者使用Miro在线协作白板,实时构建反映其组织决策逻辑的认知地图。地图由节点(代表决策、概念或影响因素)和箭头(代表因果关系或依赖关系)构成。关键之处在于,后续访谈的参与者会看到并在此前访谈所构建的地图版本上进行评论、修订或扩展。这种“累积式”方法促成了一种分布式意义建构,让不同视角得以汇聚、分歧或演进。 - 数据合成: 所有访谈结束后,一个三阶段的数据合成过程被启动:1) 节点编码: 将关键节点编码为六类:决策点、资源与能力、风险、赋能因素、组织结构、外部驱动力。2) 关系标准化: 对关系边进行方向、极性(正/负影响)和强度(弱/中/强)的标准化。3) 网络分析: 使用NVivo 14软件处理数据,生成邻接矩阵和视觉网络图,以揭示跨企业的共享结构模式、关键决策节点和组织摩擦点。最终,通过整合经过验证的人类认知地图和AI架构的系统级文档,生成了一个复合的“HI-AI认知地图”,可视化地呈现了人类与人工代理在决策工作流中如何协调、否决或相互遵从的动态交互。
研究结果通过描绘AI与HI各自的作用以及二者协同的范式,深刻揭示了协作的动态本质。
第一,AI的决策过程。 研究发现,无论是运输还是零售领域的创新者,AI的决策过程都高度依赖于对海量、多源数据的系统化收集、整合与分析。这个过程贯穿三个阶段:1) 开发前: 核心是数据基础工作。数据经过收集、清洗、结构化,并进行探索性数据分析以识别模式和特征。例如,在运输业整合航班、交通、天气数据;在零售业整合销售历史、客户互动和市场趋势数据。2) 部署: AI模型被集成到实时运营系统中,处理连续数据流以做出动态调整(如根据天气实时调整航班计划,或根据销售数据调整库存)。这严重依赖云计算和边缘处理技术来保障可扩展性与响应速度。3) 部署后: 聚焦于持续改进。AI模型通过集成历史性能数据和用户反馈进行微调与重新校准,实现持续学习。例如,分析过去的航班延误数据以优化调度算法,或根据新的市场条件调整需求预测模型。
第二,HI的关键作用。 尽管AI能力强大,但人类智能在多个层面发挥着不可或缺的作用,这些作用往往根植于对背景、伦理和异常情况的处理。研究通过具体案例揭示了HI的角色:1) 情境化与适应: 在航空调度中,人类规划师能将算法优化的排班与机组人员偏好、疲劳法规、实时天气等动态因素相结合。在物流路径优化中,人类协调员在AI建议的路线中融入对驾驶员安全、交付质量和环境影响的考量。2) 伦理与规范监督: 在医药供应链中,人类确保AI的库存优化建议符合严格的行业法规和患者安全标准。在AI伦理集成服务中,人类专家负责识别和缓解算法偏见,确保决策的公平性与透明度。3) 错误检测与系统改进: 在自动化仓储和风险管理中,人类操作员能发现AI系统忽略的特定情境细节或产生的错误,并进行纠正。人类还通过预部署测试和持续监控来完善系统。4) 战略对齐与解释: 在AI解决方案服务中,人类专家充当“翻译”,将AI输出的技术洞察转化为符合客户具体业务背景和战略目标的可行建议。
第三,AI-HI协同范式。 本研究最重要的发现是,AI与HI的协作并非简单的任务分工,而是一个贯穿决策生命周期、动态且相互构成的“共同生产”过程。 - 开发前阶段: 协作是战略性和伦理性的。AI提供从海量数据中发现潜在趋势和优化机会的计算能力,而HI则负责评估这些见解的领域适用性、法律合规性和利益相关者影响,并将伦理边界嵌入AI设计。 - 部署阶段: 协作是功能适配的。AI在一线自动化常规任务并生成实时建议,而HI则行使自由裁量权,解释AI输出、调整参数、处理训练数据分布之外的边缘案例(edge cases),并在危机事件中确保决策的可行性与伦理性。 - 部署后阶段: 协作是反思性的。AI系统持续学习与优化,而HI则通过定期审计、分析模型漂移和更新伦理框架来确保AI的进化不偏离组织目标和规范承诺。人类在危机响应、元洞察提取和战略学习方面扮演核心角色。
研究进一步提炼出构建这种动态协作关系的三个相互依存的维度:1) 认知不对称: AI的统计抽象与HI的情境化解释推理之间存在固有张力,协作需要通过人类的解释性框架来弥合。2) 符号性问责: 人类监督的存在本身具有合法性功能,向外部利益相关者表明算法决策受到了规范审视,有助于建立信任。3) 基础设施互依性: AI的连续运行逻辑与HI的间歇性介入节奏存在时间错配,需要预设的覆写路径、异常处理机制等基础设施“脚手架”来协调。
本研究的核心结论是:AI与HI的协作应被理解为一种 “制度共同生产”(institutional co-production) 的动态社会技术过程,而非静态的“人在回路”模型。协作的有效性不仅取决于技术性能优化,更取决于组织能否在认知不对称、符号性问责和基础设施互依性这三个维度上构建起支持分布式认知、维持程序一致性并保障自适应韧性的治理框架。
理论贡献方面: 本研究通过引入“制度共同生产”概念,弥合了AI研究、认知科学和制度理论之间破碎的文献。它将协作视为一个在组织规则、专业规范和法律框架内不断协商的关系过程,强调了分布式认知、伦理监督和基础设施设计在构建可信、可问责的人机系统中的核心作用。这为理解当代决策系统的治理提供了更广阔的理论视角。
实践意义方面: 研究为希望整合AI与HI的组织提供了可操作的见解:1) 必须投资于稳健的数据治理和基础设施,以协调人与机器不同的时间节奏和决策逻辑。2) 需要设计正式的治理程序(如明确的覆写机制、升级协议)和利益相关者包容的设计实践,将符号性问责落到实处。3) 应重视构建持续学习、跨职能对齐和定期绩效评估的反思性文化,以支持协作的长期可持续性。4) 在AI生态日益复杂和去中心化的趋势下,组织应优先发展能够支持适应性、可解释性和可问责性人机决策的反思性治理机制。