类型b:
Raisch, Sebastian(日内瓦大学)和Krakowski, Sebastian(斯德哥尔摩经济学院)于2021年在《The Academy of Management Review》发表了题为《Artificial Intelligence and Management: The Automation-Augmentation Paradox》的论文。该论文探讨了人工智能(AI)在管理领域中的自动化(automation)与增强(augmentation)应用之间的悖论关系,并基于三本商业畅销书的理论框架,提出了一个更全面的悖论理论视角。
主要观点一:自动化与增强的二元对立叙事存在局限性
当前主流商业书籍(如Brynjolfsson & McAfee 2014; Daugherty & Wilson 2018; Davenport & Kirby 2016)将AI在管理中的应用简化为非此即彼的选择:自动化(机器完全接管任务)或增强(人机协作)。这些书籍倾向于推崇增强策略,认为其能带来更高的组织绩效。然而,作者指出这种二元对立忽略了两种模式在时空维度上的动态依存关系。例如,JP摩根大通在人才招聘中通过初期人机协作(增强)最终实现了候选人评估的自动化,而香料公司Symrise通过AI辅助调香师开发新配方后,也将部分创意生成任务自动化。这些案例表明,增强可能是自动化的先导阶段。
主要观点二:悖论理论揭示自动化与增强的时空依存性
通过悖论理论(paradox theory)的视角,作者提出自动化与增强之间存在”矛盾且相互依赖”的关系:
1. 时间维度:二者呈现周期性循环。例如,复杂管理任务(如产品创新)初期需通过增强探索规则,待模型成熟后可转为自动化;当环境变化(如技能需求改变)时,又需回归增强以调整模型。
2. 空间维度:自动化会引发相邻任务的增强需求。以Symrise为例,自动化香水配方生成后,调香师需增强参与前期的目标设定(输入客户需求参数)和后期的配方选择(感官评估与迭代优化)。这种嵌套式依存关系导致悖论张力持续存在。
主要观点三:单极策略引发恶性循环,悖论管理创造互补价值
- 自动化陷阱:过度自动化会导致人力资源流失、技能退化,最终使组织陷入”零边际成本竞争”(Davenport & Kirby 2016)。如亚马逊AI招聘工具因训练数据偏差歧视女性应聘者,暴露纯自动化的伦理风险。
- 增强困境:单纯依赖增强需持续投入高成本人机交互,且难以消除人类主观偏见。例如,美国法院使用的AI量刑系统在增强模式下仍将黑人被告误判为高再犯风险。
- 解决方案:采用”分化-整合”策略。联合利华(Unilever)在招聘中分化评估(自动化)与终选(增强)阶段,并通过HR全程监督实现整合,最终在提升多样性(16%)的同时缩短90%招聘周期。这种悖论管理创造了”分布式道德”(distributed morality)框架下的互补价值。
主要观点四:管理学研究需重构AI时代的人类主体性假设
作者批判现有管理理论仍基于”有限理性人类主体”的单一假设,提出三个革新方向:
1. 理论层面:需承认机器作为新型组织主体(agent)的自主性,例如AI在数据处理中表现出的非人类行为模式(如无认知偏见的全局搜索)。
2. 方法层面:应从实验室环境转向”野性研究”(in-the-wild studies),捕捉人机混合系统(hybrid organizational systems)的涌现行为。
3. 伦理层面:需建立跨学科研究框架,解决”责任缺口”(accountability gap)问题。如IBM提出的”增强智能”(augmented intelligence)原则强调人类需保持对AI系统的解释权。
论文价值与意义
该研究通过悖论理论解构了AI管理应用的复杂性,其核心贡献在于:
1. 理论创新:突破了自动化/增强的二元叙事,提出时空交织的悖论模型,为AI时代组织研究提供元理论框架。
2. 实践指导:提出的”分化-整合”策略被微软、德意志电信等企业采纳,证明其可平衡效率与创新。
3. 学科建设:呼吁管理学者与计算机科学家合作,推动AI研究的”关系本体论”(relational ontology)转向,这对构建数字时代的组织伦理具有重要意义。
文中特别强调,霍金”AI可能是人类最好或最糟发明”的警示正凸显了管理理论介入的紧迫性。该研究为理解人机协同提供了系统性思维工具,其价值已在药物个性化定制、自适应交易策略等跨领域应用中得到验证。