类型b
本文由Craig Johnson和Emad Mohamed共同撰写,两位作者均来自英国布拉德福德大学管理学院商业分析、循环经济与创业系。论文于2025年发表在期刊《Action Learning: Research and Practice》第22卷第1期,标题为《Responsible AI and Action Learning》,主题探讨行动学习(action learning)在推动负责任人工智能(Responsible AI)发展中的潜在作用。
主要观点一:人工智能发展的社会维度缺失现状
论文指出当前AI研究过度集中于技术和商业层面,其社会影响和伦理问题被严重忽视。作者引用Bostrom(2014)、Lee(2018)等学者的定义,阐明AI本质上是通过计算机实现人类认知功能(如推理、决策、创造力)的技术,但特别强调生成式AI(Generative AI,GenAI)与传统AI的区别:前者基于Transformer架构(Vaswani等2017),具备发散思维(divergent thinking)能力,可应用于创意生成等领域。通过ChatGPT用户60天内破亿的案例(Leonardi 2023),作者证实AI已引发社会级应用热潮,但监管框架仍滞后于技术发展。
主要观点二:行动学习对AI治理的互补价值
该研究提出行动学习可作为跨学科协作的方法论工具:
1. 促进多学科对话:基于Revans的学习公式L=P+Q(学习=程序性知识+质疑洞察),行动学习能整合哲学、法律、社会学等非技术学科视角。论文列举MIT等机构伦理委员会因缺乏多样性失败的案例(Le Bui & Noble 2020),反证跨学科对话的必要性。
2. 劳动力重塑:针对AI导致的就业极化(job polarization)现象(Frey & Osborne 2017),作者引用“任务侵蚀”(task encroachment)理论(Susskind 2020),提出通过行动学习进行技能重组。美国1300万社交媒体内容创作者的就业案例(Hund 2024)佐证了劳动力市场的动态性。
3. 伦理治理实践:通过医疗AI的三大失败案例(癌症误诊、哮喘优先级错判、老年患者数据偏差),实证纯技术团队开发的系统存在重大伦理风险,需引入医生、法律人士等组成行动学习组(action learning set)提前介入开发流程。
主要观点三:责任AI的三重实施框架
1. 法律合规层面:系统分析欧盟《AI法案》(European Commission 2024)的风险分级制度,强调禁止类AI(如决策操纵系统)需在2024年底前清除。相较美国NIST AI风险治理框架(Department of Commerce 2023),欧盟方案更具强制性。
2. 伦理原则层面:对比Asilomar原则(Future of Life Institute 2024)与Z-Inspection®等评估体系,指出现有框架多忽视就业影响。肯定罗尔斯·罗伊斯Aletheia框架(Rolls Royce 2024)首次纳入岗位流失评估的创新。
3. 技术实施层面:主张采用”人机协同”(human plus machine)模式(Wilson & Daugherty 2018),通过行动学习将伦理审查嵌入AI开发生命周期,并引用医疗诊断AI提升医生准确率的成功案例(Christian 2020)证明该模式可行性。
主要观点四:AI治理的“棘手问题”属性
作者引用Rittel和Webber(1973)的“棘手问题”(wicked problem)理论,指出AI治理具有目标模糊性、利益相关者冲突等特征。通过”钟摆理论”(Barley & Kunda 1992)分析管理思潮在效率导向(理论X)与人文导向间的摇摆,预言当前AI发展正滑向过度技术中心主义。提出”批判性行动学习”(critical action learning, Pedler & Hsu 2014)可培育对AI系统的批判性思维,避免陷入技术决定论陷阱。
论文价值与意义
1. 理论创新:首次系统构建行动学习与AI伦理的交叉研究框架,拓展了Revans行动学习理论在数字时代的应用边界。
2. 实践指导:为组织提供可操作的AI治理工具,特别是针对高风险AI系统的多利益方协作机制设计。
3. 政策参考:通过比较欧美监管路径,揭示法律强制与行业自律的平衡点,对后续AI立法的演进具有预警价值。
文中特别强调”阿马拉法则”(Amara’s Law)的警示作用——技术短期影响常被高估而长期影响被低估(Susskind 2020),主张以行动学习的持续反思机制应对AI发展的不确定性。这种将管理学研究方法与技术治理结合的跨学科视角,是其区别于纯技术或纯伦理讨论的核心特色。