这篇由来自意大利国家研究理事会认知科学与技术研究所的Domenico Maisto、Francesco Donnarumma和Giovanni Pezzulo共同撰写的学术论文,题为“Interactive Inference: A Multi-Agent Model of Cooperative Joint Actions”,发表于2024年2月的《IEEE Transactions on Systems, Man, and Cybernetics: Systems》期刊第54卷第2期。论文提出了一种创新的、基于主动推理(Active Inference)认知框架的多智能体协作联合行动计算模型,旨在为理解人类合作行为背后的复杂认知机制提供一个形式化(formal)的解释框架,并推动多智能体系统领域的发展。
论文的主要观点与论述
1. 核心论点:将协作联合行动建模为“交互推理”过程 论文的核心论点是,高级的协作联合行动(joint action)——例如两个人共同决定并按下同一个按钮——依赖于一种“交互推理”过程。这不仅仅是行为上的同步,更深层地涉及心智状态的相互推断与共享任务表征(shared task representations)的对齐。作者认为,传统的耦合动力系统模型可以解释简单的行为同步(如节奏同步),但不足以解释需要共同决策的复杂协作。因此,他们提出,每个参与协作的个体(智能体)都持续地进行着一种双重推理:一方面,他们通过观察对方的行动来更新自己关于“共同目标”的信念;另一方面,他们会有意地选择那些能让自己的意图更容易被对方推断出来的行动(即“感觉运动沟通”,sensorimotor communication)。这种持续的、双向的信念与行为更新循环,最终导致双方信念和行为策略的对齐,从而确保联合行动的成功。
2. 通过仿真验证模型:无领导者与领导者-追随者两种协作模式 为了验证“交互推理”模型的有效性,论文设计了基于“联合迷宫”任务的两组计算仿真实验。该任务要求两个智能体在迷宫中导航,最终同时到达并按下同一个颜色的按钮(红色或蓝色)。仿真成功的关键不在于预先设定的程序,而在于模型在运行中展现出的动态认知过程。
3. 模型的理论贡献与优势:统一性、解释力与认知启发性 论文详细阐述了所提模型相较于以往工作的优势与贡献。 * 提供统一的形式化原则:模型从主动推理这一第一性原理出发,为联合行动中的多种认知能力(相互预测、心智状态推断、感觉运动沟通、共享表征对齐)提供了一个统一的、规范的计算解释,弥补了该领域缺乏此类基础理论的空白。 * 复现关键行为动态:模型成功复现了“无领导者”协作中的信念行为对齐现象,以及“领导者-追随者”协作中的感觉运动沟通现象。特别是,它自然地解释了沟通行为如何随不确定性动态调整,这与人类数据高度吻合。 * 模型的灵活性与认知合理性:仿真一和仿真二使用的是同一套核心计算模型,仅通过调整智能体先验信念的强度(确定性)和关于任务结果的知识,就产生了两种截然不同的协作模式。这表明“领导者”与“追随者”的角色差异本质上是信念强度与知识不对称的体现,而非模型结构的不同。这增强了模型的解释力和简洁性。此外,模型中的“共享任务表征”(即关于联合目标情境的信念)是实现社会性行为(如为对方降低不确定性)的关键认知结构。
4. 研究的意义、应用前景与未来挑战 论文在结论部分总结了该工作的广泛意义。 * 科学价值:为理解人类联合行动的认知神经机制提供了新的、可计算的理论视角。模型预测的信念对齐动态可与神经同步现象相联系,为神经科学研究提供假设。 * 应用价值:为设计更高效、更自然的多智能体系统(Mass)和机器人提供了认知启发。为了让机器人更好地与人类协作,需要赋予它们类似人类的意图推断、表征对齐和信号传递能力。本模型为此指明了一条基于主动推理的实现路径。 * 未来方向:论文也指出了当前模型的局限和未来研究方向,包括:将模型从网格世界扩展到连续的、有噪声的机器人实验环境;扩展到多于两个智能体的群体场景;以及超越纯合作场景,探索竞争或混合动机的交互。此外,学习更复杂的生成模型(如利用深度学习)和在大型状态空间中规划也是需要解决的技术挑战。
总结 这篇论文通过发展一个基于主动推理的多智能体交互推理模型,对协作联合行动这一复杂社会认知现象进行了深入的形式化探索。它不仅在计算层面展示了信念对齐和感觉运动沟通如何从统一的推理原则中涌现,而且成功地将其动态与人类实验观察到的关键行为模式联系起来。该工作架起了认知科学与人工智能/机器人学之间的桥梁,既加深了我们对人类合作本质的理解,也为构建具有高级社会智能的自主系统提供了坚实的理论基础和富有前景的技术蓝图。其核心价值在于,它证明了许多看似特殊的社会行为,可以从一个追求高效感知与行动的通用计算框架中自然地推导出来。