分享自:

构想一个两级人机通信框架:启动可解释人工智能与通信之间的对话

期刊:Communication TheoryDOI:10.1093/ct/qtae016

本文作者为 Kun Xu(美国佛罗里达大学新闻与传播学院)和 Jingyuan Shi(香港浸会大学互动媒体系),论文以“Visioning a Two-Level Human–Machine Communication Framework: Initiating Conversations between Explainable AI and Communication”为题,发表于2024年7月30日(网络先行版)的 Communication Theory 期刊。

本文属于一篇概念性论文,旨在搭建一个沟通两个新兴研究领域——人机传播(Human-Machine Communication, HMC)与可解释人工智能(Explainable AI, XAI)——的桥梁。其核心论点是:HMC与XAI之间的对话不仅可行,而且必要,二者的相互融合能够极大地丰富各自的研究视野,并共同指引未来以人为本的人工智能(AI)研究与开发。

主要观点与论述

主要观点一:HMC与XAI具有显著的互补潜力,其融合源于二者对“沟通”本质的共同关注,但侧重点不同。

作者认为,虽然HMC与XAI分属不同学科(传播学与计算机科学/信息科学等),但它们都触及了人类与AI互动的核心问题。一方面,HMC 作为一个迅速发展的传播学子领域,致力于理解人类如何与扮演“数字化对话者”(如聊天机器人、机器人、AI代理)角色的机器“创造意义”。它关注的是将机器视为传播主体后,对人类认知、社会关系和文化的广泛影响。然而,HMC研究大多聚焦于用户与技术界面的直接交互(第一层面),对于AI的“黑箱”内部工作机制如何被用户理解和感知,则相对缺乏系统性探索。

另一方面,XAI 作为计算机科学等领域的新兴分支,其核心目标是使AI系统的决策过程透明、可解释和可见,从而建立用户对AI的信任和理解。XAI关注的是“解释”本身——如何向用户(尤其是非专家)阐明AI的预测、推荐和决策是如何产生的。然而,当前的XAI研究主要集中于解释的“推理过程”(如解释模型逻辑或特定决策),对于解释作为一种“沟通过程”——涉及发送者、信息、接收者和效果——的复杂性则关注不足。

由此,作者指出,两个领域存在天然的接合点:HMC 研究的是 “AI如何能够进行沟通” ,而 XAI 则触及了 “AI如何能够被沟通” 的问题。XAI 提供的关于AI内部运作的解释,本质上是一种由发送者(可能是AI、设计者或公司)传递给接收者(用户)的“信息”。因此,将传播学中关于信息源、信息特征、接收者和传播效果的理论与知识引入XAI,可以极大地优化解释的设计与传播。反之,将XAI中关于“人在环路”和解释方法论的洞见引入HMC,则能帮助HMC研究超越界面交互,深入探讨用户对AI工作机制的理解如何塑造其人机关系。这种双向互益构成了全文论证的基础。

主要观点二:XAI的研究视角可以为HMC领域提供两个关键的拓展方向:“人在环路”方法与“信息生产可解释性”维度。

作者具体阐述了XAI如何为未来的HMC研究注入新的理论活力。

  1. “人在环路”(Human-in-the-Loop)方法的启示:XAI强调人类知识在AI决策各阶段的参与,如数据标注、结果验证和模型选择。作者提出,HMC研究可以考察向用户解释这种人类参与的程度与方式,将如何影响他们对AI的感知(如可信度、公正性)。例如,告知用户AI的推荐经过了人类专家的结果验证,或AI模型是基于特定领域的专家知识进行选择的,可能会显著提升用户对AI系统的信任。这挑战了HMC中经典的“机器启发式”理论(认为用户会单纯将客观、公平等特质归于机器),因为“人类参与”的解释线索可能使用户的认知加工变得复杂,不再简单地将AI视为纯粹的机器。作者将这些解释归纳为三个可能影响HMC的研究焦点:数据标注结果验证模型选择。探讨这些解释性信息,能够使HMC研究从单纯比较“人vs.机器”的表现,深化到理解“人机协同”的后台机制如何影响前台的人机互动。

  2. “信息生产可解释性”(Message Production Explainability)维度的引入:作者批判性地拓展了O‘Sullivan和Carr提出的“大众人际传播模型”(该模型用信息可及性和信息个性化两个维度划分媒体技术)。他们认为,在AI时代,用户对AI如何“生产”信息的机制日益关注,因此有必要在原模型基础上增加第三个维度:信息生产可解释性。这个维度反映了用户感知到的技术信息生产过程的可解释性、透明度和可见度。由此,作者提出了一个新的三维模型——M-PAPE模型(信息个性化、可及性与生产可解释性)。例如,一个基于模式匹配的聊天机器人(规则由人预先设定)与一个基于无监督学习的聊天机器人,在“生产可解释性”维度上可能位于不同的位置,从而引发用户不同的感知和信任水平。同样,增强现实技术可以根据其背后算法原理的解释方式,被用户置于不同的可解释性感知点上。这个新模型为HMC研究提供了一个更精细的框架,用以分析和比较各种AI技术,并预测用户对不同技术特征组合的反应。

主要观点三:HMC及更广泛的传播学理论可以为XAI研究在四个关键方向上提供理论支持与扩展:解释源、解释信息、解释接收者与解释效果。

作者从经典的传播过程模型(信源-信息-接收者-效果)出发,系统论述了传播学如何反哺XAI研究。

  1. 解释源(Explanation Sources):XAI研究通常关注训练数据来源的解释。传播学,特别是HMC中的“信源定向模型”,揭示了“解释源”的多层次性。用户可能将解释的提供者感知为:AI本身背后的AI系统/算法设计算法的工程师拥有该系统的公司品牌。此外,还有解释的实际提供者(人或机器)和训练数据的来源/标注者。这种多层次的源感知会显著影响用户对解释的接受度和对AI的信任。传播学关于信源可信度和定向过程的研究,可以帮助XAI学者更细致地设计和管理解释的来源线索,以实现更好的传播效果。

  2. 解释信息(Explanation Messages):解释本身就是一种信息。传播学中丰富的关于信息特征和设计的研究可以直接应用于优化解释信息。这包括:

    • 社会线索:如错别字、表情符号、语言风格(如支配型vs.顺从型、拟人化vs.非拟人化)如何影响用户对AI的态度和说服效果。
    • 说服策略:如“登门槛”技巧、得失框架(强调收益或强调损失)如何被整合进解释信息序列中,以增强用户对AI建议的采纳意愿。
    • 沟通理论:如沟通顺应理论等,为设计更自然、更有效的解释性对话提供了理论依据。
  3. 解释接收者(Explanation Receivers):XAI研究已意识到解释效果因人而异。传播学关于接收者个体差异的研究可以极大丰富XAI的“以人为中心”设计。关键变量包括:

    • AI素养:不同知识水平的用户对解释的深度和形式(如概念性解释vs.视觉化解释)需求不同。
    • 动机与议题涉入度:根据精细加工可能性模型,用户处理解释信息的动机强度(如健康诊断AI的解释 vs. 广告推荐AI的解释)会影响他们是系统分析还是依赖启发式判断。
    • 人格特质:对AI的恐惧、对他人的普遍不信任、批判性思维倾向等,都会调节用户对解释的认知与反应。
  4. 解释效果(Explanation Effects):XAI的既定目标是提升信任和可理解性,但传播学提醒我们关注解释可能带来的意外后果。作者借鉴传播学中关于“意外效果”的类型学,指出解释可能产生:

    • 混淆效果:过于复杂或不当的解释反而使用户更加困惑。
    • 回旋镖效应:解释引发了用户的警惕或反感,降低了信任。
    • 社会再生产效应:解释可能扩大了不同AI素养群体之间的“知识沟”。 此外,效果测量也不应局限于信任,而应拓展到用户的态度、行为意图、情感反应乃至生理反应等多个层面。

主要观点四:基于上述双向整合,作者提出了一个“双层人机传播框架”,以指导未来的交叉研究。

这是全文的理论核心与最终落脚点。该框架将人机互动分为两个相互关联的层面: * 第一层HMC:即当前HMC研究的主要范畴,关注人类与作为传播主体的机器之间的直接意义创造与互动。研究焦点在于技术作为对话者的社会、文化及心理影响。 * 第二层HMC:这是一个扩展层面,关注人类如何接收、感知和评估关于AI工作机制的解释。这些解释可能涉及上述的“人在环路”参与或“信息生产可解释性”。在这一层面,XAI与传播学关于信源、信息、接收者和效果的理论深度融合。

该框架的理论意义在于: 1. 它超越了简单对比“人机表现”的研究范式,强调探究AI内部特征(尤其是人类在其中的角色)如何使其区别于纯粹的人类或机器。 2. 它指明,用户对AI的最终态度和接受度,是其对机器界面的反应(第一层)与对机器后台机制的理解(第二层)共同作用的结果。 3. 它正式将“解释”确立为HMC研究中一类至关重要的“信息”,从而为传播学者系统性地参与XAI研究开辟了道路。 4. 它整合了HMC、XAI、计算机中介传播、AI中介传播、说服等多领域理论,为未来人机交互研究提供了一个包容且具有前瞻性的路线图。

论文的意义与价值

本文具有重要的理论前瞻性和学科建设价值。

首先,它开创性地在传播学与人工智能的工程研究之间架设了系统的理论桥梁。论文没有停留在泛泛而谈跨学科合作的重要性,而是深入剖析了两个领域在概念、方法和关切上的具体接合点,提出了切实可行的整合方向(六条路径)和一个统摄性的理论框架(双层HMC框架)。

其次,它对HMC和XAI两个领域都提出了建设性的拓展议程。对于HMC学者,论文指出了局限于“界面互动”研究的不足,并提供了向“机制理解”纵深发展的理论工具(如人在环路、M-PAPE模型)。对于XAI研究者,论文系统性地展示了传播学半个多世纪积累的关于人类沟通的知识宝库如何能直接用于优化“解释”这一核心产品的设计与评估,使其真正实现“以人为中心”。

最后,论文具有显著的实践与伦理启示。它提醒开发者和政策制定者,AI的透明度不仅是一个技术问题,更是一个沟通设计问题。如何负责任地、有效地向用户解释AI,需要综合考虑信源、信息设计、用户差异和潜在风险。文中引用的《白宫AI权利法案蓝图》和《欧盟AI法案》也体现了这一工作的现实紧迫性。作者也审慎地指出了相关伦理风险,如利用解释操纵用户、强化偏见等,呼吁在推进透明化的同时建立相应的监督与规范。

这篇概念论文以其清晰的逻辑、系统的梳理和富有创见的理论建构,成功发起并初步规划了一场HMC与XAI之间的深度对话,为未来在人工智能时代研究人机关系、设计可信AI指明了关键的理论路径。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com