分享自:

构建两级人机通信框架:可解释AI与通信之间的对话

期刊:Communication TheoryDOI:10.1093/ct/qtae016

学术报告:构建人机通信与可解释人工智能(XAI)的对话框架

作者及机构
本论文由美国佛罗里达大学新闻与传播学院的Kun Xu和香港浸会大学互动媒体系的Jingyuan Shi(通讯作者)合作完成,发表于2024年7月的《Communication Theory》期刊第34卷第4期,论文标题为《Visioning a Two-Level Human–Machine Communication Framework: Initiating Conversations Between Explainable AI and Communication》。

研究背景与目标
随着人工智能(AI)技术的快速发展,传播学者日益关注人类对AI预测、推荐和决策的感知与态度。与此同时,可解释人工智能(Explainable AI, XAI)这一新兴领域致力于揭示AI的内部机制,使其决策过程透明化、可解释。本文提出,人机通信(Human-Machine Communication, HMC)与XAI的跨学科对话具有重要价值:一方面,XAI的研究成果可为HMC提供“人在回路”(human-in-the-loop)方法和消息生产可解释性(message production explainability)的理论支持;另一方面,传播学对消息来源、接收者、特征及效果的研究可反哺XAI,优化其解释性设计。论文的核心目标是提出一个两级HMC框架,通过融合两领域的研究推动未来AI的发展。

主要观点与论据

  1. XAI对HMC研究的启示

    • 人在回路方法:XAI强调人类知识在AI决策中的介入,例如数据标注(data annotation)、结果验证(outcome verification)和模型选择(model selection)。研究表明,当用户知晓人类专家参与AI训练(如医疗诊断算法中的医生经验),其对AI的信任度显著提升(Deng et al., 2020)。HMC研究可借此拓展对AI透明度的理解,例如用户如何评估人类参与程度对AI内容生成的影响。
    • 消息生产可解释性:作者提出扩展O’Sullivan和Carr的“消息个性化-可访问性”二维模型,新增消息生产可解释性(MPAPE)维度,形成三维模型(M-PAPE)。例如,基于规则匹配的聊天机器人(如客服系统)因人类预设响应规则而具有高解释性,而基于无监督学习的模型(如大型语言模型)则解释性较低。这一维度可帮助研究者比较不同AI技术的用户接受度。
  2. 传播学对XAI的贡献

    • 解释来源(Explanation Sources):传播学的“来源导向模型”(Source Orientation Model)揭示用户对解释提供者的感知分层(如AI系统本身、开发者或品牌),影响其对解释的信任(Guzman, 2018)。例如,用户可能因算法解释的“远程程序员”来源而降低信任(Solomon & Wash, 2014)。
    • 解释消息设计(Explanation Messages):传播学中的说服策略(如“得寸进尺”效应)和语言风格研究可为XAI提供优化方向。例如,机器人使用渐进式请求策略(从小请求到大请求)能提高用户依从性(Lee & Liang, 2019),而AI解释的增益框架(gain-framed)或损失框架(loss-framed)设计可能影响用户决策(O’Keefe & Jensen, 2006)。
    • 解释接收者差异(Explanation Receivers):用户个体差异(如AI素养、动机)决定其对解释形式的偏好。高AI素养用户偏好技术性解释(如数学模型),而低素养用户更依赖可视化说明(Kim et al., 2023)。传播学的“精细加工可能性模型”(ELM)可指导XAI设计分层解释策略。
  3. 两级HMC框架的理论构建

    • 第一级HMC:关注用户与技术界面的直接交互(如聊天机器人对话),研究焦点包括技术的社会文化影响和用户心理反应。
    • 第二级HMC:引入对AI内部机制的解释(如算法透明度),探讨用户如何通过理解AI的“黑箱”调整其态度与行为。例如,医生在接收AI诊断建议时,若同时获得病理特征解释(如模型关注的影像区域),其决策信心会增强(Xu et al., 2019)。

研究意义与价值
1. 理论价值:两级HMC框架突破了传统HMC仅对比人机表现的局限,将AI透明性纳入研究范畴,为理解人机关系的复杂性提供了新视角。
2. 应用价值:论文提出的整合方向(如人类知识介入的量化、解释消息的个性化设计)可直接指导AI产品开发,例如医疗AI的临床部署或金融推荐系统的合规性设计。
3. 伦理与实践启示:作者警示,解释性设计可能被滥用(如掩盖算法偏见),需通过政策规范(如欧盟《AI法案》)确保透明性的真实性。

亮点与创新
- 跨学科整合:首次系统梳理XAI与传播学的互补性,提出“解释即消息”的核心观点。
- 方法论创新:M-PAPE模型为技术特征分析提供了新工具,适用于Chatbot、AR等多样场景。
- 前瞻性框架:两级HMC框架为未来AI研究开辟了新路径,尤其在生成式AI(如LLMs)的透明性需求背景下更具现实意义。

其他重要内容
论文呼吁加强传播学者与计算机科学家的合作,例如共同设计用户友好的解释界面,或开发评估解释效果的传播学指标(如信任度、认知负荷)。这一倡议对推动负责任AI发展具有深远影响。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com