学术报告:构建人机通信与可解释人工智能(XAI)的对话框架
作者及机构
本论文由美国佛罗里达大学新闻与传播学院的Kun Xu和香港浸会大学互动媒体系的Jingyuan Shi(通讯作者)合作完成,发表于2024年7月的《Communication Theory》期刊第34卷第4期,论文标题为《Visioning a Two-Level Human–Machine Communication Framework: Initiating Conversations Between Explainable AI and Communication》。
研究背景与目标
随着人工智能(AI)技术的快速发展,传播学者日益关注人类对AI预测、推荐和决策的感知与态度。与此同时,可解释人工智能(Explainable AI, XAI)这一新兴领域致力于揭示AI的内部机制,使其决策过程透明化、可解释。本文提出,人机通信(Human-Machine Communication, HMC)与XAI的跨学科对话具有重要价值:一方面,XAI的研究成果可为HMC提供“人在回路”(human-in-the-loop)方法和消息生产可解释性(message production explainability)的理论支持;另一方面,传播学对消息来源、接收者、特征及效果的研究可反哺XAI,优化其解释性设计。论文的核心目标是提出一个两级HMC框架,通过融合两领域的研究推动未来AI的发展。
主要观点与论据
XAI对HMC研究的启示
传播学对XAI的贡献
两级HMC框架的理论构建
研究意义与价值
1. 理论价值:两级HMC框架突破了传统HMC仅对比人机表现的局限,将AI透明性纳入研究范畴,为理解人机关系的复杂性提供了新视角。
2. 应用价值:论文提出的整合方向(如人类知识介入的量化、解释消息的个性化设计)可直接指导AI产品开发,例如医疗AI的临床部署或金融推荐系统的合规性设计。
3. 伦理与实践启示:作者警示,解释性设计可能被滥用(如掩盖算法偏见),需通过政策规范(如欧盟《AI法案》)确保透明性的真实性。
亮点与创新
- 跨学科整合:首次系统梳理XAI与传播学的互补性,提出“解释即消息”的核心观点。
- 方法论创新:M-PAPE模型为技术特征分析提供了新工具,适用于Chatbot、AR等多样场景。
- 前瞻性框架:两级HMC框架为未来AI研究开辟了新路径,尤其在生成式AI(如LLMs)的透明性需求背景下更具现实意义。
其他重要内容
论文呼吁加强传播学者与计算机科学家的合作,例如共同设计用户友好的解释界面,或开发评估解释效果的传播学指标(如信任度、认知负荷)。这一倡议对推动负责任AI发展具有深远影响。