这篇文档属于类型b,即一篇科学综述文章。
作者E. S. Vorm和David J. Y. Combs分别来自美国海军研究实验室的自主系统研究实验室和Knexus研究公司。该论文于2022年4月发表在《International Journal of Human-Computer Interaction》期刊上,题为《Integrating Transparency, Trust, and Acceptance: The Intelligent Systems Technology Model (ISTAM)》。文章主要探讨了在人工智能(AI)、机器人、机器学习等智能系统中如何通过提高系统透明度来增强用户信任,进而促进技术接受度的模型。
首先,文章回顾了智能系统在广泛应用中所面临的挑战,特别是用户对系统的信任问题。尽管这些技术在数据处理和任务执行方面具有显著优势,但由于其复杂性和多维度特性,传统的验证方法难以有效实施。文章指出,在医疗、金融、军事等领域的应用中,智能系统的预测或建议可能带来现实世界的后果,这进一步增加了用户对系统的不信任。因此,研究如何通过提升系统透明度来增强用户信任,成为了推动智能系统广泛应用的关键。
其次,文章详细讨论了信任和透明度的概念及其在智能系统中的重要性。信任在智能系统的接受度中扮演着核心角色,用户对自动化系统的依赖程度与其对系统的信任度密切相关。文章引用了多个信任模型,包括Mayer的组织信任整合模型(IMOT)、Lee和See的自动化系统信任模型,以及Hoff和Bashir的自动化信任模型。这些模型虽然各有侧重,但都强调了用户对系统信息的需求,即系统应该提供足够的信息让用户了解系统的工作原理和决策过程。
接着,文章提出了透明度的四种类型,并将其作为提升用户信任的关键策略:监控透明度(transparency for monitoring)、过程可见性透明度(transparency for process visibility)、基于监视的透明度(transparency for surveillance)和披露透明度(transparency for disclosure)。每种类型的透明度都对应着不同的设计目标,例如,监控透明度允许用户实时了解系统的状态和性能,而披露透明度则要求系统公开其内部工作机制和数据来源。文章通过多个实证研究展示了这些透明度类型如何在不同类型的智能系统中有效提升用户信任。
进一步,文章介绍了几种实用的透明度框架,包括Lyons的人类-机器人透明度框架、Blasch等人的多源AI评分表(MAST)框架,以及Vorm和Miller的解释向量框架。这些框架为设计师提供了具体的指导,帮助他们在系统设计中融入透明度元素,从而增强用户对系统的理解和信任。例如,Lyons的框架强调了系统向用户传达其意图、当前任务、分析方法和环境因素的重要性,而MAST框架则借鉴了美国情报界的标准,提出了在AI系统中应用透明度的方法。
最后,文章提出了智能系统技术接受模型(ISTAM),该模型将透明度和信任纳入技术接受模型(TAM)中,认为透明度不仅直接影响用户信任,还间接影响用户对系统易用性和有用性的感知。文章建议未来的研究应进一步探讨透明度在不同类型智能系统中的具体应用,并通过实证研究验证ISTAM的有效性。特别是,文章提出了一系列潜在的研究方向,包括使用市场研究方法测试透明度在智能系统中的重要性,以及通过现场观察研究验证透明度和信任对技术接受度的影响。
这篇文章的价值在于,它不仅系统地梳理了智能系统中信任和透明度的相关理论,还提出了具体的设计框架和研究方向,为未来的学术研究和技术开发提供了重要的参考。特别是,文章提出的透明度和信任模型为智能系统的广泛应用提供了理论基础,有助于推动这些技术在医疗、金融、军事等高风险领域中的安全应用。