该文档属于学术会议摘要(Conference Extended Abstract),属于类型b(科学论文,但非单一原创研究报告)。
作者及机构
- Nathaniel Swinger(佐治亚理工学院)
- Lauren Moran(佐治亚理工学院)
- Saeed Abdullah(宾夕法尼亚州立大学)
- Christopher W. Wiese(佐治亚理工学院)
- Uichin Lee(韩国科学技术院)
- Yuan-Chi Tseng(台湾国立清华大学)
- Andrew M. Sherrill(埃默里大学医学院)
- Rosa I. Arriaga(佐治亚理工学院)
发表信息
发布于2025年ACM CHI Conference on Human Factors in Computing Systems(CHI EA ’25)的会议扩展摘要。
本文探讨人工智能(AI)在心理健康护理领域的应用前景,聚焦于如何通过跨学科合作解决技术怀疑(technoskepticism)与合理谨慎(justified caution)之间的分歧。当前,AI技术虽有望提升心理健康护理的可及性和效率,但其实际效果仍存争议,可能加剧医疗不平等或加重医护负担。作者团队由人机交互(HCI)、AI、组织心理学及临床心理学学者组成,旨在通过圆桌讨论(panel)推动“以人为本的AI”(human-centered AI)在心理健康领域的可持续发展。
观点:全球心理健康需求激增,但现有系统在可及性、公平性和资源分配上存在显著缺陷。
论据:
- 经济负担:美国2020年心理健康支出达2800亿美元,但超过半数成人未能获得及时治疗(引用政府数据)。
- 医护人员短缺:医生紧缺问题加剧,62.8%的医师存在职业倦怠(burnout),电子健康记录(EHRs)等工具反而增加行政负担。
- 技术局限性:现有技术(如远程医疗平台、患者门户)依赖人工操作,未能根本解决问题,甚至可能扩大健康不平等(如算法偏见)。
观点:AI可从评估、干预、培训三方面优化心理健康护理,但需警惕其伦理和社会影响。
论据:
- 潜力:
- 培训扩展:AI可通过双向协作(bidirectional human-AI teaming)帮助医护人员学习实证支持治疗(Empirically-Supported Treatments, ESTs),解决专家资源不足问题。
- 决策支持:AI辅助临床决策系统可提高效率,但需确保透明性(transparency)和公平性(fairness)。
- 风险:
- 技术怀疑论:部分从业者认为AI可能威胁患者自主权(如过度依赖算法诊断),或加剧数据隐私问题。
- 合理谨慎:需在设计阶段明确风险缓释策略(如人类监督机制)。
观点:HCI、AI、临床心理学等领域的割裂阻碍了AI技术的有效整合。
论据:
- 学科壁垒:临床研究者关注治疗效果,HCI学者侧重技术可用性,导致技术开发与临床需求脱节。
- 案例支持:作者团队提出以“心理治疗培训”为范例,研究双向人机协作(如AI提供实时反馈),推动跨学科对话。
观点:AI对心理健康护理的影响需从患者、工作者、技术三个维度评估。
论据:
- 患者层面:AI是否削弱患者自决权(self-advocacy)?如何平衡自动化与个性化?
- 工作者层面:AI能否减轻医护负担?还是会导致技能退化?
- 技术层面:未来系统设计需如何改进接口(interfaces)以促进人机协作?
(注:由于原文为会议摘要,部分细节需参考作者后续发表的完整论文。)