这篇文档属于 类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
本研究由 Jarod Govers、Eduardo Velloso、Vassilis Kostakos 和 Jorge Goncalves 四位作者共同完成,均来自 The University of Melbourne(澳大利亚墨尔本大学)。论文发表于 ACM CHI Conference on Human Factors in Computing Systems (CHI ’24),会议时间为2024年5月11日至16日,地点为美国夏威夷檀香山。
科学领域:
本研究属于 人机交互(HCI) 与 社会心理学 的交叉领域,聚焦于在线社交媒体的辩论极化问题,并探索人工智能(AI)在调解冲突中的应用。
研究动机:
社交媒体中的极化现象会强化用户对分歧的感知,破坏公共讨论的理性基础。传统的内容审核(content-moderation)方法(如删除或标记争议内容)虽能短期控制冲突,但无法解决根本性的观点对立,甚至可能压制开放讨论。因此,本研究提出了一种基于AI的主动调解策略,旨在通过心理学理论驱动的干预手段,减少观众(而非直接参与者)的极化倾向。
理论基础:
1. Thomas-Kilmann冲突模式工具(TKI, Thomas-Kilmann Conflict Mode Instrument):一种经典心理学框架,将冲突解决策略分为五类(竞争/强迫、回避、妥协、迁就、协作),依据“合作性(cooperativeness)”与“坚持性(assertiveness)”两个维度划分。
2. 生成式AI技术:利用 GPT-4 模型生成调解文本,通过提示工程(prompt-tuning)实现不同TKI策略的自动化应用。
研究目标:
1. 验证TKI策略在AI调解中的有效性;
2. 评估不同策略对观众观点去极化(depolarisation)的影响;
3. 为社交媒体平台设计可扩展的非侵入性干预工具。
研究分为 辩论文本设计、调解机器人开发、实验验证 三个阶段,具体流程如下:
1. 辩论文本设计
- 数据来源:从公共辩论平台 Kialo 选取5个具有社会争议性的话题(如“公共交通是否应免费”“新冠疫苗强制接种”等),确保话题涵盖政治、经济、社会多元领域。
- 文本结构:模拟 Reddit 的对话形式,每个话题包含一对立场相反的辩论帖及回复链,以保持辩论的真实性与平衡性。
- 防偏倚设计:隐藏用户名称、投票数据、来源链接等可能引发偏见的元素。
2. 调解机器人开发
- 模型选择:采用 GPT-4 生成调解文本,因其在阅读理解和推理任务上的高性能。
- 策略实现:通过提示工程将五类TKI策略(协作、妥协、强迫、迁就、回避)编码为不同的调解风格。例如:
- 协作策略:高合作性+高坚持性,提出双方共赢的解决方案;
- 迁就策略:高合作性+低坚持性,优先满足对方诉求。
- 操纵检验:通过20名独立评分者对调解文本进行分类,验证策略匹配的准确性(分类准确率88.21%,Fleiss’ kappa=0.73)。
3. 实验验证
- 参与者:144名来自 Prolific 平台的用户,按政治倾向(共和党、民主党、独立人士)均衡分组。
- 实验设计:
- 控制组:仅阅读原始辩论文本;
- 干预组:阅读附加AI调解回复的文本(随机分配一种TKI策略)。
- 测量指标:
- RQ1:调解论点的说服力(Perceived Argument Strength, PAS);
- RQ2:观众个人观点的极化变化(7级Likert量表);
- RQ3:观众对辩论达成共识的预期(7级Likert量表)。
- 数据分析:混合线性模型(GLMM)与主题分析(thematic analysis)结合。
策略对论点说服力(PAS)的影响(RQ1):
观众观点去极化效果(RQ2):
共识预期提升(RQ3):
逻辑关系:高合作性策略通过增强论点说服力(RQ1),进而促进观众观点调整(RQ2),最终改善对辩论环境的乐观预期(RQ3)。
科学价值:
1. 首次将心理学TKI理论应用于AI驱动的在线辩论调解,验证了外部调解策略对观众(非直接参与者)的有效性;
2. 揭示了合作性策略在去极化中的核心作用,为社交媒体设计提供了理论依据。
应用价值:
1. 为平台开发了可扩展的调解机器人模板(提示工程方案已公开);
2. 提出“先调解后审核”的两阶段干预框架,避免过度依赖内容删减。
研究还探讨了AI调解的伦理边界,例如:
- 中立性与原则性的平衡:调解机器人是否需要绝对中立,或可基于人权等原则干预;
- 实时辩论扩展:未来可测试调解者对情绪化回应的抗干扰能力。
这篇研究为人机交互与社会心理学的跨学科实践提供了重要范例,也为改善社交媒体生态提出了切实可行的技术路径。