本文档属于类型b,即一篇科学论文,但不是单一原创研究的报告,而是一篇基于认知科学视角的学术观点论文。以下是针对该文档的学术报告:
作者与期刊信息
本文由Abeba Birhane(Mozilla基金会与都柏林三一学院计算机科学与统计学院)和Marek McGann(爱尔兰利默里克玛丽无玷学院心理学系)共同撰写,发表于2024年8月21日的《Language Sciences》期刊第106卷,文章编号101672。
论文主题
本文探讨了大型语言模型(LLMs, Large Language Models)与人类语言能力之间的差异,特别是从认知科学的“生成性”(enactive)视角出发,批判了当前对LLMs语言能力的过度夸大和误解。文章指出,LLMs的工程成就被错误地等同于人类语言能力的掌握,并分析了这种误解的根源及其潜在的社会影响。
主要观点与论据
1. 语言完整性与数据完整性的假设
文章指出,LLMs的语言能力建立在两个未经证实的假设之上:语言完整性假设和数据完整性假设。语言完整性假设认为“自然语言”是一个完整且可被LLMs全面建模的实体;数据完整性假设则认为语言的所有本质特征都可以通过数据完全捕捉。然而,从生成性认知科学的角度来看,语言并非一个静态的、完整的实体,而是一种动态的、参与性的行为方式。LLMs缺乏人类语言的三个关键特征:具身性(embodiment)、参与性(participation)和脆弱性(precariousness),这些特征在当前LLMs的架构中无法实现。
LLMs与人类语言实践的对比
文章对比了LLMs的操作方式与人类语言实践,指出LLMs的运作基于对大规模文本数据的统计建模,而人类语言则是一种具身的、参与性的活动。LLMs通过处理文本数据生成语言输出,但这些输出缺乏与真实世界的联系,也无法体现人类语言中的情感、意图和上下文。文章通过“算法语”(algospeak)现象进一步说明,人类语言具有适应性和创造性,能够在面对限制时发展出新的表达方式,而LLMs则无法自发地产生这种创新。
生成性视角下的语言代理
从生成性认知科学的角度,语言代理(linguistic agency)是一种持续的、动态的过程,涉及对冲突、摩擦和紧张的管理。人类语言代理具有脆弱性,即语言行为总是部分和不完整的,需要通过与其他人互动来补充和完善。而LLMs缺乏这种脆弱性,因为它们没有与真实世界的联系,也没有对语言行为的持续管理能力。文章强调,LLMs的运作方式与人类语言代理的本质存在根本差异,因此不能将LLMs视为真正的语言代理。
LLMs的社会影响与伦理问题
文章进一步探讨了LLMs的社会影响,指出LLMs的广泛应用可能加剧社会不平等和权力集中。LLMs的开发和使用反映了开发者和部署者的价值观,这些价值观可能通过LLMs的输出被放大并强加给用户。文章特别提到,LLMs在处理边缘化群体和敏感话题时可能表现出偏见和歧视,这进一步凸显了对其开发和部署进行严格评估的必要性。
论文的意义与价值
本文从生成性认知科学的视角,深入分析了LLMs与人类语言能力的本质差异,揭示了当前对LLMs语言能力的过度夸大和误解。文章不仅为理解LLMs的局限性提供了理论框架,还强调了在LLMs开发和应用中需要考虑的伦理和社会问题。本文的研究对于推动LLMs的负责任开发和应用具有重要的学术价值和现实意义。
亮点与创新
1. 生成性认知科学视角的应用
本文首次从生成性认知科学的视角系统分析了LLMs与人类语言能力的差异,为理解LLMs的局限性提供了新的理论框架。
“算法语”现象的引入
文章通过“算法语”现象生动地展示了人类语言的适应性和创造性,进一步凸显了LLMs与人类语言实践的本质差异。
社会影响与伦理问题的探讨
本文不仅关注LLMs的技术层面,还深入探讨了其社会影响和伦理问题,为LLMs的负责任开发和应用提供了重要参考。
本文通过严谨的理论分析和生动的实例,为学术界和公众提供了对LLMs语言能力的深刻洞察,具有重要的学术价值和现实意义。