分享自:

生成式AI时代译者的信任与不信任

期刊:translation studiesDOI:10.1080/14781700.2025.2507594

学术研究报告:生成式人工智能时代译者的信任与不信任

作者及机构
本研究由María Isabel Rivas Ginel与Joss Moorkens合作完成,两人均来自爱尔兰都柏林城市大学(Dublin City University)的应用语言与跨文化研究学院/ADAPT研究中心。论文发表于2025年的*Translation Studies*期刊(第18卷第2期,页码283-299),DOI编号为10.108014781700.2025.2507594。


学术背景

本研究属于翻译技术与人工智能交叉领域,聚焦生成式人工智能(Generative AI, GenAI)对专业译者信任机制的影响。研究背景基于两大现实问题:
1. 技术冲击:ChatGPT等大型语言模型(LLM)的兴起引发了翻译行业的自动化焦虑(Automation Anxiety),但译者作为核心利益相关者的声音长期被忽视。
2. 理论缺口:尽管技术接受模型(TAM2)和AI信任框架(如Lockey等人的“AI Trust Challenges”)已被广泛应用于其他领域,但翻译研究(TIS)对译者与GenAI的信任动态缺乏系统性探讨。

研究目标包括:
- 识别译者对ChatGPT信任与不信任的主要来源;
- 分析译者信任轨迹(Trust Trajectories)的演变模式;
- 将译者关切置于技术接受与AI信任的理论框架中,为行业实践提供依据。


研究流程与方法

本研究采用混合方法设计(Mixed-Methods),分两阶段进行:

第一阶段:语料库分析

  • 研究对象:从翻译专业社区(ProZ平台和Facebook翻译小组)抓取2022年12月至2023年11月的公开讨论帖,形成两个子语料库:
    • Facebook子库:143条帖子(60,100词),覆盖资源分享、应用讨论、工作机会三类主题;
    • ProZ子库:63条讨论串(107,608词),聚焦ChatGPT的翻译质量与职业影响。
  • 分析方法:基于建构主义扎根理论(Constructive Grounded Theory)进行迭代编码,以Lockey的“AI信任挑战”框架(透明度、准确性、自动化风险、数据隐私)和TAM2模型为指导,提取关键主题。

第二阶段:问卷调查

  • 样本特征:针对252名专业译者(81%自由职业者,36%从业10-20年)开展调查,覆盖ChatGPT使用频率、任务类型及信任度评估。
  • 核心问题
    • 信任度评分:要求译者对ChatGPT在9项任务中的表现(如“生成无语法错误的输出”“数据隐私保护”)按Likert量表(1-5分)评分;
    • 信任轨迹:询问译者使用ChatGPT后信任度的变化趋势(提升/稳定/下降);
    • 开放性反馈:收集对自动化、数据安全等议题的质性意见。

主要结果

  1. 信任度普遍偏低

    • 翻译核心任务(如“生成准确内容”“翻译准确性”)的信任评分最低(平均分≤2.5/5),仅13%译者定期使用ChatGPT翻译。
    • 数据隐私(94人选择“完全不信任”)和偏见风险(69人选择“完全不信任”)是主要不信任来源。
  2. 选择性使用模式

    • 译者更倾向将ChatGPT用于辅助任务,如内容摘要(51人认为“非常准确”)、非母语文本生成(48人评分≥4/5)。
    • 翻译任务中,仅23%译者尝试使用,但63人认为其输出“不准确”。
  3. 自动化焦虑加剧

    • 语料库中高频出现“职业消亡”论述(如“五年后行业将不复存在”),调查显示60%译者视AI为威胁,192人担忧费率下降。
    • 代表性观点:“技术终将取代人类,只是时间问题”(ProZ用户,2023年4月)。
  4. 信任轨迹分化

    • 语料库显示初期热情后信任下降,但调查中43%译者信任度“稳定”,34%“提升”。这一矛盾可能源于样本偏差(语料库以活跃用户为主)。
  5. 透明度与AI素养不足

    • 83%受访者未接受过LLM相关培训,依赖“信心解释”(如网络研讨会)而非“技术解释”(如模型原理)。

结论与价值

  1. 理论贡献

    • 首次将译者对GenAI的信任问题系统化,验证了TAM2和AI信任框架在翻译研究中的适用性;
    • 提出“信任轨迹”概念,揭示译者群体与虚拟AI(Virtual AI)的独特互动模式(初期高期望→选择性信任)。
  2. 实践意义

    • 行业警示:需解决数据隐私与版权问题(如训练数据来源透明化);
    • 教育建议:加强译者AI素养(AI Literacy),避免因技术黑箱(Black Box)导致误用;
    • 政策呼吁:推动“三重底线”评估(社会、环境、性能),约束LLM开发的负面影响。

研究亮点

  1. 方法创新:结合语料库分析与大样本调查,弥补了单一方法的局限性;
  2. 领域特殊性:聚焦译者这一高专业性群体,揭示了与其他AI用户不同的信任动态;
  3. 前瞻性议题:提出“自噬效应”(Ouroboros Effect,即机器翻译内容污染训练数据)的潜在风险,为后续研究指明方向。

其他价值:研究数据与问卷设计已开源(GitHub),可供后续研究复现或扩展。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com