人工智能与国际商事仲裁中的保密性保护:现有法律框架分析
作者与发表信息 本文由 Mark-Silas A. Malekela 撰写,其所属机构为斯德哥尔摩大学(Stockholm University)和 Alistair Group(坦桑尼亚达累斯萨拉姆)。文章于2025年发表在《发现人工智能》(*Discover Artificial Intelligence*)期刊上,具体发表日期为2025年5月14日在线接收。
论文主题 本文是一篇研究性论文,其核心议题是探讨生成式人工智能(AI)工具在国际商事仲裁中的应用对仲裁程序保密性(confidentiality)原则构成的潜在风险与挑战,并系统性地分析现有法律与制度框架在应对这些挑战方面的充分性。文章旨在论证现有框架的局限性,并提出相应的解决方案,以确保在利用AI提升仲裁效率与准确性的同时,能够有效保护当事人的机密信息。
主要观点与论述
第一,AI在国际仲裁中的应用带来了效率革命,但也引发了严峻的保密性风险。 文章开篇即指出,AI(尤其是以ChatGPT为代表的大型语言模型)的应用为国际仲裁带来了处理海量数据、进行法律研究、文件审阅、预测分析乃至辅助起草裁决书等方面的显著优势,标志着仲裁实践进入了“效率与准确性的新时代”。然而,这种应用与仲裁的核心原则之一——保密性——产生了复杂的交集。保密性被视为国际仲裁的基石,它保障了争端能在私密、非公开的环境中解决,保护当事人的商业敏感信息、商业秘密和特权信息不被披露给第三方或公众。
文章详细阐述了AI应用如何具体威胁保密性: 1. 数据驱动的本质:AI工具,特别是生成式AI,需要“喂食”大量数据才能有效运作。在仲裁中,这意味着当事人、律师或仲裁员可能将包含高度机密信息的仲裁文件、证据、内部通讯等上传至AI工具进行分析或处理。 2. 第三方工具的风险:许多强大的AI工具(如ChatGPT、Azure OpenAI服务)由第三方公司拥有和运营。当仲裁参与者使用这些工具时,机密信息可能被传输到仲裁程序控制范围之外的服务器上。这些第三方平台的数据使用和保留政策可能不透明,且存在数据被用于进一步训练模型或被其他用户通过提示词工程(prompt engineering)意外获取的风险。 3. 网络安全漏洞:AI系统和存储数据的平台可能成为黑客攻击的目标,导致大规模机密数据泄露。文章引用了现实案例,例如2023年三星工程师将机密代码上传至ChatGPT导致信息泄露,以及2015年常设仲裁法院(PCA)网站在南海仲裁案期间遭受攻击,来说明此类风险的真实性。 4. “AI幻觉”与无意披露:AI工具可能在其输出中“幻觉”出或无意间包含来自其训练数据中的其他案件的机密信息,从而导致跨案件的保密性 breach。
第二,现有国际法律框架在应对AI带来的保密性挑战方面存在显著不足与分歧。 文章对现有法律和制度框架进行了分层剖析,指出其普遍缺乏针对性且效力不一。 * 《联合国国际贸易法委员会国际商事仲裁示范法》(UNCITRAL Model Law):作为许多国家仲裁立法的蓝本,该示范法完全没有涉及仲裁保密性,更遑论AI应用下的保密性问题。它仅规定了程序公平等基本原则,将具体规则的制定留给了当事人协议和国内法。 * 主要仲裁机构规则:文章对比了国际商会(ICC)、伦敦国际仲裁院(LCIA)和斯德哥尔摩商会仲裁院(SCC)的规则。 * ICC规则:采取的是自由裁量模式。其规则没有规定当事人普遍的保密义务,但允许仲裁庭应一方请求就保护商业秘密和机密信息作出命令。这种模式被认为不够明确和有力,可能无法为AI应用场景下的保密提供坚实的合同或程序基础。 * LCIA规则:采取了全面义务模式。其第30条明确规定,除非当事人另有约定或法律要求,否则当事人、仲裁庭和仲裁院自身均有义务对仲裁中的所有材料(包括裁决书)保密。这种广泛的、预设的保密义务为约束所有参与者(包括使用AI工具的参与者)提供了更坚实的框架。 * SCC规则:采取了协议为基础的模式。其规则规定仲裁和裁决应保密,但前提是当事人有此约定。这反映了瑞典法律的观点,即保密性并非仲裁协议的默示条款。因此,在SCC规则下,若无明确约定,保密义务可能不存在,这使得AI使用中的保密风险更高。 * 新兴AI专门法规:文章分析了《欧盟人工智能法案》(EU AI Act)和英国AI白皮书。 * 《欧盟人工智能法案》:该法案对“高风险”AI系统施加了严格义务。文章认为,用于辅助司法或类似替代性争议解决(包括仲裁)的AI系统很可能被归类为高风险系统。法案要求部署者(在仲裁中可能是律师事务所、仲裁员或当事人)实施风险管理、数据治理和网络安全措施,并尊重商业机密。这为保护仲裁中的机密数据提供了一定的法律依据。然而,法案的适用范围(主要针对欧盟境内的提供者和部署者)及其在国际仲裁这一跨国语境中的直接适用性仍不明确。 * 英国AI白皮书:提出了一种基于原则和结果(而非基于风险分类)的监管方法,强调安全性、保障性和稳健性等原则。这种方法更具灵活性,但也更依赖于后续的具体指引和行业实践。
第三,现有的AI仲裁指南提供了重要指引,但缺乏强制约束力。 文章重点分析了两个专门针对仲裁中AI使用的软法文件: * 硅谷仲裁与调解中心《人工智能在仲裁中的应用指南》(SVAMC Guidelines):这是首个专门针对仲裁中AI使用的综合性指南。其第2条指南明确要求仲裁参与者在使用AI工具前,必须评估其数据使用和保留政策,并确保机密信息得到保护,未经适当审查和授权不得提交。然而,文章指出该指南的根本局限性在于其“软法”性质。它仅是推荐性、指导性的,不具有强制约束力。其措辞(如“应考虑”、“鼓励”)使得遵守与否很大程度上依赖于参与者的自觉和仲裁庭的自由裁量。 * 美国仲裁协会-国际争议解决中心《人工智能在替代性争议解决中的原则》(AAA-ICDR Principles):这些原则同样强调保密性的核心地位,并指出AI的使用“不应”损害保密原则。与SVAMC指南相比,其措辞在某些方面略显强硬,但仍属于原则性声明,缺乏具体的操作细则和强制执行力。
文章批评指出,这些指南的“软法”特性,加上主要仲裁机构规则(除LCIA外)对保密性规定的不一致或不充分,共同导致了一个破碎且执行力不足的监管格局。这无法有效应对AI技术带来的系统性保密风险。
第四,保护仲裁保密性需采取多层次、前瞻性的综合策略。 基于对现状不足的分析,文章提出了具体的建议和解决方案: 1. 强化合同条款与程序命令:当事人应在仲裁协议或条款中纳入专门针对AI使用的、详细且具有约束力的保密条款。文章甚至提出了一个示范条款草案,要求:使用AI工具前需获得仲裁庭批准;需向仲裁庭披露拟用工具及其数据政策;证明使用的必要性和相称性;确保遵守数据保护法;并规定违约制裁。同时,仲裁庭应在第一号程序令(Procedural Order No. 1)中发布具体的保密命令,明确规定AI使用的范围和条件,将SVAMC指南等软法原则转化为对当事人有约束力的程序义务。 2. 推动仲裁机构规则改革:文章呼吁主要仲裁机构(如ICC、SCC)在其未来版本的规则中,明确纳入并强化关于AI使用的保密义务。理想的做法是借鉴LCIA的全面义务模式,并融合SVAMC指南的针对性内容,制定出明确、强制性的规则,以统一和提升保护标准。 3. 创新提出“保密性设计”概念:这是文章最具创新性的建议之一。作者借鉴欧盟《通用数据保护条例》(GDPR)中的“隐私设计”(Privacy by Design)理念,提出了 “保密性设计”(Confidentiality by Design) 。这一概念主张,用于仲裁的AI工具和系统应在设计之初就将保密保护机制内嵌于其架构之中,而非事后补救。这可能包括:对输入数据进行强加密;使用本地化或隔离的部署模型(而非公有云API);设置严格的访问控制;以及实施数据匿名化或假名化技术。文章以Jus Mundi新推出的“Jus AI”工具为例,说明已有实践开始关注在AI设计中内置加密等保密措施。作者建议,仲裁界应集体与AI服务提供商谈判,要求其开发符合“保密性设计”原则的、专为法律保密环境定制的AI解决方案。
论文的意义与价值 本文具有重要的学术与实践价值: 1. 系统性诊断:首次系统性地将国际仲裁的保密性原则置于生成式AI革命这一全新背景下进行审视,清晰梳理并揭示了技术便利性与法律基石之间的内在张力与具体风险点。 2. 框架性分析:对从国际示范法、国内法、仲裁机构规则到新兴AI法规和行业指南的整个法律生态系统进行了全面检视,精准指出了各层面的空白、分歧与软肋,为后续研究和改革指明了方向。 3. 前瞻性建言:提出的解决方案兼具实用性与创新性。强化合同与程序命令是当前即可操作的短期策略;推动机构规则改革是中期的制度性建设;而“保密性设计”概念的提出,则为长期的技术与法律协同发展提供了重要的理论框架和倡议方向。它引导业界思考如何从技术源头管控风险,而不仅仅依赖事后的合同约束或法律追责。 4. 跨学科视野:文章成功融合了国际仲裁法、数据保护法、网络安全和人工智能伦理等多个领域的知识,为处理科技与法律交叉领域的复杂问题提供了范本。
本文警示国际仲裁界,在拥抱AI带来的效率红利时,绝不能对随之而来的保密性侵蚀风险掉以轻心。它呼吁仲裁参与者、机构、法律从业者和技术开发者共同行动,通过完善法律框架、订立明确合同、发布有力程序命令以及推动“保密性设计”的技术标准,共同构建一个既能利用AI优势,又能坚守仲裁保密核心价值的未来图景。