分享自:

生成式人工智能作为边界资源重塑数字平台治理的动态转变

期刊:journal of management information systemsDOI:10.1080/07421222.2025.2487312

本研究由Anne-Sophie Mayer、Angelos Kostis、Franz Strich与Jonny Holmström合作完成,作者分别来自德国慕尼黑大学(LMU Munich)、瑞典于默奥大学(Umeå University)、美国斯坦福大学(Stanford University)以及澳大利亚迪肯大学(Deakin University)。该研究成果以《Shifting Dynamics: How Generative AI as a Boundary Resource ReshapES Digital Platform Governance》为题,于2025年发表在期刊《Journal of Management Information Systems》的第42卷第2期。

本研究属于信息管理与数字平台治理领域,聚焦于探讨新兴技术——生成式人工智能(Generative AI, GenAI)——如何影响和改变现有的数字平台治理模式。研究的核心背景在于:随着GenAI技术的快速发展和广泛应用,数字平台所有者(Platform Owners)开始将其作为一种边界资源(Boundary Resource)集成到平台生态系统中,旨在提升平台内容(如文本、媒体等)的数量与质量,从而增强平台的活力(Viability)。然而,GenAI作为一种边界资源,具有与传统边界资源(如应用程序编程接口API、软件开发工具包SDK等)截然不同的特征。具体而言,它缺乏一致性与标准化、加剧了内容验证的难度,并要求互补者(Complementors,即平台内容的外部提供者)具备新的技能。这些独特性质对现有平台治理理论构成了挑战,因为传统治理机制依赖于边界资源来实现标准化和对互补者的控制。因此,本研究旨在探究一个核心问题:随着GenAI作为一种边界资源的引入,平台治理如何随时间展开和演变?

为了回答上述研究问题,研究团队采用了一种深入的定性案例研究方法。整个研究流程可以详细划分为几个主要阶段:案例选择与背景研究、多时间点数据收集、基于“分布式调谐”(Distributed Tuning)框架的分析、以及对平台治理逻辑演变过程的归纳与建模。研究对象是位于教育科技领域的数字学习平台“Dugga”。选择Dugga作为研究案例具有典型性,因为它经历了从单纯的数字评估服务提供商到内容平台,再到集成GenAI(具体为“AI Exam Engine”)的平台转型过程,这为观察治理机制随时间演变提供了理想的“活体”实验室。

研究过程首先从对Dugga的初步了解和背景调研开始。研究团队通过公开渠道收集了关于Dugga发展历史、战略目标及平台功能的资料。在此基础上,研究团队在四个不同的时间点(2023年4月、2023年5月、2023年9月以及随后的一段时间)对Dugga进行了系统性的数据收集。数据收集方法包括: 1. 半结构化访谈:总计进行了27次访谈。其中14次访谈对象为Dugga的内部员工(包括CEO、CTO、高级开发者、客户支持等),13次访谈对象为使用过Dugga及其“AI Exam Engine”的教师(互补者)。访谈问题围绕Dugga的演进历程、AI Exam Engine的功能与整合过程、教师的使用体验与反馈、以及由此引发的各方挑战和应对措施展开。 2. 实地考察:研究团队对Dugga总部进行了四次实地访问,通过观察其日常运营以及与“AI Exam Engine”的互动,获得了对平台动态更为细致的理解。 3. 档案数据分析:研究团队还收集和分析了来自公司官网、领英(LinkedIn)页面及其他公开渠道的公告、帖子、演示文稿等,用于三角验证访谈和观察所得数据,并更全面地把握Dugga的战略愿景。

数据分析过程紧密结合了“分布式调谐”的理论框架。该框架将技术变迁视为平台所有者和互补者围绕边界资源进行“抵抗”(Resistance,指技术产出的结果与人类期望相悖)和“容纳”(Accommodation,指人类调整目标、技术或实践以应对抵抗)的迭代循环过程。数据分析分为两步:第一步是视觉映射(Visual Mapping)与过程追踪。研究者通过时间编码,梳理出Dugga演进过程中的关键事件和里程碑,识别出平台所有者、互补者(教师)及其他相关方(如市政当局、出版商)等关键行动者。他们绘制了详细的时间线,并特别关注了互补者对GenAI工具的“抵抗”(如担心内容质量、恐惧被替代、质疑其可信度)和“容纳”(如表达担忧、减少使用),以及平台所有者对这些反应的“容纳”(如何调整工具和治理策略)。这一步构建了关于平台演进、技术整合及各方互动的丰富叙事。第二步是系统编码与主题提炼。研究者对访谈和档案数据进行了开放式编码、轴向编码和选择性编码。开放式编码生成了大量具体行动描述(如“Dugga宣传个性化内容生成能力”、“教师向客服表达对AI错误的担忧”)。轴向编码将这些具体行动归类为更广泛的治理机制主题(如“培养合法性”、“倡导个性化”、“推广防护栏”)。最终,选择性编码将这些主题聚合为更高层次的类别,即两种GenAI整合逻辑GenAI霸权逻辑(Genai Hegemony Logic)GenAI组合逻辑(Genai Assemblage Logic)。通过分析这些逻辑、机制及其与分布式调谐过程的联系,研究者最终构建了一个描述平台治理如何因GenAI边界资源而演变的实证模型。

研究的主要结果详细揭示了Dugga平台治理随GenAI引入而发生的动态演变过程,这一过程通过两种逻辑的转换及其对应的治理机制来体现。

最初,Dugga采用了 “GenAI霸权逻辑” 。该逻辑的核心是宣传GenAI在内容生成方面的优势和超越人类的能力,旨在说服教师(互补者)相信AI Exam Engine能够提升他们的工作效率和内容质量。这一逻辑通过两种互锁式治理机制(Interlocking Governance Mechanisms) 来实施: 1. 培养合法性:Dugga积极与教育生态系统中的关键利益相关者建立联系,为AI Exam Engine背书。这包括与制定教育政策的市政当局合作,与联合国教科文组织(UNESCO)等国际机构建立联系,并成功说服知名教育出版商(如瑞典的Gleerups)将AI Exam Engine集成到其服务中。此外,Dugga还培养了一批早期采纳该技术的“教师先驱”,鼓励他们向同事推广,利用网络效应建立工具的正当性和有用性。 2. 倡导个性化:Dugga大力宣传AI Exam Engine能够帮助教师快速生成高度个性化、情境化的教学内容,例如根据学生的兴趣(如足球)定制数学题,或跨学科地融合内容以增加学习趣味性。Dugga强调该工具能实现即时、自适应的内容创建,缩小教学、学习与评估之间的时间差。

然而,这些机制并未能完全赢得教师的信任,反而触发了互补者的抵抗。许多教师感知到了GenAI工具的“物质抵抗”,即工具的行为(如可能产生幻觉、偏见或错误内容)与他们“提供可靠内容并保持教学专业主导地位”的目标相悖。教师们通过两种方式容纳这种抵抗:一是减少或停止使用该工具;二是向Dugga直接表达其担忧。具体担忧包括:对GenAI生成内容可信度的质疑、担忧自身专业知识和职业重要性被削弱、以及害怕过度依赖AI会减少教师之间及师生之间的宝贵互动。

教师的这种抵抗和容纳行为,反过来构成了对Dugga自身目标(即通过提升内容数量和质量来扩大用户基础)的抵抗。因为教师的参与度下降直接威胁到平台的增长。为此,Dugga不得不进行容纳,其治理逻辑发生了根本性转变,从“GenAI霸权逻辑”转向了 “GenAI组合逻辑”

新的 “GenAI组合逻辑” 不再强调AI对人类的替代或超越,而是转而凸显人类(教师)相对于GenAI的优越性及其在内容创造过程中的核心作用。这一逻辑通过在保留原有互锁机制的同时,新增两种解耦式治理机制(Decoupling Governance Mechanisms) 来实施。解耦机制旨在赋予互补者对GenAI生成内容更强的控制权: 1. 推广防护栏(Promoting Guardrails):Dugga通过技术调整,在AI Exam Engine中设置了多种“防护栏”,让教师能主动验证和控制AI输出。具体措施包括:a) 增加“上传自有内容”功能,让教师以自己信任的材料为基础生成AI内容,确保输出质量可控;b) 提供“开启/关闭”AI功能的选项,让教师自主决定AI的参与程度;c) 在平台界面和培训中增加“免责声明”,明确告知AI可能出错,强调教师审查、调整和选择AI生成内容是必要步骤。 2. 规避社会隔离(Deflecting Social Encapsulation):Dugga采取措施,防止因过度依赖AI而导致教师社群内部及师生间互动减少。主要做法包括:a) 引入“信用点”系统,限制每位教师使用AI Exam Engine生成内容的频率,迫使其在信用点耗尽后转向与同事协作或自行创作,从而维系社群交流;b) 组织教师研讨会、学生客座讲座等活动,主动创造并鼓励人际间的知识分享和经验交流,将AI工具的使用嵌入到社会协作的框架中。

研究结果显示,这一系列演变是一个典型的“分布式调谐”过程。GenAI作为边界资源,成为了平台所有者(Dugga)和互补者(教师)之间权力博弈与协商的焦点。教师的抵抗和反馈(一种权力表现形式)深刻影响了平台所有者的决策,促使后者不仅改变了治理逻辑,还重新配置了边界资源(AI Exam Engine)本身的功能和限制。最终,研究者构建了一个过程模型,清晰地展示了平台治理如何围绕GenAI边界资源的引入,通过“抵抗-容纳”的迭代循环,从“GenAI霸权逻辑”(依赖互锁机制)演变为“GenAI组合逻辑”(同时运用互锁与解耦机制)。

本研究的结论具有重要的理论价值和实践启示。在理论层面:第一,它提出了关于GenAI在数字平台中作用的关系性新视角。研究指出,GenAI并非一个自主的、静态的工具,而是在平台所有者与互补者的互动关系中被“塑造”和“重塑”的。它的引入改变了互补者与平台、乃至互补者彼此之间的关系性质,使得治理焦点从单纯管理边界资源转向管理“互补者-GenAI”以及“互补者-互补者”之间的互动。第二,研究揭示了GenAI如何重塑平台内部的权力动力学。传统观点认为平台所有者拥有绝对控制权,但本案例显示,互补者通过其对GenAI工具的使用、反馈和抵抗,获得了影响平台治理方向和边界资源配置的重要权力,导致治理呈现出一种“多声部”和去中心化的趋势。第三,研究对人-AI协作文献做出了贡献。它展示了一条从“自动化替代”(Automation)到“人类-AI组合”(Assemblage)的演变路径,这与常见的技术从“增强”(Augmentation)平滑过渡到“自动化”的假设不同。Dugga的案例表明,当自动化尝试因人类抵抗而失败时,平台可能被迫转向一种强调人类监督、控制和与AI共同承担责任的新模式。

在实践层面,研究为平台所有者整合GenAI提供了关键启示:必须重视并系统收集互补者的反馈,认识到互补者的专业知识(扮演“平台守护者”角色)对于验证GenAI输出、确保内容质量至关重要。平台所有者需要灵活调整其治理策略,从单纯推销技术优势,转向设计能够促进人-AI有效协作、并维护人类社群价值的机制与框架。

本研究的亮点在于:首先,它敏锐地捕捉并深入分析了一个前沿且具有普遍意义的现实问题——GenAI对平台经济治理结构的冲击。其次,研究方法上,采用纵向的、深入的定性案例研究,并结合“分布式调谐”这一有力的过程理论框架,生动地揭示了治理机制动态演变的微观过程,弥补了横截面研究的不足。最后,研究发现了从“霸权逻辑”到“组合逻辑”的转变,以及“互锁”与“解耦”机制的组合运用,这些概念为理解AI时代的平台治理提供了新颖的分析工具和理论洞察。尽管研究基于一家初创公司(Dugga)的案例,其发现对于理解更广泛的大型平台在整合GenAI时可能面临的挑战与策略选择,具有重要的启发意义。未来研究可以进一步探讨不同类型、不同规模平台在应对GenAI时的治理差异,以及更广泛生态系统中的其他利益相关者(如最终用户)所受到的影响。

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com