本文档旨在向中文读者介绍一篇题为《安全运营中心可信自主性下的人机协作统一框架》的学术论文。该论文由Ahmad Mohsin、Helge Janicke、Ahmed Ibrahim、Iqbal H. Sarker以及Seyit Camtepe共同撰写,作者所属机构为澳大利亚伊迪斯科文大学数字未来安全中心和联邦科学与工业研究组织数据61部门。论文于2024年发表,具体期刊为会议录(Proceedings of a Conference)。
这篇论文属于一篇原创性研究论文,旨在解决安全运营中心中人工智能整合的核心挑战。随着网络攻击日益复杂,安全运营中心面临着警报疲劳、误报率高、响应速度慢以及分析师工作负荷过重等严峻问题。尽管人工智能技术被引入以增强自动化能力,但现有方法往往存在局限性:它们要么过度关注自动化本身,而缺乏系统化的人类监督和信任校准机制;要么假定自主性水平是静态或二元的,未能考虑到不同安全运营中心任务在复杂性、关键性和风险上的巨大差异,以及随之而来的人机协作需求的动态变化。在此背景下,本研究旨在填补这一空白,提出一个结构化的、自适应的人机协作框架,其核心目标是通过整合人工智能自主性、信任校准和人在环决策,将人工智能定位为增强而非取代人类决策的工具,从而设计出下一代的认知型安全运营中心。
研究的详细工作流程围绕框架的提出、建模和验证展开,主要包括以下几个核心环节:首先,进行问题分析和背景梳理。研究团队通过文献回顾,系统性地阐述了现代安全运营中心面临的功能性挑战和组织性挑战。这些挑战被映射到美国国家标准与技术研究院网络安全框架的各个阶段,明确了在资产识别、系统防护、威胁检测、警报管理和事件响应等核心环节存在的系统性弱点,例如日志不完整、规则静态化、警报过载、协调不畅等,并强调了人力资源短缺和认知疲劳等组织因素。
其次,基于对挑战的分析,研究团队提出了其框架的三大核心理论支柱,并为每个支柱建立了形式化的数学模型。这三个支柱是:人工智能自主性、人在环和信任。自主性被定义为一个在0到1之间的标量,其计算考虑了任务复杂性、任务风险和当前信任水平。人在环的参与度则被定义为与自主性成反比,即自主性越高,人工直接干预越少。信任也被量化为一个函数,由人工智能的可解释性、过往性能表现和当前不确定性三个因素决定。这些数学模型为动态调整人机协作关系提供了理论基础。
接着,研究团队设计并详细阐述了其核心贡献——一个分层的、基于信任的自适应人机协作框架。该框架包含一个从0到4的五级人工智能自主性等级体系:0级为完全手动操作;1级为人工智能辅助操作,提供决策建议;2级为半自主操作,人工智能行动需人类批准;3级为有条件自主操作,人类在环监督,仅在例外情况下介入;4级为全自主操作,人类仅负责治理和审计。同时,框架将安全运营中心的典型职能与这些自主性等级以及对应的人类分析师层级进行动态映射。例如,低风险、高重复性的任务可分配给更高自主性等级的人工智能处理,而高风险、高复杂性的任务则需要在较低自主性等级下由人类主导。
为了验证框架的可行性与有效性,研究团队在第四环节进行了案例实证研究。他们利用“增强网络防御能力”项目开发的网络靶场,构建了一个模拟的安全运营中心环境。在这个环境中,部署了一个名为“网络盟友”的人工智能助手,它是一个基于大型语言模型、并针对网络安全领域进行精调的智能体,集成了检索增强生成技术和知识图谱。研究设置包括模拟的IT/OT混合海事港口网络,并设计了三个复杂的攻击场景:物联网深度传感器数据篡改攻击、传送带可编程逻辑控制器攻击以及自动驾驶火车供应链攻击。在模拟的“红蓝对抗”演习中,“网络盟友”人工智能助手与人类分析师协作,处理来自安全信息和事件管理、入侵检测系统等工具的安全警报和事件。其工作流程是:警报被中央枢纽接收并分发给人类分析师和“网络盟友”;“网络盟友”利用其大型语言模型能力和知识库进行自动优先级排序、关联分析和上下文丰富;对于高置信度的常规警报,它可以自动处理或生成工单;对于可疑或复杂的警报,它将建议提供给人类分析师审核,分析师可以批准、升级或提供反馈。整个协作过程的数据,包括决策、工单和反馈,都被记录并用于迭代改进人工智能模型。
实证研究取得了显著的主要结果。数据表明,通过集成“网络盟友”人工智能助手,模拟安全运营中心的运营效率得到了大幅提升。具体而言,误报率降低了约50%,从70%降至35%,极大地缓解了警报疲劳。事件调查时间平均缩短了约67%,从三小时减少至一小时。平均事件响应时间降低了超过60%,某些情况下甚至达到80%。分析师的工作负荷得到减轻,认知资源得以释放,从而能够更专注于复杂的威胁狩猎和战略决策任务。此外,研究还观察到了信任的动态演变过程:最初分析师对人工智能的输出保持高度警惕,但随着“网络盟友”表现出持续的高准确性和可解释的决策理由,信任逐渐建立,人工智能被允许在更高级别的自主性下操作。这些结果强有力地证明了所提出框架在实践中的有效性——它能够根据任务特性和信任水平,动态地调整人机职责分工,从而实现安全运营中心整体效能的最优化。
基于上述理论框架构建和实证验证,研究得出明确结论:一个成功的、面向未来的认知型安全运营中心,必须建立在结构化的人机协作框架之上。该框架的核心价值在于其系统性,它首次将自主性、信任和人在环这三个关键维度进行了形式化的连接和动态平衡。其实践意义在于,为安全运营中心提供了从当前高度依赖人工、反应式的运营模式,向智能化、自适应、人机协同的运营模式转型的清晰路径图。它不仅能够解决警报过载、响应迟缓等操作性问题,还能通过信任校准机制,解决人工智能采纳过程中的组织和社会技术障碍,确保人类在关键决策中始终保持最终责任和控制权。
本研究的亮点和创新性体现在多个方面。首先,在方法论上,它创造性地提出了一个分五级的人工智能自主性分层模型,并将其与安全运营中心的具体职能和人类角色进行动态映射,这在现有研究中是较为系统和全面的。其次,研究引入了量化的信任模型,将信任视为连接自主性与人在环参与的动态变量,为人机协作中的信任构建与管理提供了可操作的理论基础。第三,实证研究部分具有很强的说服力。研究没有停留在理论探讨,而是通过一个功能完备的网络靶场和定制化的人工智能助手“网络盟友”,在模拟的真实世界攻击场景中验证了框架的有效性,提供了包括响应时间、误报率、工作负荷减少等具体数据作为支撑。最后,研究的对象具有高度的现实意义和前沿性,直接针对安全运营中心这一现代网络安全防御核心枢纽的痛点,探讨了生成式人工智能和大型语言模型等前沿技术如何以可信、可控的方式融入高风险的网络安全操作中。
此外,论文还包含了丰富的讨论,涵盖了框架的更广泛影响和当前局限性。在影响方面,论文指出该框架不仅能够提升单个安全运营中心的运营韧性,还能从战略上应对网络安全人才短缺的全球性挑战,通过人机协作放大分析师的能力。在局限性方面,论文坦诚地指出了实际部署中可能遇到的挑战,例如:持续模型再训练的需求与治理责任问题、异构安全工具集成的复杂性、人工智能与人类认知过程的不匹配、以及在资源有限的组织中实施框架可能面临的困难。这些讨论为后续研究和实际应用提供了宝贵的指引。总而言之,这篇论文为学术界和工业界提供了一个关于如何在安全运营中心构建有效、可信人机协作伙伴关系的全面、深入且极具实践价值的蓝图。