这篇文档属于类型a,即单篇原创研究的学术报告。以下是对该研究的详细介绍:
该研究由匿名作者撰写,目前正在作为会议论文提交至ICLR 2025(International Conference on Learning Representations 2025)进行双盲评审。研究的主要目标是利用大语言模型(Large Language Models, LLMs)生成逼真的微服务调用图(microservice call graphs),以替代真实数据用于系统管理和优化任务。
在复杂的计算机系统中,工作负载跟踪(workload traces)记录了硬件或软件在应用执行期间的事件,对于分析系统行为和优化资源管理至关重要。然而,获取真实的工作负载跟踪数据存在诸多挑战,包括性能开销和隐私问题。因此,合成跟踪数据生成被认为是一种有前景的替代方案。近年来,生成式机器学习方法(如LSTMs、GANs和扩散模型)在合成跟踪数据生成方面取得了进展,但这些方法通常只能生成特定字段或固定结构的跟踪数据,无法处理复杂的层次结构和隐式约束。本研究提出了一种基于LLMs的合成跟踪数据生成方法,特别关注微服务调用图,旨在生成具有复杂层次结构和隐式约束的逼真跟踪数据。
研究分为两个主要阶段:预训练和指令微调。
在预训练阶段,研究者使用自回归语言建模目标对LLMs进行微调,使其适应微服务调用图的生成任务。具体步骤如下: - 数据编码:将微服务调用图从表格格式编码为适合LLMs处理的文本格式。每条边(edge)的特征被转换为自然语言描述,全局属性(如最大深度、总边数和总延迟)也被编码为文本提示。 - 递归生成:将调用图的生成任务分解为一系列递归的子图生成任务。模型从初始提示开始,逐层生成边,并为下一层生成新的提示。这一过程持续进行,直到满足所有请求的属性。
在指令微调阶段,研究者通过监督学习进一步优化模型,使其能够根据用户指令生成符合要求的调用图。具体步骤如下: - 中间指令:在递归生成过程中,引入自然语言推理步骤,帮助模型更好地遵循结构约束。例如,模型会逐步计算剩余边数和深度,确保生成的子图符合要求。 - 指令微调数据集:从训练数据中随机选择5%的调用图,重新格式化以用于指令微调。训练过程中,模型学习根据用户指令生成调用图,并遵循特定的属性(如高延迟或不常见的通信模式)。
研究使用了阿里巴巴2022年微服务跟踪数据集(Alibaba v2022 dataset),包含136万个微服务调用图样本,对应11亿个token。其中,10%的样本用于验证,5%的样本用于指令微调。
研究结果表明,递归生成和指令微调显著提高了模型生成复杂调用图的准确性。具体结果如下: - 结构有效性:递归生成模型在处理复杂(即深度和宽度较大的)调用图时,生成的跟踪数据更符合真实数据的分布,且有效性显著高于基线模型。 - 分布相似性:与基线生成模型和手工专家模型相比,本研究生成的合成跟踪数据在分布上与真实数据更为接近。 - 下游任务性能:研究还展示了模型在关键下游任务(如跟踪特征预测和缺失数据填充)中的表现,表明其在这些任务中具有较高的准确性。
本研究提出了一种基于LLMs的合成微服务跟踪数据生成方法,通过递归生成和指令微调,显著提高了生成数据的准确性和有效性。研究表明,合成跟踪数据可以有效地替代真实数据,用于训练和优化微服务管理任务。此外,模型在指令遵循和下游任务中的表现也展示了其广泛的应用潜力。
研究还详细讨论了方法的局限性,例如递归生成过程中丢弃了先前生成的边信息,可能导致生成质量下降。未来研究可以通过引入更多历史信息或多样化指令模板来进一步优化生成质量。
总体而言,本研究为合成跟踪数据生成提供了一种新的思路,展示了LLMs在复杂系统管理任务中的巨大潜力。