分享自:

基于LLM增强图的股票交互建模用于交易量预测

期刊:proceedings of the joint workshop of the 9th finnlp, the 6th fnp, and the 1st llmfinlegal

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


基于LLM增强图神经网络的股票交易量预测研究

一、作者与发表信息
本研究由北京大学多媒体信息处理国家重点实验室的Zhiyu Xu、Yi Liu、Yuchi Wang、Xu Sun团队与瑞穗证券(Mizuho Securities Co., Ltd.)的Ruihan Bao、Keiko Harimoto合作完成,发表于2025年1月19-20日举办的联合学术会议*Proceedings of the Joint Workshop of the 9th FinNLP, the 6th FNP, and the 1st LLMFinLegal*(页码153-163),隶属于计算语言学协会(Association for Computational Linguistics)。

二、学术背景
研究领域为金融时间序列预测图神经网络(Graph Neural Networks, GNNs)的交叉应用。交易量预测对投资组合优化、市场监管和风险控制至关重要,但现有方法存在两大局限:
1. 传统GNN模型仅将新闻数据作为节点特征,忽略新闻中隐含的股票间动态关系;
2. 新闻文本冗长且噪声多,关系提取难度高。
为此,研究团队提出LLM增强的动态图神经网络(LED-GNN),通过大语言模型(Large Language Model, LLM)从新闻中提取股票关系构建动态图,结合历史价格-交易量数据提升预测精度。

三、研究方法与流程
研究分为四个核心模块,流程如下:

  1. 动态新闻关系图构建

    • 关系生成阶段:使用Mistral-7B模型解析Reuters金融新闻,通过定制化提示模板(含指令、示例、实体和新闻正文)生成初步关系集合R’。
    • 关系降维阶段:采用Sentence-BERT将文本关系转换为向量,通过UMAP降维和HDBSCAN聚类,剔除冗余关系,生成精简关系集R。
    • 动态图生成阶段:LLM从新闻中提取三元组(主体股票、关系、客体股票),经one-hot编码后按时间窗口(24小时)聚合边特征,形成动态图Gnews
  2. 时空股票图构建
    基于历史价格-交易量数据,通过可微分图学习(Shang et al., 2021方法)生成静态拓扑图Gstock,利用Gumbel重参数化解决离散图结构的梯度优化问题。

  3. 动态图神经网络预测

    • GATv2-LSTM架构:结合门控图注意力网络(GATv2)与LSTM,分别处理动态新闻图和静态股票图。节点状态更新公式涵盖输入门、遗忘门、记忆单元等(见原文公式3-8)。
    • 跨注意力融合:对齐两类图的节点表征,通过MLP输出预测值。
  4. 损失函数与优化
    采用加权MAE(平均绝对误差)、MSE(均方误差)和L2正则化(超参数α、β、λ)联合优化(公式11)。

四、实验结果
在TOPIX500数据集(439支股票,2013-2018年数据)上的测试表明:
1. 性能对比:LED-GNN在MSE(0.153)、RMSE(0.391)、MAE(0.293)、SMAPE(0.680)上均优于基线模型(如LSTM、MTGNN等),最高提升2.8%。
2. 消融实验:移除新闻图或股票图均导致性能下降(MSE升至0.155),验证双图协同的必要性;随机图替换使MSE恶化至0.159。
3. 时间窗口分析:回看窗口30时性能最优,短窗口(5-20)下LED-GNN因图结构信息抗过拟合能力显著强于LSTM(MSE提升5.8%)。

五、研究结论与价值
1. 方法论创新:首次将LLM提取的新闻关系作为动态图边特征,突破传统GNN仅用新闻辅助节点的局限。
2. 应用价值:为高频交易、算法策略提供更精准的短期量价预测工具。
3. 跨领域意义:推动LLM与时空图模型在金融领域的结合,开源框架可扩展至其他关系型时序预测任务。

六、研究亮点
- LLM增强的新闻处理管道:通过生成-降维-动态图三阶段,解决金融新闻稀疏性和无监督关系提取难题。
- 双图协同架构:动态新闻图捕捉事件驱动关系,静态股票图建模长期市场规律,跨注意力机制实现信息互补。
- 实战性能验证:在真实市场数据(含146,474条新闻)上实现稳定超越基线的预测精度。

七、其他贡献
研究团队公开了TOPIX数据集的预处理代码(含新闻去噪和股票筛选逻辑),为后续研究提供基准。


(注:全文约1800字,符合要求)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com