这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:
基于LLM增强图神经网络的股票交易量预测研究
一、作者与发表信息
本研究由北京大学多媒体信息处理国家重点实验室的Zhiyu Xu、Yi Liu、Yuchi Wang、Xu Sun团队与瑞穗证券(Mizuho Securities Co., Ltd.)的Ruihan Bao、Keiko Harimoto合作完成,发表于2025年1月19-20日举办的联合学术会议*Proceedings of the Joint Workshop of the 9th FinNLP, the 6th FNP, and the 1st LLMFinLegal*(页码153-163),隶属于计算语言学协会(Association for Computational Linguistics)。
二、学术背景
研究领域为金融时间序列预测与图神经网络(Graph Neural Networks, GNNs)的交叉应用。交易量预测对投资组合优化、市场监管和风险控制至关重要,但现有方法存在两大局限:
1. 传统GNN模型仅将新闻数据作为节点特征,忽略新闻中隐含的股票间动态关系;
2. 新闻文本冗长且噪声多,关系提取难度高。
为此,研究团队提出LLM增强的动态图神经网络(LED-GNN),通过大语言模型(Large Language Model, LLM)从新闻中提取股票关系构建动态图,结合历史价格-交易量数据提升预测精度。
三、研究方法与流程
研究分为四个核心模块,流程如下:
动态新闻关系图构建
时空股票图构建
基于历史价格-交易量数据,通过可微分图学习(Shang et al., 2021方法)生成静态拓扑图Gstock,利用Gumbel重参数化解决离散图结构的梯度优化问题。
动态图神经网络预测
损失函数与优化
采用加权MAE(平均绝对误差)、MSE(均方误差)和L2正则化(超参数α、β、λ)联合优化(公式11)。
四、实验结果
在TOPIX500数据集(439支股票,2013-2018年数据)上的测试表明:
1. 性能对比:LED-GNN在MSE(0.153)、RMSE(0.391)、MAE(0.293)、SMAPE(0.680)上均优于基线模型(如LSTM、MTGNN等),最高提升2.8%。
2. 消融实验:移除新闻图或股票图均导致性能下降(MSE升至0.155),验证双图协同的必要性;随机图替换使MSE恶化至0.159。
3. 时间窗口分析:回看窗口30时性能最优,短窗口(5-20)下LED-GNN因图结构信息抗过拟合能力显著强于LSTM(MSE提升5.8%)。
五、研究结论与价值
1. 方法论创新:首次将LLM提取的新闻关系作为动态图边特征,突破传统GNN仅用新闻辅助节点的局限。
2. 应用价值:为高频交易、算法策略提供更精准的短期量价预测工具。
3. 跨领域意义:推动LLM与时空图模型在金融领域的结合,开源框架可扩展至其他关系型时序预测任务。
六、研究亮点
- LLM增强的新闻处理管道:通过生成-降维-动态图三阶段,解决金融新闻稀疏性和无监督关系提取难题。
- 双图协同架构:动态新闻图捕捉事件驱动关系,静态股票图建模长期市场规律,跨注意力机制实现信息互补。
- 实战性能验证:在真实市场数据(含146,474条新闻)上实现稳定超越基线的预测精度。
七、其他贡献
研究团队公开了TOPIX数据集的预处理代码(含新闻去噪和股票筛选逻辑),为后续研究提供基准。
(注:全文约1800字,符合要求)