本研究由Meng Wang、Ruowei Li、Yanyan Shi、Xinsong Zhang、Yuwei Liu和Qi Fang共同完成,分别来自河南师范大学电子与电气工程学院(Henan Normal University)和南通大学电气工程与自动化系(Nantong University)。论文题为《Intelligent prediction of grid connection point voltage overrun for distributed photovoltaic generation systems》,发表于期刊《Electric Power Systems Research》。研究聚焦于分布式光伏(PV)系统并网时引发的电压越限问题,提出了一种结合Transformer与双向长短期记忆网络(BiLSTM)的混合深度学习模型,旨在提升电网连接点电压越限的预测精度,保障电力系统稳定运行。
学术背景
随着可再生能源替代化石燃料的需求增长,光伏发电因其零污染、零排放特性成为重要选择。然而,分布式光伏大规模并网会导致配电网出现反向功率流,引发并网点电压越限,威胁设备安全。传统电压预测方法(如统计方法)因光伏数据的随机性和非周期性而精度不足,而单一深度学习模型(如LSTM)易忽略全局特征或存在过拟合问题。为此,本研究提出一种新型混合模型,旨在同时捕捉电压序列的长期依赖(Transformer)和短期双向特征(BiLSTM),以提升预测准确性。
研究流程
数据采集与处理
- 仿真设计:基于MATLAB搭建10 kV配电网模型,模拟分布式光伏并网场景,参数包括直流电压(1150 V)、开关频率(15 kHz)、线路阻抗(AB段25 km,BC段20 km)等(表1)。
- 数据集构建:通过调整辐照度、温度和负载功率,生成1000组数据,包含温度、辐照度、负载功率、PV输出功率和电压五类数据,按8:2划分训练集与测试集(表2)。电压数据为输出,其余为输入。
- 负载计算:采用负载密度法(公式10),将区域划分为m个子区,结合负载密度指标(如商业/住宅区权重)计算总负载功率。
混合模型构建
- Transformer模块:
- 位置编码(公式1):通过正弦/余弦函数编码电压序列的位置信息,保留时序特征。
- 多头自注意力机制(公式2):设置4个头(图3),提取全局依赖关系,避免梯度消失。
- BiLSTM模块(图5):双向捕捉序列的前后依赖,隐藏状态通过全连接层输出预测值(公式4)。
- 集成框架(图6):
- 输入数据经Transformer的嵌入层和自注意力层处理后,由BiLSTM提取双向时序特征。
- 后续通过ReLU激活函数和Dropout层防止过拟合,最终由回归层输出预测电压。
性能评估
- 评价指标:均方误差(MSE)、均方根误差(RMSE)、平均绝对误差(MAE)、平均绝对百分比误差(MAPE)和决定系数(R²)(表3)。
- 对比模型:包括单一模型(CNN、LSTM、BiLSTM、Transformer)和混合模型(CNN-LSTM、CNN-BiLSTM、Transformer-LSTM),超参数详见表4-5。
主要结果
- 预测精度:
- Transformer-BiLSTM的RMSE(0.2237)、MSE(0.0500)、MAE(0.1663)和MAPE(0.069)均为最优,R²达0.9985(表6,图11)。
- 相较于单一BiLSTM,RMSE降低39.3%;较Transformer-LSTM,MAE下降40%。
- 模型对比:
- 混合模型普遍优于单一模型,如CNN-BiLSTM的RMSE比CNN低34.79%。
- Transformer-BiLSTM在长短期特征融合上表现最佳,避免了单一模型的局限性(图9-10)。
结论与价值
- 科学价值:
- 首次将Transformer与BiLSTM结合用于电压越限预测,解决了传统方法对非周期数据建模不足的问题。
- 提出的混合模型无需复杂预处理,适用于实时应用。
- 应用价值:
- 为高比例分布式光伏并网提供电压稳定性管理工具,支持电网安全调度。
- 仿真代码和数据集可复现,为后续研究提供基准。
研究亮点
- 方法创新:
- 结合Transformer的全局注意力与BiLSTM的双向时序建模,首次在电压预测中实现长短期特征协同提取。
- 引入位置编码和负载密度法,增强模型对实际电网动态的适应性。
- 工程意义:
- 通过MATLAB仿真验证了模型在真实场景中的有效性,参数设计(如滤波器电感4 μH)贴合实际电网需求。
其他价值
- 研究获中国国家自然科学基金(52177004)和河南省自然科学基金(212300410055)支持,数据与代码开源,推动领域协作。
- 参考文献涵盖光伏并网、深度学习最新进展(如文献[23]中的VMD-TCN方法),为读者提供全面技术脉络。
(注:以上内容严格基于原文,未添加非文献信息,专业术语如“自注意力机制(self-attention)”等均保留英文对照。)