该研究由 Amir Bennatan、Yoni Choukroun 和 Pavel Kisilev(华为技术有限公司)发表在《2018 IEEE International Symposium on Information Theory (ISIT)》。
近年来,深度学习在通信和编码理论领域展现出巨大潜力。但由于过拟合问题(overfitting),传统的深度学习方法难以应用于长码(block length > 16)的解码。先前的研究(如Nachmani等人[2,3])采用类似LDPC信念传播(BP, Belief Propagation)的结构设计神经网络,限制了网络架构的自由度。本研究提出了一种新型深度神经网络(DNN, Deep Neural Network)框架,通过引入校验子(syndrome)和信道可靠性(channel reliability)信息进行预处理,解决了过拟合问题,并允许自由设计神经网络架构。
本研究核心创新在于提出一种基于校验子和可靠性信息的预处理方案。该方案包括以下步骤:
1. 硬判决(hard decision):从信道输出提取硬判决码字 ( \mathbf{y}^b ),即符号化后的硬判决结果。
2. 校验子计算:计算 ( H \mathbf{y}^b ),其中 ( H ) 为校验矩阵(parity check matrix)。校验子信息可有效反映噪声特性。
3. 可靠性信息提取:计算信道输出的绝对值 ( |\mathbf{y}| ),用于衡量各个码位的可靠性。
该框架的理论优势在于:
- 避免过拟合:由于校验子和可靠性信息不依赖于发送码字的具体内容,神经网络仅需学习噪声的概率分布,而非所有可能的码字,极大提升了泛化能力。
- 无信息损失:论文证明,输入数据经过预处理后仍为足够统计量(sufficient statistic),不影响最优解码性能。
该研究探索了两种DNN架构:
1. 普通多层神经网络(vanilla multi-layer DNN):包含11层全连接(fully-connected, FC)网络,采用ReLU激活函数,并在每一层输入原始预处理数据。该架构模仿了BP算法的消息传递结构,但无需严格遵循Tanner图约束。
2. 堆叠循环神经网络(stacked RNN):基于门控循环单元(GRU, Gated Recurrent Unit)设计了分层RNN网络,以增强多尺度特征提取能力。相较于传统LSTM(Long Short-Term Memory),GRU参数更少,计算效率更高。
为了进一步提升解码性能,该研究提出了一种基于码的自同构群(automorphism group)的预处理方法:
1. 置换选择:对信道输出进行排序,使得前 ( k ) 个码位的可靠性最高。
2. 基于自同构群的有限搜索:由于仅考虑码的自同构置换(automorphism),可保证置换后的输出仍满足码字性质,避免破坏结构信息。
3. 仿真验证:该方法在BCH(Bose-Chaudhuri-Hocquenghem)码上实现了显著的性能提升,接近OSD(Ordered Statistics Decoding)算法的解码效果。
实验在两个BCH码上进行了验证:
1. BCH(63,45):相较于传统BP算法,普通DNN和RNN架构均显著降低了误码率(BER, Bit Error Rate),其中RNN架构几乎接近OSD算法(order 2)的性能。
2. BCH(127,64):在未使用置换增强时,RNN架构优于现有最佳方法(如Nachmani等[2]),但仍与OSD有一定差距。引入置换预处理后,解码性能大幅提升,但仍需进一步优化以逼近OSD。
该研究为深度学习在编码理论中的应用提供了新思路,未来可能推动更高效的解码器设计。