首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到13条相似文献,搜索用时 31 毫秒
1.
为了提高离散高斯信道下二进制低密度奇偶校验码(low-density parity-check code, LDPC)最优化译码算法的性能和效率,提出了一种改进的LDPC码最优化译码算法。首先,通过理论分析和数学推导,构建了译码问题的数学模型;然后,论证并给出了针对该模型的最优化译码算法;最后,基于VC6.0平台进行了译码的性能和效率仿真并与其他算法进行比较。仿真结果表明,在误码率性能和译码效率上,新算法优于改进前的算法;在误码率性能上,新算法也优于常用的最小和译码算法。仿真结果与理论分析吻合。  相似文献   

2.
LDPC码的高效译码算法研究   总被引:1,自引:0,他引:1  
对于LDPC码的译码算法即和积算法,目前的简化算法多在对数域中进行。提出了一种新的基于差分的译码算法,其主要思想是:在LDPC码的二部图上所传递的消息是概率的差分值,而对于校验节点和消息节点的更新都是在特定的加法域中进行。针对校验节点的更新,还可以选择若干个绝对值最小的差分值进行运算,以进一步降低复杂度。与传统的基于对数似然比的译码方法相比,该算法的计算复杂度有很大降低,而译码性能和收敛速度没有明显损失。  相似文献   

3.
在加性高斯白噪声(additive white Gaussian noise, AWGN)信道中设计一种低密度奇偶校验(low-density parity-check, LDPC)码的最大似然译码算法是一项具有挑战性的工作。麦克斯韦译码算法在二进制擦除信道下具有优越的性能,但把这种算法移植到其他信道却非常困难。引入了信道转换的思想实现两个不同信道之间的转换,并利用该方法成功地将麦克斯韦算法应用到AWGN信道中,提出了一种将信度传播算法和麦克斯韦算法有机结合的联合译码算法,即信度传播麦克斯韦译码算法,该算法可缩小与最大似然译码算法之间的性能差距。仿真表明,该译码算法可打破大多数小陷阱集从而获得比信度传播译码算法更低的误帧率,并且可消除大多数信度传播译码后出现的小错误。  相似文献   

4.
针对低密度奇偶校验码的动态调度译码算法中存在的震荡现象和贪婪特性问题,在基于变量节点消息残差置信传播算法的基础上,提出一种基于相对残差调度的置信传播算法。对变量节点进行分组,以变量节点向校验节点传递消息的相对残差值作为参考,优先更新相对残差值最大的节点,加快译码收敛速度。对于译码过程中震荡的变量节点,对其更新前后的后验LLR(log likelihood ratio)消息值做加权平均处理,提高震荡节点的可靠度。在算法迭代的过程中对变量节点向校验节点传递消息的相对残差值作衰减处理,缓解译码算法的贪婪特性。仿真结果表明:与VC-RBP算法相比,在误比特率为10-5时所提算法译码性能可以获得0.3~0.4 dB的增益,同时拥有更快的收敛速度。  相似文献   

5.
为了减少比特翻转算法中环路振荡引起的误码,提出了一种低密度奇偶校验(low-density parity-check, LDPC)码并行混合加权比特翻转译码算法。该算法采用多比特翻转方式,当出现环路振荡时,加入一随机扰动改变目标函数来减少由于环路振荡引起的误码,同时从数学角度分析了其误码产生的原因。仿真表明,与原有的比特翻转算法相比,该算法以较低的复杂度获取了误码率性能的改善和收敛特性的提高。  相似文献   

6.
针对目前低密度奇偶校验(low-density parity-check, LDPC)码偏移最小和(offset min-sum, OMS)算法偏移因子选取不够准确的问题, 提出了一种基于次序统计量的OMS(order statistics OMS, OR-OMS)算法。该算法使用两个不同的偏移因子对校验节点更新结果进行修正, 一个偏移因子用于修正第一最小值结果, 另一个偏移因子用于修正第二最小值结果。利用次序统计量进行理论分析, 得出最优的两个偏移因子值。所提算法使用分层调度的消息传递方式, 加快算法的收敛速度。仿真结果表明, 该算法与传统的OMS算法相比, 在误比特率(bite error rate, BER)为10-5时所提算法译码性能可以获得约0.35 dB的增益, 平均迭代次数最多能够降低34.28%, 同时拥有更好的收敛性能。  相似文献   

7.
以信息节点的幅度和作为校验方程的可靠度信息,提出两种简单高效的低密度奇偶效验(low density parity check, LDPC)码的加权比特翻转(weighted bit flipping, WBF)译码算法。仿真结果表明,在加性高斯白噪声信道下,误比特率为10-5时,相比于传统的WBF和改进型WBF(modified WBF, MWBF)算法,提出的一种算法可分别获得约1.65 dB和1.31 dB的增益。同时,平均迭代次数也大大降低。  相似文献   

8.
低密度奇偶校验码(low density parity check codes, LDPC)以其接近香农极限的性能和相对简单的译码结构得到信道编码界的广泛关注。对LDPC码的最小和算法进行了深入地研究,通过多种方法量化译码时的初始消息,最终使得每次迭代的校验消息与变量消息都变为整数,实现了基于整数运算的最小和译码算法,并进行了对比分析。仿真表明,量化后的最小和算法中的所有变量都用固定长度的整数表示,因而便于硬件实现,在其译码性能比和积译码(sum product decoding, SP)性能下降不大的情况下大大提高了译码速度;平均互信息越大的量化方法,其量化分层电平也越佳;最大平均互信息量化下的最小和译码算法性能最好,最大平均互信息量化是一类能最大可能获得信源信息条件下的最佳量化方法,且不增加译码复杂度。  相似文献   

9.
针对低密度奇偶校验(low density parity check, LDPC)码在相关噪声条件下译码误比特率上升的问题,结合传统译码算法与卷积神经网络(convolutional neural network, CNN)设计了新的译码器。该译码器在置信传播(belief propagation, BP)算法中引入加权比特翻转(weighted bit-flipping, WBF)算法,生成加权BP(weighted BP,WBP)结构以解决码字临界处误比特率较高的问题。然后通过CNN降低噪声,在WBP和CNN之间迭代处理接收信号,使信号估计值不断逼近真实值以降低相关噪声的影响。通过仿真发现,与BP算法相比,所提算法能够有效降低相关噪声条件下LDPC译码的误比特率。  相似文献   

10.
改进的分层修正最小和LDPC译码算法及译码器设计   总被引:1,自引:0,他引:1  
提出了一种改进的分层修正最小和的LDPC译码算法,该算法充分考虑到了译码器硬件结构的特性,使用了部分信息节点提前中止迭代的方法,降低了译码器处理数据的位宽。同时,在这种算法的基础上,设计出了结构简单的译码器,该译码器在资源使用非常少的情况下可以获得较高的译码吞吐量,同时保持译码器译码性能和相应的浮点算法很接近。另外通过合理地设计LDPC码校验矩阵(H矩阵)和译码器数据处理单元,使得译码器可以支持多种码长码率LDPC码译码。这样结构特点的译码器,在低功耗以及需要多种码长码率的编码进行数据传输的领域有着非常高的应用价值。  相似文献   

11.
大量仿真表明,基于幅度和的改进型加权比特翻转(modified sum of the magnitude based weighted bit flipping, MSMWBF)译码算法对于行重/列重较小的低密度奇偶校验(low density parity check, LDPC)码而言,展现出巨大的性能优势,但对于行重/列重较大的基于有限域几何(finite geometry, FG)的LDPC码,性能损失严重。首先对此现象进行理论分析。其次,引入附加的偏移项对MSMWBF算法的校验方程可靠度信息进行修正,提高了算法对行重/列重较大的LDPC码的译码性能。仿真结果表明,在加性高斯白噪声信道下,误比特率为10E-5时,相比于MSMWBF算法,在适度增加实现复杂度的条件下,所提算法可获得约0.63 dB的增益。  相似文献   

12.
针对低密度奇偶校验(low density parity check, LDPC)码在相关噪声条件下译码误比特率上升的问题,结合传统译码算法与卷积神经网络(convolutional neural network, CNN)设计了新的译码器。该译码器在置信传播(belief propagation, BP)算法中引入加权比特翻转(weighted bit-flipping, WBF)算法,生成加权BP(weighted BP,WBP)结构以解决码字临界处误比特率较高的问题。然后通过CNN降低噪声,在WBP和CNN之间迭代处理接收信号,使信号估计值不断逼近真实值以降低相关噪声的影响。通过仿真发现,与BP算法相比,所提算法能够有效降低相关噪声条件下LDPC译码的误比特率。  相似文献   

13.
A novel low-complexity weighted symbol-flipping algorithm with flipping patterns to decode nonbinary low-density parity-check codes is proposed.The proposed decoding procedure updates the hard-decision received symbol vector iteratively in search of a valid codeword in the symbol vector space.Only one symbol is flipped in each iteration,and symbol flipping function,which is employed as the symbol flipping metric,combines the number of failed checks and the reliabilities of the received bits and calculated symbols.A scheme to avoid infinite loops and select one symbol to flip in high order Galois field search is also proposed.The design of flipping pattern’s order and depth,which is dependent of the computational requirement and error performance,is also proposed and exemplified.Simulation results show that the algorithm achieves an appealing tradeoff between performance and computational requirement over relatively low Galois field for short to medium code length.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号