首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
LDPC码的硬判决译码通常是利用比特翻转算法(BF)以及在其基础上改进的加权比特翻转算法(WBF)来实现的,但是前者算法性能较差,而后者的复杂度较高,为了让译码算法能够兼顾其性能和复杂度,针对之前的BF以及WBF算法,提出了一种改进的LDPC码硬判决译码算法,该算法能够在前两次迭代中完成多个比特位的翻转.仿真结果表明,这种改进的算法可以在性能损失较小的条件下,大大降低算法的复杂度,从而提高译码的效率,减轻硬件的负担.  相似文献   

2.
文中提出了一种改进的基于加权错误校验的LDPC码比特反转算法,该算法不需要软信息,译码时采用了设定判决门限的方法,减少了译码过程中的迭代次数和译码复杂度.仿真结果表明:对于高Girth、低码率的LDPC码,该算法达到了比多种利用软信息的比特反转算法更少的迭代次数和更优异的性能.  相似文献   

3.
为了提高RRWBF算法的译码速度,提出一种多比特翻转机制来加快RRWBF算法的收敛速度。但是,使用该多比特翻转机制的RRWBF算法时,译码过程中出现与单比特翻转类似的循环翻转现象,影响其译码性能。为此,进一步提出一种循环翻转消除机制来破坏多比特翻转译码过程中产生的循环翻转,进而提高其译码性能。仿真结果显示,与单比特翻转算法相比,提出的基于循环翻转消除的多比特RRWBF算法以较小的译码性能损失换来译码速度的较大提升。  相似文献   

4.
5.
在多元LDPC码的软判决译码算法中,迭代过程中没有使用判决结果和校验和中隐藏的一些信息,在判决结果中隐藏着稳定性信息,校验和中隐藏着变量节点的可靠度信息。从混合译码算法思路出发,借鉴硬判决译码算法中统计校验和的做法和联合迭代检测译码算法中的反馈调整思想,对FFT-BP译码算法进行了改进。改进算法利用迭代过程中的可靠性和稳定度信息,对由变量节点向校验节点传递的消息向量进行调整以使其提供更多正确信息。仿真结果表明,改进的译码算法在没有增加复杂度的前提下,提升了FFT-BP译码算法的性能,在不同参数设置下,性能改进在0.2 d B左右。  相似文献   

6.
针对LDPC码的加权比特翻转(WBF)和改进型加权比特翻转(MWBF)算法,该文提出一种改进型算法。该方法以信息节点的平均幅度作为校验方程的可靠度信息,可以提高比特翻转效率。仿真结果表明,在AWGN信道下,误比特率为10-5时,相比于WBF和MWBF算法,该文提出的算法可分别获得约1.65 dB和1.36 dB的增益。同时,平均迭代次数分别降低18.20%~39.91%和17.54%~34.78%。  相似文献   

7.
准循环LDPC码的两种典型快速译码算法研究   总被引:1,自引:0,他引:1  
该文从译码速率、硬件实现的复杂度和误码率3个方面对比研究了两种典型的高速译码算法:Turbo型和积算法与并行加权比特翻转算法。以准循环LDPC码为对象,给出了Turbo型和积算法和并行加权比特翻转算法的实现时序、硬件复杂度以及误码率性能,其中,并行加权比特翻转算法的高效时序结构是首次给出的。计算机仿真结果表明,这两种算法都能够在迭代次数较少时取得良好的性能。  相似文献   

8.
LDPC码的改进译码算法   总被引:2,自引:0,他引:2  
由于短帧长LDPC码存在很多环路,其译码性能不具有最优性.本文首先推导了有环路LDPC码的概率译码算法,然后在传统的概率译码算法引入了修正系数,从而减小了环路对译码性能的影响.仿真结果表明,采用改进的译码算法可以提高译码性能.  相似文献   

9.
彭伟夫  张高远  文红  王龙业 《电视技术》2015,39(13):129-134
仿真结果表明,对于列重和行重较小的低密度奇偶校验(Low Density Parity-check,LDPC)码而言,梯度下降比特翻转(Gradient Descent Bit-flipping,GDBF)译码算法展现出巨大的性能优势,但其对于基于有限域几何构造的列重和行重较大的LDPC码则性能损失严重.该文首先分析指出,对于大列重LDPC码而言,翻转函数中的“互相关项”和“双极性校验子求和项”之间的“不匹配”是造成性能损失的主要原因.其次,引入一种可靠性度量对双极性校验子进行加权,上述“不匹配”现象得到有效削弱,从而改善GDBF算法对大列重LDPC码的译码性能.仿真结果表明,在加性高斯白噪声信道下,相比于传统的GDBF算法,新提出的算法在误比特率为10-5时可获得0.8 dB的增益.  相似文献   

10.
LDPC码的译码算法   总被引:8,自引:0,他引:8  
介绍了LDPC(低密度奇偶校验码)码的BP算法和基于BP的简化译码算法,并在AWGN(加性白高斯噪声)环境下进行了各自的仿真。通过误码性能和译码复杂度两方面的比较表明BP算法的性能更优越,但简化算法的复杂度相对来说有大幅的下降。  相似文献   

11.
朱方强  王中训  刘丽  王娟 《电视技术》2011,35(13):79-82
提出一种基于循环检测的低密度奇偶校验码的比特翻转(BF)译码算法,采用对译码翻转比特的循环检测和对接受符号可靠性信息的软判决,使译码性能大大改善.理论分析表明,该译码运算复杂度低,仿真结果表明,改进的算法优于加权比特翻转译码LP-WBF算法约0.3 dB,误码性能改善明显.  相似文献   

12.
基于自身可信度的低复杂度LDPC码位翻转解码算法   总被引:2,自引:2,他引:0  
提出一种基于位翻转的低复杂度、便于硬件实现的LDPC码解码算法.该算法充分利用变量节点的本征信息来计算翻转判决函数,减少了对其它变量节点软信息的需求,因此大大降低了解码硬件实现的复杂度,同时保证翻转判决函数具有较高的可靠性.利用该算法,对RS-based LDPC码进行的仿真结果表明,改进算法的解码性能接近甚至略优于IMWBF算法.  相似文献   

13.
本文提出了一种改进的LDPC码的比特反转解码算法.该算法考虑了如下两个方面的影响:校验错误的方程中所含有的比特数目对各个比特的错误概率的影响,以及校验错误的方程中,所含有的那些比特各自所参与的校验错误的方程数目对各个比特的错误概率的影响.该解码算法不需要软信息即可进行解码,其解码复杂度较低.仿真结果表明,本文提出的改进算法比原来的比特反转算法有较大的性能提高,并且对于大girth的LDPC码,该解码算法的性能甚至优于多种利用软信息的比特反转算法.  相似文献   

14.
对高斯信道下低密度奇偶校验码(Low-Density Parity-Check Codes)的传统译码算法进行深入研究,提出了基于整数运算的LDPC码改进最小和译码算法.相对于归一化最小和算法(Normalized Min-Sum),该算法根据每次迭代的判决情况增加了一个校正因子,使译码性能得到提高,经过整数量化后易于硬件实现.仿真结果表明,该算法在2.1 dB时性能优于LLR BP算法,且运算复杂度较低,译码速率较快.  相似文献   

15.
袁建国  仝青振  黄胜  王永 《半导体光电》2013,34(4):642-644,648
在高斯白噪声(AWGN)信道情况下,针对LDPC码的译码算法进行深入分析后,对适用于低密度奇偶校验(LDPC)码的硬判决译码算法与软判决译码算法进行了仿真与对比分析,并通过引入乘性校正因子以降低软判决算法中对数域置信传播(LLR-BP)算法的变量消息相关性。仿真分析表明改进后的LLR-BP算法与原算法相比,在几乎不增加计算复杂度的情况下,其译码纠错性能得到了明显的改善。因而改进后的LLR-BP算法具有明显的优越性。  相似文献   

16.
张誉  雷菁  文磊 《通信技术》2011,44(5):21-23
多进制LDPC码是将二进制LDPC码推广到有限域GF(q),其校验矩阵的元素不再是(0,1),而是集合(0,1,…,q-1),译码仍然采用高效的基于置信度传播的迭代译码算法。这里主要推导了多进制译码算法的迭代公式,分析证明了基于快速傅里叶变换(FFT)理论的改进算法,最后通过仿真手段验证和分析了基于FFT的多进制译码算法的优越性能。  相似文献   

17.
介绍了LDPC码及其编译码原理,并对准循环LPDC码进行了性能仿真.结果表明,该码在中短码长时具有很强的纠错能力,将其应用于图像传输中,译码时以较少的迭代次数便能达到很好的传输质量.由于LDPC码性能优异,编译码比Turbo码较为简单,易于实现,故在未来的高速率、多媒体通信中可望得到广泛应用.  相似文献   

18.
为了弥补Min-Sum译码算法相对于LLR-BP算法的性能缺陷,降低LLR-BP算法的实现复杂度,提出一种改进型Min-Sum译码算法,将Normalized BP-Based和Offset BP-Based 2种算法有效地结合,在计算校验节点消息时,同时引进校正因子和偏移因子,并通过最小均方差准则来选择参数。仿真结果表明,在误码率相同的条件下,改进型Min-Sum译码算法比Min-Sum算法、Normalized BP-Based算法和Offset BP-Based算法具有更好的译码性能,译码性能逼近于LLR-BP译码算法。  相似文献   

19.
The layered decoding algorithm has been widely used in the implementation of Low Density Parity Check (LDPC) decoders, due to its high convergence speed. However, the pipeline operation of the layered decoder may introduce memory access conflicts, which heavily deteriorates the decoder throughput. To essentially deal with the issue of memory access conflicts, we propose a construction algorithm of LDPC codes, to which a constraint condition is added in the Progressive Edge-Growth (PEG) algorithm. The constraint condition can guarantee that for our constructed LDPC codes, the sets of all the variable nodes connected to the consecutive layers do not share any common variable node, which can avoid the memory access conflicts. Simulation results show that the performance of our constructed LDPC codes is close to the several other LDPC codes adopted in wireless standards. Moreover, compared with the decoder for IEEE 802. 16e LDPC codes, the throughput of our LDPC decoder has large improvement, while the chip resource consumption is unchanged. Thus, our constructed LD-PC codes can be adopted in the high-speed transmission.  相似文献   

20.
高速数据传输中的LDPC码译码算法研究   总被引:2,自引:2,他引:0  
在对LDPC码(低密度奇偶校验码)不同译码算法的原理进行深入研究的基础上,提出了一种改进型的最小和译码算法。通过分析不同译码算法的计算复杂度,验证不同算法的译码性能,表明改进最小和译码算法降低了运算复杂度,减少了平均迭代次数,改善了算法的收敛特性,是一种低运算量高性能的译码算法,有利于提高吞吐量,在高速数据传输上具有很大应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号