共查询到20条相似文献,搜索用时 62 毫秒
1.
LDPC码的硬判决译码通常是利用比特翻转算法(BF)以及在其基础上改进的加权比特翻转算法(WBF)来实现的,但是前者算法性能较差,而后者的复杂度较高,为了让译码算法能够兼顾其性能和复杂度,针对之前的BF以及WBF算法,提出了一种改进的LDPC码硬判决译码算法,该算法能够在前两次迭代中完成多个比特位的翻转.仿真结果表明,这种改进的算法可以在性能损失较小的条件下,大大降低算法的复杂度,从而提高译码的效率,减轻硬件的负担. 相似文献
2.
3.
4.
5.
6.
7.
8.
LDPC码的改进译码算法 总被引:2,自引:0,他引:2
由于短帧长LDPC码存在很多环路,其译码性能不具有最优性.本文首先推导了有环路LDPC码的概率译码算法,然后在传统的概率译码算法引入了修正系数,从而减小了环路对译码性能的影响.仿真结果表明,采用改进的译码算法可以提高译码性能. 相似文献
9.
仿真结果表明,对于列重和行重较小的低密度奇偶校验(Low Density Parity-check,LDPC)码而言,梯度下降比特翻转(Gradient Descent Bit-flipping,GDBF)译码算法展现出巨大的性能优势,但其对于基于有限域几何构造的列重和行重较大的LDPC码则性能损失严重.该文首先分析指出,对于大列重LDPC码而言,翻转函数中的“互相关项”和“双极性校验子求和项”之间的“不匹配”是造成性能损失的主要原因.其次,引入一种可靠性度量对双极性校验子进行加权,上述“不匹配”现象得到有效削弱,从而改善GDBF算法对大列重LDPC码的译码性能.仿真结果表明,在加性高斯白噪声信道下,相比于传统的GDBF算法,新提出的算法在误比特率为10-5时可获得0.8 dB的增益. 相似文献
10.
LDPC码的译码算法 总被引:8,自引:0,他引:8
介绍了LDPC(低密度奇偶校验码)码的BP算法和基于BP的简化译码算法,并在AWGN(加性白高斯噪声)环境下进行了各自的仿真。通过误码性能和译码复杂度两方面的比较表明BP算法的性能更优越,但简化算法的复杂度相对来说有大幅的下降。 相似文献
11.
12.
基于自身可信度的低复杂度LDPC码位翻转解码算法 总被引:2,自引:2,他引:0
提出一种基于位翻转的低复杂度、便于硬件实现的LDPC码解码算法.该算法充分利用变量节点的本征信息来计算翻转判决函数,减少了对其它变量节点软信息的需求,因此大大降低了解码硬件实现的复杂度,同时保证翻转判决函数具有较高的可靠性.利用该算法,对RS-based LDPC码进行的仿真结果表明,改进算法的解码性能接近甚至略优于IMWBF算法. 相似文献
13.
14.
对高斯信道下低密度奇偶校验码(Low-Density Parity-Check Codes)的传统译码算法进行深入研究,提出了基于整数运算的LDPC码改进最小和译码算法.相对于归一化最小和算法(Normalized Min-Sum),该算法根据每次迭代的判决情况增加了一个校正因子,使译码性能得到提高,经过整数量化后易于硬件实现.仿真结果表明,该算法在2.1 dB时性能优于LLR BP算法,且运算复杂度较低,译码速率较快. 相似文献
15.
16.
17.
介绍了LDPC码及其编译码原理,并对准循环LPDC码进行了性能仿真.结果表明,该码在中短码长时具有很强的纠错能力,将其应用于图像传输中,译码时以较少的迭代次数便能达到很好的传输质量.由于LDPC码性能优异,编译码比Turbo码较为简单,易于实现,故在未来的高速率、多媒体通信中可望得到广泛应用. 相似文献
18.
为了弥补Min-Sum译码算法相对于LLR-BP算法的性能缺陷,降低LLR-BP算法的实现复杂度,提出一种改进型Min-Sum译码算法,将Normalized BP-Based和Offset BP-Based 2种算法有效地结合,在计算校验节点消息时,同时引进校正因子和偏移因子,并通过最小均方差准则来选择参数。仿真结果表明,在误码率相同的条件下,改进型Min-Sum译码算法比Min-Sum算法、Normalized BP-Based算法和Offset BP-Based算法具有更好的译码性能,译码性能逼近于LLR-BP译码算法。 相似文献
19.
The layered decoding algorithm has been widely used in the implementation of Low Density Parity Check (LDPC) decoders, due to its high convergence speed. However, the pipeline operation of the layered decoder may introduce memory access conflicts, which heavily deteriorates the decoder throughput. To essentially deal with the issue of memory access conflicts, we propose a construction algorithm of LDPC codes, to which a constraint condition is added in the Progressive Edge-Growth (PEG) algorithm. The constraint condition can guarantee that for our constructed LDPC codes, the sets of all the variable nodes connected to the consecutive layers do not share any common variable node, which can avoid the memory access conflicts. Simulation results show that the performance of our constructed LDPC codes is close to the several other LDPC codes adopted in wireless standards. Moreover, compared with the decoder for IEEE 802. 16e LDPC codes, the throughput of our LDPC decoder has large improvement, while the chip resource consumption is unchanged. Thus, our constructed LD-PC codes can be adopted in the high-speed transmission. 相似文献