共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
Turbo码的一种并行译码方案及相应的并行结构交织器研究 总被引:1,自引:0,他引:1
Turbo码基于MAP算法译码的递推计算所引入高的译码延迟限制了Turbo码在高速率数据传输中的应用。为了解决这个问题,该文提供了一种降低译码延迟的并行译码方法。并行处理方案的实现必须通过适当的交织以避免两个译码器对外信息读写的数据冲突。该文在分析了任意无冲突交织方式可能性的存在之后,给出了设计任意地适用于并行处理方案的S随机交织器的方法。仿真验证了并行译码方案的误比特性能。 相似文献
3.
Wong C.-C. Lai M.-W. Lin C.-C. Chang H.-C. Lee C.-Y. 《Solid-State Circuits, IEEE Journal of》2010,45(2):422-432
4.
5.
提出了基于高次多项式无冲突交织器的Turbo码并行解码的优化实现方法,解码器采用MAX-Log-MAP算法,完成了从Matlab算法设计验证到RTL设计、FPGA验证,并在LTE无线通信链路中验证.设计的Turbo并行高速解码器半次迭代的效率为6.9 bit/cycle,在最高迭代为5.5次、时钟频率为309MHz下,达到207Mb/s的吞吐率,满足高速无线通信系统的要求,交织和解交织采用存储器映射方法.该设计节约了计算电路和存储量. 相似文献
6.
介绍了WCDMA中所采用的Turbo码编码结构中、质数交职器、MAP解码算法,进而给出不同内交织结构下,基于MAP算法的Turbo码译码性能仿真曲线与相关结论。 相似文献
7.
Turbo码随机交织器的设计与实现 总被引:1,自引:1,他引:1
Turbo码中交织器性能的优劣将直接影响到Turbo码的译码性能.在分析交织器的设计准则和类型的基础上,利用m序列的遍历性,设计了一种基于m序列的随机交织器,并给出了基于FPGA的硬件实现方案.仿真结果表明,该随机交织器在实现输入数据随机分布方面性能优异,并降低了Turbo码的译码延迟. 相似文献
8.
9.
在LTE-Advanced标准中,为满足移动环境下的低功耗要求,低存储容量的译码器结构设计引起了广泛关注.本文在分解Turbo码网格图的基础上,研究了前向状态度量的反向重算方法,提出了一种基于反向重算的低存储容量译码器结构设计方案.在Log-MAP算法下研究了一种适合反向重算的修正雅可比对数式实现方法,推导了反向重算的数学表达式,并给出了实现结构.结果表明,所涉及的反向重算译码结构,以很小的冗余计算为代价将存储容量降低了50%,译码性能非常接近Log-MAP算法,在冗余计算复杂度、存储容量和译码性能指标上具有更好的均衡性. 相似文献
10.
《Very Large Scale Integration (VLSI) Systems, IEEE Transactions on》2009,17(1):92-102
11.
针对目前Turbo码交织时延大影响编译码速率提升的缺陷,采用对m序列进行优选的方法设计了一种快速交织器,并基于CPLD给出硬件实现方案。仿真结果表明,该交织器在不增加编译码复杂度的情况下,一次迭代过程交织模块即能减少20%时间延迟.在时延和性能之间取得较好的折衷。 相似文献
12.
13.
在Turbo码理论中,交织器占有重要地位。论文分析了Turbo码的编译码方案,阐明了交织器在Turbo码设计中的重要作用,提出了几种交织器的设计实现方法,并在仿真的基础上对其性能进行了分析。 相似文献
14.
结合TI公司的TMS320DM320针对媒体处理并行数字信号处理结构特点,分析MPEG-4算法本身的实现,采用了流水线设计的方式,针对性地提出了基于DM320上的MPEG-4解码算法.分析了各个芯片内部资源的利用率,提出了未来优化的方向. 相似文献
15.
《无线电工程》2018,(2):149-153
卫星回传信道数字视频广播(Digital Video Broadcasting-Return Channel over Satellite,DVB-RCS)标准中回传信道采用双二进制Turbo码作为前向纠错编码(Forwar Error Correctiong,FEC),为了提升译码算法的运算速度,在Max-LogMAP译码算法基础上,提出了基于统一计算设备架构(Compute Unified Device Architecture,CUDA)的图形处理器(Graphic Processing Unit,GPU)并行计算加速译码方法,其运算速度与中央处理器(Central Processing Unit,CPU)运行相比,提高了约20倍。 相似文献
16.
17.
18.
Olivier Cantineau Laurent Petit Jean-Didiero Legat 《The Journal of VLSI Signal Processing》1998,20(3):251-265
A study of the MPEG-2 video decoding standard in Main Profile @ Main Level has been performed, comparing the different solutions existing for the VLSI implementation of the basic functions (Huffman decoding, IDCT...) included in the standard. Afterwards, a new dynamically configurable architecture is proposed for the memory manager, which is necessary to deal with the large data flow inside the decoder. It is aimed at interfacing the external memory, arbitrating the access requests coming from the different decoding units and allowing generic memory requests through the definition of virtual addresses. It is shown that, by means of a particular data organization, the circuit requires an external memory, which is a 2-MB DRAM in fast page or EDO mode, accessible via a 64-bit bus. The memory manager works at 27 MHz and allows a real-time decoding for MP @ ML bitstreams. It has been synthesized in a 0.8-m two-metal CMOS technology and presents a total area of 5.4 mm2 for 6500 gates. 相似文献
19.
B. Bougard L. van der Perre F. Maessen A. Giulietti V. Derudder F. Catthoor 《The Journal of VLSI Signal Processing》2003,33(3):307-316
Turbo codes achieve one of the highest coding gains known and should be the best candidates for error correction in high-speed communication systems. However, the standard implementation of their decoding algorithm suffers from a large latency and high power consumption making them improper for mobile interactive systems. To overcome this drawback, we carefully analyzed the Maximum A Posteriori algorithm, the key-building block of the decoder, and stated that memory accesses are the bottleneck. Therefore, we have systematically optimized the data transfer and storage. This paper presents the main results of this optimization, especially those concerning the memory organization and architecture.Both for the input and the metrics values, a memory sub-layer is introduced such that temporal data locality can be maximally exploited. The architecture is defined to optimally allocate memory units and assign arrays, such that the number of accesses is drastically reduced. The combined optimizations reduce the latency by a factor 600 and the energy per bit by a factor 20, breaking definitely an important obstruction to the application of turbo codes in high-speed communication systems. 相似文献