共查询到17条相似文献,搜索用时 859 毫秒
1.
后向投影(BP)是一种精确的时域合成孔径雷达(SAR)成像算法,但是其巨大的运算量很难满足实时成像的要求,图形处理器(GPU)具有强大的浮点运算和高度的并行处理能力,为BP算法的实时成像提供了一个很好的平台。提出基于GPU的并行化BP算法,利用了四种优化方法对并行化BP算法进行加速,并且针对共享存储器的bank冲突问题提出了相应的解决方法,减少了共享存储器访问时间。最后给出仿真数据的成像结果,结果表明,与传统的基于CPU单线程的BP算法相比,成像速度可达到70倍以上的提升。 相似文献
2.
合成孔径雷达(SAR)的数据运算量不断增加,图形处理器(GPU)为其处理提供了新的运算平台。但是GPU显存小,不足以容纳大场景SAR数据。通过研究聚束SAR成像模式特点,提出了一种适合GPU加速的子孔径成像方案,降低了该算法对GPU显存的要求。在Tesla C2075上的实验结果表明,该方案能够取得良好的成像效果,与CPU上的处理效率相比,有数10倍的速度提升。 相似文献
3.
复杂轨迹合成孔径雷达后向投影算法图像流GPU成像 总被引:1,自引:0,他引:1
相对于基于傅里叶变换的频域成像算法,后向投影( BP)算法因采用时域逐点相干积累,更适合于复杂轨迹合成孔径雷达( SAR)高精度成像。但BP算法计算量巨大,限制了其应用于SAR大场景大数据量快速成像。图形处理器( GPU)具有强大浮点运算和并行处理能力,为大场景BP算法快速成像实现提供了途径。结合GPU并行处理,提出了一种基于图像流的复杂运动SAR大场景BP快速成像处理方法。该方法借助BP算法中图像像素点相互独立处理的特性,采用图像像素点并行及图像流程处理,设计了孔径与图像缓存调度方案,提高SAR大场景大数据BP算法成像效率。仿真和机载实测数据结果验证了方法的有效性,在有限GPU显存条件下实现了8192×8192大场景快速成像,并且成像加速比相对于传统CPU单线程处理可达300倍以上。 相似文献
4.
针对多模式合成孔径雷达(SAR)成像处理中存在的计算效率不足问题,提出了一种基于GPU的多模式SAR统一成像并行加速方法。为充分利用GPU的显存资源,提高算法的运算效率,利用共享内存对矩阵转置、矩阵相乘等部分进行大规模数据并行计算。实验结果表明,该算法大幅度提升了多模式SAR成像的计算效率,最高加速比达到55.62,解决了GPU显存空间利用率较低的问题。 相似文献
5.
合成孔径雷达(SAR)成像处理的运算量较大,在基于中央处理器(Central Processing Unit, CPU)的工作站或服务器上一般需要耗费较长的时间,无法满足实时性要求。借助于通用并行计算架构(CUDA)编程架构,该文提出一种基于图形处理器(GPU)的SAR 成像处理算法实现方案。该方案解决了GPU 显存不足以容纳一景SAR 数据时数据处理环节与内存/显存间数据传输环节的并行化问题,并能够支持多GPU 设备的并行处理,充分利用了GPU设备的计算资源。在NVIDIA K20C 和INTEL E5645 上的测试表明,与传统基于GPU 的SAR 成像处理算法相比,该方案能够达到数十倍的速度提升,显著降低了处理设备的功耗,提高了处理设备的便携性,能够达到每秒约36兆采样点的实时处理速度。 相似文献
6.
针对目前地层层析成像算法中正演算法存在计算量大、计算速度慢的问题,以图像处理器(GPU)为核心,研究并实现了一种基于GPU平台的时域有限差分(FDTD)正演算法。CUDA是一种由NVIDIA推出的GPU通用并行计算架构,也是目前较为成熟的GPU并行运算架构。而FDTD正演算法本身在算法特性上满足并行的要求,二者的结合将极大地加速程序的计算速度。在基于标准Marmousi速度模型的正演模拟中,程序速度提升30倍,而GPU正演图像与CPU正演结果误差小于千分之一。算例表明CUDA可以大大加速目前的FDTD正演算法,并且随着GPU硬件自身的发展和计算架构的不断改进,加速效果还将进一步提升,这将有利于后续波形反演工作的进展。 相似文献
7.
8.
视频SAR要求高分辨率实时成像,很多成像算法在高分辨率成像时,算法复杂度较高,使用中央处理器(CPU)处理无法实时成像。为解决这一问题,该文提出了一种基于图形处理器(GPU)的圆迹视频SAR实时成像算法。该算法首先根据帧率与重叠率的关系截取回波数据,然后将极坐标格式算法(PFA)中传统的两维插值用效率更高的Chirp Scaling操作代替,并且利用3种优化技术对PFA的GPU实现进行加速。实验结果表明,该文所用成像算法帧率能达到5Hz,满足视频SAR实时成像的速度要求。 相似文献
9.
10.
11.
12.
在自适应光学(AO)系统中,成像是不可或缺的一部分。AO仿真系统中的探测器和哈特曼-夏克波前传感器的成像过程一般用二维的离散卷积来计算,而通常它的数值算法用快速傅立叶变换(FFT)实现。但是随着矩阵维数的增加,卷积的运算量会急剧增大,成为制约整个AO仿真效率的一个瓶颈。利用图形处理器(GPU)的强大计算能力,可以使成像系统运行速度大幅提高。在NVIDIA Tesla C2050 GPU上,针对不同分辨率的图像,获得了相对于串行程序5-24倍的加速比。 相似文献
13.
提出了一种在 Kepler 架构 GPU(graphics processing unit,图形处理器)上利用 CUDA(compute unified device architecture,统一计算设备架构)技术加速通信仿真中DFT(discrete Fourier transform,离散傅里叶变换)处理过程的方法。该方法的核心思想是利用线程级并行技术实现单条收发链路内部DFT运算的并行加速,并利用动态并行和Hyper-Q技术实现不同收发用户对之间链路处理过程的并行加速,从而最终达到加速仿真中DFT处理过程的目的。实验结果表明,相对单核单线程CPU程序和上一代Fermi架构GPU程序,该方法分别能够将DFT处理速度提升300倍和3倍,具有较好的加速效果。 相似文献
14.
随着合成孔径雷达(SAR)应用的不断扩展,其所需要处理的数据量也在不断增加,传统的SAR信号处理器的处理速度成为其应用扩展的瓶颈。为了应对这些挑战,需要高效的SAR信号处理器来加快计算速度。文章利用图形处理器(GPU)这一新颖高效的的计算平台进行SAR信号处理,利用GPU通用并行计算,使用CUDA实现SAR成像算法,充分发挥其计算能力。实验结果表明,其处理速度是基于CPU的传统SAR信号处理器的10倍以上。它为解决在未来SAR信号处理中可能出现的问题提供了一种可靠的方法。 相似文献
15.
16.
随着计算机硬件技术的高速发展,图形处理器(Graphic processing unit,GPU)通用计算已经发展到颇为成熟阶段,其并行运算速度已远远超过多核CPU。文章简介CUDA架构并验证其在图形处理中的加速能力,对比线性代数运算在CPU与GPU架构下的效率,将CUDA技术应用于智能视频监控人体检测系统中,实验验证其高效性及可行性。最后对CUDA的发展方向进行了展望。 相似文献
17.
压缩感知理论指出,稀疏信号可以通过以低于奈奎斯特采样的测量数据重建出原始信号。针对高分辨率SAR成像在奈奎斯特理论下所面临的高速A/D采样、大数据量存储、传输等问题挑战。本文提出了一种基于压缩感知理论的多发多收高分辨率SAR二维成像算法。该算法减轻了高分辨率SAR成像的压力,采用压缩感知处理降低了A/D采样速率、数据量... 相似文献