首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 125 毫秒
1.
以多处理器节点集群计算机为平台,构建了MPI-Open MP混合并行的层次化结构模型。然后以三维金属圆柱FDTD散射计算为算例,将单独使用MPI和MPIOpen MP混合编程情况下结果的加速比进行了比较,并借此做了通信与计算重叠试验,不仅验证了混合方法的有效性,而且可以看出在多处理器集群计算系统上运用MPI-Open MP模式能进一步提高加速比和带宽利用率。最后,通过对附加通信量、负载平衡以及网络通信性能等因素对FDTD并行计算产生的影响进行讨论,可以进一步得出构建局域网的硬件性能、子区域的不同划分以及通信原语言的软件设计对并行加速比和效率具有明显影响,而带宽利用率的提高则系于负载平衡问题的改善。  相似文献   

2.
基于MPI实现粗糙地面电磁散射并行FDTD计算   总被引:1,自引:0,他引:1       下载免费PDF全文
齐国雷  胡浩  周东方  候德亭  张闯   《微波学报》2010,26(4):19-23
提出了在由微机互连构成的机群(COW)并行计算系统上应用信息传递的方式实现粗糙地面散射并行FDTD算法.综合考虑了区域分割和负载平衡因素,并详细分析了子区域在普通网格和吸收边界处与相邻子区域的场值的数据传递,提高了二维粗糙地面FDTD并行计算效率.解决了在计算电大尺寸粗糙地面散射时产生的内存不足和计算耗时长等瓶颈问题.理论分析和数值计算结果验证了该算法的正确性;当计算电大尺寸的粗糙地面散射时,并行效率提升明显,即当参与计算的处理器数量达到6个时,并行效率仍然可以保持在90%以上.  相似文献   

3.
网络并行FDTD方法分析电大目标电磁散射   总被引:21,自引:2,他引:19       下载免费PDF全文
本文应用基于消息传递(Message Passing)模式的网络并行计算系统来实现并行FDTD方法.通过区域分割技术将FDTD计算区域分割成多个子域进行分别计算,各个子区域在边界处与其相邻的子区域进行切向场值的数据交换以使整个迭代进行下去,从而实现FDTD并行计算.我们采用PVM并行平台来实现并行FDTD算法.计算结果表明了本方法的正确性和有效性.  相似文献   

4.
利用显卡(Graphics Processing Unit, GPU)加速时域有限差分(Finite-Difference Time Domain, FDTD)法计算二维粗糙面的双站散射系数, 介绍了FDTD的理论公式以及计算模型.采用各向异性完全匹配层(Uniaxial Perfectly Matched Layer, UPML)截断FDTD计算区域.重点讨论了基于GPU的并行FDTD计算粗糙面双站散射系数的并行设计方案计算流程.在NVIDIA GeForce GTX 570显卡上获得了50.7×的加速比.结果表明:通过对FDTD计算粗糙面散射问题的加速, 极大地提高了计算效率.  相似文献   

5.
探讨了基于OpenMP的电磁场FDTD多核并行程序设计的方法,以期实现该方法在更复杂的算法中应用具有更理想的性能提升。针对一个一维电磁场FDTD算法问题,对其计算方法与过程做了简单描述。在Fortran语言环境中,采用OpenMP+~粒度并行的方式实现了并行化,即只对循环部分进行并行计算,并将该并行方法在一个三维瞬态场电偶极子辐射FDTD程序中进行了验证。该并行算法取得了较其他并行FDTD算法更快的加速比和更高的效率。结果表明基于OpenMP的电磁场FDTD并行算法具有非常好的加速比和效率。  相似文献   

6.
图像处理在PC机群上的实现及性能优化   总被引:1,自引:1,他引:0  
利用PVM建立PC机群环境,并在此环境中开展并行研究。分别采用串行与并行的计算方法实现了图像的平滑处理。在并行计算中。对大小不同的图像分别进行了并行计算,得出对应的处理时间以及所获得的加速比。最后采用了一种改进的算法实现了图像处理。针对所获得的实验数据,得出加速比较低,通过采用数据本地化的优化措施.有效地提高了并行加速比.达到了良好的性能效果。通过对实验结果的分析可知,当前的并行处理的实施对于处理数据传输量很小的求解问题上有一定的性能效果.只有网络性能达到一定程度的时候,并行处理就可以应用在普通问题规模上.并能够取得良好的处理速度。  相似文献   

7.
梁宇宏  陈星  孙凤林 《微波学报》2010,26(Z1):64-66
目前,时域有限差分方法(Finite Difference Time Domain,FDTD)在电磁数值计算中已获得了广泛应用。对许多复杂电磁问题,FDTD 算法需要耗费巨大的计算机计算时间和存储空间,这成为FDTD 方法亟待解决的难题。本文提出了应用基于消息传递(Message Passing)方式实现FDTD 的并行算法。并对基于MPI 不同通信方式的并行FDTD 进行了效 率比较。采用MPI2.0 单边通信方式中的put 操作和主动对象同步(PSCW)方式,在一套16 个节点的Beowulf 型网络并行计算机系统上,实现了三维FDTD 并行程序,获得了较高的加速比和并行效率。  相似文献   

8.
用MPI实现FDTD网络并行电磁散射运算   总被引:2,自引:0,他引:2       下载免费PDF全文
提出了在由微机互连构成的机群(COW)并行计算系统上应用基于消息传递(M essage Passing)的方式实现二维FDTD并行算法。通过区域分割,各个子区域在边界处与其相邻的子区域进行场值的数据传递,从而实现FDTD并行计算。文中还仔细分析了与FDTD相关的外围边界的并行化处理。文中以二维金属方柱算例验证了算法的正确性和有效性,并将本文实现的加速比以及并行效率与其它文献进行了比较,从而为运用FDTD方法进行电大尺寸复杂电磁问题数值模拟计算提供了一条有效途径。  相似文献   

9.
高性能机群计算机是指利用高速通信网络将一组高档工作站或PC机按某种结构连接起来,在并行程序开发环境支持下,统一调度、协调系统资源,实现高效并行处理的系统。概述了机群计算机和PVM的特点,进而给出了一种利用Windows操作系统和PVM(Parallel Virtural Machine)在微机局域网上构建高性能机群计算机系统的具体过程和方法,如在Windows操作系统下的安装配置PVM的过程、配置并行计算环境过程中的注意事项,及并行编程模式的选择方法等。  相似文献   

10.
FDTD并行算法实现及其数据通信优化   总被引:1,自引:0,他引:1  
应用计算机局域网,采用基于消息传递(MPI)方式和区域分割技术,实现了FDTD的并行计算。以无限长线电流源在自由空间辐射为算例,对并行FDTD算法进行了验证。结果表明并行算法和串行算法计算结果一致,并有效提高了计算效率。最后通过减少通信数据量、优化数据交换方式及通信和计算重叠的方法,使并行算法的数据通信得到优化,并行计算效率明显提高。  相似文献   

11.
FDTD算法的网络并行运算实现   总被引:27,自引:4,他引:23       下载免费PDF全文
薛正辉  杨仕明  高本庆  张泽杰 《电子学报》2003,31(12):1839-1843
本文提出了FDTD方法在微机互连构成的机群(COW)并行计算系统上以消息传递方式执行的一种实现方案.组成了验证性的机群并行计算系统,以一维和三维典型算例验证了算法的可行性、正确性和高效性,为运用FDTD方法进行电大尺寸复杂电磁问题数值模拟计算提供了一条有效的途径,也为深入进行这方面研究奠定了基础.  相似文献   

12.
电各向异性介质FDTD并行算法的研究   总被引:2,自引:2,他引:0  
基于消息传递模式的网络并行计算系统和区域分割技术成功地实现了电各向异性介质FDTD并行算法,并用此程序代码计算了电大目标的RCS.经测试,该程序代码并行效率达到87%.根据电各向异性介质FDTD迭代式,电场某一节点的计算,需牵涉到其周围28个节点的电磁场值,详细分析了该情况下并行算法中的数据通讯规律,并实现了局域网内各节点机的协同并行计算.数值结果表明了该算法和程序的正确性及优越性.  相似文献   

13.
利用基于图形处理器(Graphics Processing Unit, GPU)的并行时域有限差分(Finite Difference Time Domain, FDTD)法计算一维粗糙海面及其上方二维漂浮目标的复合电磁散射.采用各向异性完全匹配层(Uniaxial Perfectly Matched Layer, UPML)吸收边界作为截断边界, 为了便于并行程序的设计, 在整个计算区域使用UPML吸收边界差分公式进行迭代.利用异步通信技术来隐藏主机和设备之间的通信时间, 同时使用片上的共享存储器提高读取速度, 进一步对程序进行优化, 得到很好的加速比, 证明了该方法的计算高效性.通过与串行FDTD法以及串行矩量法获得的数值结果进行比较, 验证了该并行方法的正确性, 进而研究了海面上方类似舰船漂浮目标的电磁散射特性, 讨论了入射角、海面风速以及目标吃水深度对双站散射系数的影响.  相似文献   

14.
We present the parallel, MPI-based implementation of the SDFMM computer code using a thirty-two node Intel Pentium-based Beowulf cluster. The SDFMM is a fast algorithm that is a hybridization of the method of moments (MoMs), the fast multipole method (FMM), and the steepest descent integration path (SDP), which is used to solve large-scale linear systems of equations produced in electromagnetic scattering problems. An overall speedup of 7.2 has been achieved on the 32-processor Beowulf cluster and a significant reduced runtime is achieved on the 4-processor 667 MHz Alpha workstation  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号