排序方式: 共有35条查询结果,搜索用时 13 毫秒
1.
《计算机科学与探索》2018,(4):550-558
随着生成超短激光脉冲技术的不断发展,对这种激光脉冲和等离子体相互作用进行动力学描述也变得越来越重要。PIC(particle-in-cell)是一种在等离子体物理中,研究充能粒子在电磁场中运动轨迹的广泛采用的方法。尽管现在已经有一些在GPU上的PIC方法的实现,但是基于激光等离子体相互作用模拟的特点,仍然有很多重要问题可以尝试其他解决思路。提出了一种把初始的基于CPU的LPI模拟代码完整移植到GPU上的可行方法。提出了一系列加速初始的GPU版本的方法:动态冗余算法、混合精度算法、粒子排序算法。利用并且评估了GPUDirect RDMA(remote direct memory access)技术,其可以提高MPI的通信性能。实验结果证明,与初始的GPU版本相比,"Scatter"阶段加速比为6.1倍,当MPI传输数据大于3 KB时,通信过程提速了2.8倍。这些研究证明了针对模拟应用和GPU集群的特点进行特殊的优化能对性能带来显著的提升。 相似文献
2.
未来100P/E级高性能计算机系统对网络的传输可靠性、性能均衡性、可扩展性方面有更高的需求。本文提出的RDMA传输模型,采取配置少量资源,动态连接使用的策略实现端到端的数据可靠传输。与传统的可靠通信协议如Infiniband相比,本方案的优势为:(1)支持自动重路由,可绕过网络故障区域保证消息的可靠传输;(2)支持报文乱序到达,支持源和目的间的多路径传输,提供消息的流控机制,能较好地均衡网络整体性能,减少网络热点和缓解网络拥塞;(3)基于通信接口硬件实现可靠性数据结构,不需要消耗主存为通信建立连接,具有极高的系统可扩展性。初步测试结果表明,采取了优化措施后,该协议不会增加小于4K字节消息的传输延迟。 相似文献
3.
InfiniBand结构中SDP协议分析 总被引:1,自引:0,他引:1
InfiniBand是一种新型宽带互联结构,可以提高CPU之间、服务器各设备之间、网络域之间的通信速率。SDP是InfiniBand结构中一种轻量级通信协议,保持了TCP/IP上的SOCK_STREAM套接字语法,通过旁路操作系统内核,实现了零拷贝,从而大大提高了传输速率。文章介绍了InfiniBand的互联结构和通信模式、分析了SDP协议在系统中的结构模型。最后从缓冲模型、连接建立过程和数据传输机制等方面分析了SDP的具体执行过程。 相似文献
4.
5.
近年来,利用普通PC和高速网络搭建集群已经成为构建高性能计算环境的一种趋势。虽然InfiniBand在高性能计算领域还是相对比较新的技术,但是它的丰富特性使得它在高性能领域所占份额日趋扩大。InfiniBand Architecture(IBA)这种工业标准的主要设计思想是采用支持多并发链接的“转换线缆”技术提供高性能和高可靠性.这篇文章介绍了InfiniBand的体系结构和在InfiniBand上实现MPI的有关技术。最后在集群环境中,用MPI对InfiniBand网络的各项性能指标进行了测试。 相似文献
6.
7.
随着英特尔傲腾数据中心持久化内存模块(DCPMM)开始进入市场以及远程直接内存访问(RDMA)硬件成本的降低,设计融合非易失性内存(NVM)和RDMA的键值(KV)数据库面临新的机遇和挑战。构建基于NVM和RDMA的KV数据库的关键在于设计一个高效的通信协议。遗憾的是,现有工作或采用NVM不感知的RDMA协议,或采用低效的NVM感知的RDMA协议,这导致它们无法最大化KV数据库的性能。本文提出了BOOM协议——一种新型的NVM感知的RDMA协议。相较于NVM不感知的协议,BOOM协议允许直接对远端NVM进行RDMA操作,消除了冗余的数据拷贝;相较于现有的NVM感知的协议,它可以显著减少元数据请求,降低KV请求的端对端延迟。在BOOM协议的基础上构建了BOOM-KV,并针对服务端中央处理器(CPU)利用率和宕机持久化等问题进一步进行优化。将BOOM-KV与最新的研究成果进行对比,结果表明,BOOM-KV能显著降低请求延迟,其中PUT延迟最大降低了42%,GET延迟最大降低了41%,并且展现出良好的扩展性。 相似文献
8.
9.
用户级通信允许应用程序直接访问网络接口,减小了通信操作的软件层开销。为了支持用户级通信,高效的虚拟地址到物理地址的变换起到关键作用。本文提出了基于地址变换表的地址变换机制,虚实地址变换都在网络接口控制器上完成,变换过程不需要操作系统的参与,并且无需失效处理。采用这种机制,我们实现了基于PCI-X面向集群系统的互连通信子系统CNI。实际测试获得了2.4μs的最小单边延迟和850MB/s的峰值带宽。 相似文献
10.
随着云计算向数据化智能化的方向演进,数据的流转与有效利用将为业务带来核心价值。大规模深度学习、机器训练等应用是极其依赖算力的,大量的信息交互对网络提出了很高的要求,由此需要一个低时延、无丢包、高吞吐的算力网络。考察RDMA[1]技术在数据中心中的应用,并分析其对于未来云数据中心高性能集群计算的影响。 相似文献