首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 937 毫秒
1.
石油勘探中“两宽一高”采集技术的深入应用,对地震资料并行处理能力提出了更高的要求,针对存储对地震资料处理应用的影响进行研究。为提高各类应用的运算效率,设计并实现了基于SSD、集群NAS多级分层存储地震资料处理方法,针对高IOPS应用、大数据块并行应用进行算法流程级设计。通过DD与IOZONE基准测试、两种应用实际运行效果,验证了设计方案具备在地震资料处理中应用效率与性价比上的优势,适用于勘探数据中心地震资料处理,具有一定的普适性。  相似文献   

2.
基于广义S变换的地震高分辨率分析   总被引:1,自引:0,他引:1  
Stockwell等人提出的S变换虽然与Fourier谱能保持直接联系,但是S变换中的基本小波不适用于地震资料处理,通过对S变换加以推广得到广义S变换。本文研究广义S变换在地震高分辨处理中的应用,并利用广义S变换进行地震高分辨率剖面处理。仿真实验和实际资料的处理对比结果均表明广义S变换在地震高分辨处理方面的可行性和有效性。  相似文献   

3.
高性能计算机在气象部门得到了广泛应用,发挥了重要作用,对高性能计算集群的科学高效的运维管理是确保高性能计算机系统正常运行的首要任务。本文结合武汉军运会气象高性能计算机的实际情况,对高性能计算机在业务应用、运行监控与维护管理等方面做了介绍,对业务科研人员和运维管理人员具有一定参考借鉴意义。  相似文献   

4.
HPF(HighPerformanceFortran)是HPF论坛1993年推出的一种高性能数据并行语言。文章利用合作单位开发的p_HPF并行编译系统,在地震资料处理中得到了大规模的工业应用。基准测试程序和实际资料处理结果表明,基于HPF的地震资料并行处理具有可编程性强、可移植性好和并行效率高等特点,具有很好的应用前景。  相似文献   

5.
随着时代的进步,科学的发展,计算机领域也取得了突破性的发展。高性能计算机主要应用于传统的计算机领域,但是在云计算的时代,随着数据密集型数据的兴起,探索如何通过高性能计算机进行海量数据的处理已经成为一个人们不得不深刻思考、探究的一个问题。高性能计算机因为其独特的性质为海量数据的处理提供了很好的支持,利用高性能计算机处理海量数据,不仅拓宽了高性能计算机的应用领域,更解决了密集型数据的处理难题。本文主要通过分析高性能计算机的特征,提出了几种解决高性能计算机处理海量数据中存在的问题,一提高我国高性能计算机处理海量数据的能力。  相似文献   

6.
地震资料数据安全成为油气勘探领域判断油气藏的位置、规模等特性的关键因素.数据备份是数据安全的重要组成部分,通过分析地震勘探业务需求,结合现有地震资料处理解释应用系统实际现状,提出了一种基于分级的数据备份系统解决方案.该方案能有效解决各类地震资料数据的集中备份与恢复、地震资料处理解释应用系统的存储子系统后备扩容以及不同存储级间的数据迁移等用户需求,从而确保油气勘探的数据安全.  相似文献   

7.
HPF高性能语言在地震资料并行处理中的应用   总被引:1,自引:0,他引:1  
HPF(High Performance Fortran)是HPF论坛1993年推出的一种高性能数据并行语言。文章利用合作单位开发的p-HPF并行编译系统,在地震资料处理中得到了大规模的工业应用,基准测试程序和实际资料处理结果表明,基于HPF的地震资料并行处理具有可编程性强,可移植性好和并行效率高等特点,具有很好的应用前景。  相似文献   

8.
随着地震勘探采集技术精度和密度的不断提高,地震资料处理计算量和数据量迅速增加,对硬件资源的要求越来越高.如何将计算、存储、网络资源有效整合在一起,构建一套面向地震资料处理的集群系统成为难题.本文提出了一套地震资料处理集群的设计方案,重点介绍了服务器、存储、网络设备的选型以及集群管理系统,最后从性能和应用两方面对集群系统做了详细的测试.  相似文献   

9.
高性能计算机的可靠性技术现状与趋势   总被引:5,自引:0,他引:5  
随着高性能计算机系统性能的不断提升和硬件规模的不断扩大,如何实现系统的可靠运行,是高性能计算机尤其是P级计算机研制中面临的重要技术挑战.从高性能计算机对可靠性技术的需求出发,全面介绍了高性能计算机硬件设计中的可靠性技术现状,包括避错、静态冗余、动态冗余和在线替换等技术,详细分析了各种可靠性技术在典型机器中的应用情况;最后对高性能计算机可靠性技术的发展趋势进行了深入探讨,包括多核处理器的可靠性设计、全方位的内存防护技术和刀片式的冗余架构.  相似文献   

10.
高性能计算机性能评测基准HPCC应用研究   总被引:1,自引:0,他引:1  
随着高性能计算机研制的迅速发展,其性能评测显得越来越重要。基准HPCC集计算、存储访问、网络传输等性能评测功能于一体,用于对高性能计算机进行综合评价。本文在高性能计算机性能评测技术研究的基础上,对基准HPCC的应用进行了深入探讨。  相似文献   

11.
面向行业应用的掌上电脑设计与实现   总被引:1,自引:0,他引:1  
掌上电脑 (Handhold PC)是一种新型的个人信息处理终端 ,以其体积小、便于携带等特点 ,不仅得到了个人消费者的青睐 ,而且在行业应用中也有着巨大的发展潜力 .本文首先介绍了掌上电脑的技术特点 ,然后提出了基于 Stron-g ARM SA- 110 0微处理器的面向行业应用的掌上电脑设计方案 ,并详细阐述了具体实现过程 .  相似文献   

12.
根据近年来中海油南海西部油田地震勘探资料高性能并行处理系统建设的成功案例,详细地介绍几个基于偏移技术计算的有代表性的HPC集群并行处理系统网络架构模型(包括千兆或万兆以太网和存储网络)的演变、趋势和技术特点,以及不同的网络在新建集群和系统扩充中整合与汇聚。  相似文献   

13.
根据近年来中海油南海西部油田地震勘探资料高性能并行处理系统建设的成功案例。详细地介绍几个基于偏移技术计算的有代表性的HPC集群并行处理系统网络架构模型(包括千兆或万兆以太网和存储网络)的演变、趋势和技术特点。以及不同的网络在新建集群和系统扩充中整合与汇聚。  相似文献   

14.
数据是天文学发展的重要驱动。分布式存储和高性能计算(High Performance Computing,HPC)为应对海量天文数据的复杂性、不规则的存储和计算起到推动作用。天文学研究中多信息和多学科交叉融合成为必然,天文大数据已进入大规模计算时代。高性能计算为天文大数据处理和分析提供了新的手段,针对一些传统手段无法解决的问题给出了新的方案。文中根据天文数据分类和特征,以高性能计算为支撑,对天文大数据的数据融合、高效存取、分析及后续处理、可视化等问题进行了研究,总结了现阶段的技术特点,提出了处理天文大数据的研究策略和技术方法,并对天文大数据处理面对的问题和发展趋势进行了探讨。  相似文献   

15.
随着传感器技术的发展和信息融合技术的应用,信息的获取和处理进入一个全新的时期。在利用地面传感器获取目标地震信号特征的基础上,借助神经网络理论,解决基于地震动信号的典型目标的模式识别问题。并设计了一种带偏差单元的回归网络用于目标识别,通过实验仿真证明了带偏差单元的回归网络在模式识别中的优越性。  相似文献   

16.
强偏序时态模式中数据依赖推导规则研究   总被引:1,自引:0,他引:1       下载免费PDF全文
随着数据库与信息技术的发展,信息系统面临许多新的应用和需求,对时态信息处理的需求越来越迫切。时态信息处理已成为许多新一代数据库与信息系统的关键技术,时态数据库研究已经成为数据库与信息系统领域研究的热点和难点。就时态数据库中的难点问题强偏序时态数据库的数据依赖问题开展研究,因此选题紧靠学术前沿。针对强偏序时态模式中的数据依赖问题进行了讨论,?提出了强偏序时态模块模式、强偏序模式的时态类型集概念,?给出了强偏序时态模式中函数依赖的推导规则以及多值依赖的推导规则,理论分析的结果表明这些规则是正确的有效的,这对实现强偏序时态数据库的规范化设计具有重要的推动作用。  相似文献   

17.
The Moderate Resolution Imaging Spectroradiometer (MODIS) instrument’s land and atmosphere data are important to many scientific analyses that study processes at both local and global scales. The Terra and Aqua MODIS satellites acquire data of the entire Earth’s surface every one or two days in 36 spectral bands. MODIS data provide information to complement many of the ground-based observations but are extremely critical when studying global phenomena such as gross photosynthesis and evapotranspiration. However, data procurement and processing can be challenging and cumbersome due to difficulties in volume, size of data and scale of analyses. For example, the very first step in MODIS data processing is to ensure that all products are in the same resolution and coordinate system. The reprojection step involves a complex inverse gridding algorithm and involves downloading tens of thousands of files for a single year that is often infeasible to perform on a scientist’s desktop. Thus, use of large-scale resource environments such as high performance computing (HPC) environments are becoming crucial for processing of MODIS data. However, HPC environments have traditionally been used for tightly coupled applications and present several challenges for managing data-intensive pipelines. We have developed a data-processing pipeline that downloads the MODIS swath products and reprojects the data to a sinusoidal system on an HPC system. The 10 year archive of the reprojected data generated using the pipeline is made available through a web portal. In this paper, we detail a system architecture (CAMP) to manage the lifecycle of MODIS data that includes procurement, storage, processing and dissemination. Our system architecture was developed in the context of the MODIS reprojection pipeline but is extensible to other analyses of MODIS data. Additionally, our work provides a framework and valuable experiences for future developments and deployments of data-intensive pipelines from other scientific domains on HPC systems.  相似文献   

18.
A number of scientific applications run on current HPC systems would benefit from an approximate assessment of parallel overhead. In many instances a quick and simple method to obtain a general overview on the subject is regarded useful auxiliary information by the routine HPC user. Here we present such a method using just execution times for increasing numbers of parallel processing cores. We start out with several common scientific applications and measure the fraction of time spent in MPI communication. Forming the ratio of MPI time to overall execution time we obtain a smooth curve that can be parameterized by only two constants. We then use this two-parameter expression and extend Amdahl’s theorem with a new term representing parallel overhead in general. Fitting the original data set with this extended Amdahl expression yields an estimate for the parallel overhead closely matching the MPI time determined previously.  相似文献   

19.
Recently, High Performance Computing (HPC) platforms have been employed to realize many computationally demanding applications in signal and image processing. These applications require real-time performance constraints to be met. These constraints include latency as well as throughput. In order to meet these performance requirements, efficient parallel algorithms are needed. These algorithms must be engineered to exploit the computational characteristics of such applications. In this paper we present a methodology for mapping a class of adaptive signal processing applications onto HPC platforms such that the throughput performance is optimized. We first define a new task model using the salient computational characteristics of a class of adaptive signal processing applications. Based on this task model, we propose a new execution model. In the earlier linear pipelined execution model, the task mapping choices were restricted. The new model permits flexible task mapping choices, leading to improved throughput performance compared with the previous model. Using the new model, a three-step task mapping methodology is developed. It consists of (1) a data remapping step, (2) a coarse resource allocation step, and (3) a fine performance tuning step. The methodology is demonstrated by designing parallel algorithms for modern radar and sonar signal processing applications. These are implemented on IBM SP2 and Cray T3E, state-of-the-art HPC platforms, to show the effectiveness of our approach. Experimental results show significant performance improvement over those obtained by previous approaches. Our code is written using C and the Message Passing Interface (MPI). Thus, it is portable across various HPC platforms. Received April 8, 1998; revised February 2, 1999.  相似文献   

20.
随着分布式文件系统的深入研究与日益完善,出现以下2个问题:一是监测系统虽能获取各节点物理状态信息,但缺乏一种个性化监测机制获知系统软件运行的动态信息;二是缺乏对各类监测数据整合处理方法,以形成整体节点运行时的状态描述.针对上述问题,提出并实现一种基于远程过程调用协议(Remote Procedure Call Protocol,RPC)个性监测技术与预测分析技术相结合的监测系统.针对系统的各类监测数据,提出了基于多元线性回归的信息拟合算法,将系统服务端的监测信息进行拟合;构建了预测分析建模,利用系统历史监测数据,实现对元数据端命令处理速率的预测.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号