首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
基于网格光顺的区域自动划分算法   总被引:1,自引:0,他引:1  
胡久乡 《计算机学报》1999,22(12):1272-1275
提出了一种用于有限元网格光顺的区域划分算法。该算法将生成的网格划分为若干个子区域,以便分配到多处理器上。该算法具有通用性好,任务分配平衡,子区域交接结点数目少,长宽适当等优点。  相似文献   

2.
针对双三次数值天气预报模式进行了并行算法研究。采用一维区域分解算法,借鉴块棋盘划分矩阵转置算法,设计和实现了数据转置通信算法,并采取计算与通信重叠技术减小通信时间对并行效率的影响,最终实现了双三次数值天气预报模式的并行算法,并在机群系统上进行了并行性能测试评估。结果表明,实现的双三次数值预报模式并行算法的并行效率较高,设计实现的数据转置通信算法、计算与通信重叠技术取得了较好的效果。  相似文献   

3.
海洋数值预报技术的发展与高性能计算密切相关。为提高OVALS海洋资料同化系统的时效性,本文实现了OVALS系统的并行化。在温盐资料同化模块并行化过程中,本文提出了层优先处理器划分算法,并研究了基于该算法的并行I/O、全局通讯等实现方法;在高度计资料同化模块并行化过程中,设计实现了基于预处理的非规则区域分解算法,较好地实现了OVALS并行计算负载平衡。数值实验表明,OVALS并行系统在36并行规模下取得了17.45的并行加速比。  相似文献   

4.
丁锐  赵荣彩  韩林 《计算机科学》2012,39(3):290-294
计算和数据自动划分是并行化编译中一种自动分配计算和数据到各个处理机的优化技术,划分的结果直接影响程序并行的性能。数组是划分处理的主要对象之一,一些数组分布后的收益不高,但带来的并行约束却能对其它数组的划分产生干扰,导致大量数据重分布通信的产生。现有的划分算法中没有约定数组分布的优先次序,因此无法限制这些数组并行约束的传播,降低了优化编译器后端自动生成并行代码的性能。提出了一种基于主导值的计算和数据自动划分算法:将划分过程中数组对程序并行性的影响量化为主导值,并依据主导值的大小约定数组分布的优先次序,限制干扰数组并行约束的传播速度,提高划分结果的合理性。实验结果表明,算法能够获得良好的划分效果。  相似文献   

5.
SN_PDBS中数据重划分的设计与实现   总被引:1,自引:0,他引:1  
在基于共享硬件结构的并行数据库系统中,数据倾斜严重影响系统性能,数据重划分是实现数据物量重组织,解决数据放置倾斜的一种比较彻底的方法,本文提出了SN结构下并行数据库的静态和动态重划分算法,以及针对轮转重划分的静态算法,理论分析和实践表明算法是正确可行性的。  相似文献   

6.
边缘海静力数值模式是国内针对边缘海特点自主开发的数值预报模式,但该模式因物理求解方程较多且采用不宜并行化的SOR求解算法而程序计算时间过长。针对上述问题,提出基于三维网格和海洋模式特点的SOR并行求解算法,该算法在保留三维网格数据间依赖关系的同时,有效解决了SOR迭代算法难以并行化的问题。同时,引入通信避免算法,采用MPI非阻塞通信方式,细分计算和通信过程,利用计算有效隐藏通信开销,提高了并行程序效率。实验结果表明,并行后的边缘海静力数值模式程序的性能相对串行程序提升了60.71倍,3天(25920计算时间步)预报结果的均方根误差低于0.001,满足海洋数值预报的时效性和精度要求。  相似文献   

7.
提出了一种基于图划分的全基因组并行拼接算法.该算法巧妙地将数据划分问题转化成图划分的问题,解决了传统数据划分算法中存在的节点负载不平衡的问题.同时,算法在建立关系图时有效地利用了WGS测序中所提供reads之间的长度信息和配对信息,使reads关系图能更准确地反映出数据之间的关系特性,从而提高了数据划分的准确性.实验结果表明,该算法可以准确地划分各种模拟数据、真实数据的数据集,相对于传统数据划分算法划分质量有了明显改善.  相似文献   

8.
石威  方滨兴  胡铭曾 《软件学报》1999,10(9):985-988
大规模并行计算是当前该领域研究的一大热点.由于大多数应用问题是数据并行问题,所以人们更多地采用数据并行计算方法来解决实际问题.在数据并行计算中,影响计算速度的一个重要因素是数据的划分状况.该文针对一种较为流行的面向对象数据并行语言——pC++的数据划分算法进行了分析,并指出了其不足之处,同时提出了一种改进的数据划分算法.实验表明,此算法与原有算法相比具有明显的优越性.  相似文献   

9.
介绍了一个已经投入试运行的PDA校表系统.并针对该系统中任务划分效率低的现状,提出了一种新的区域划分算法.与传统的聚类划分算法相比,它具有时间复杂度低和灵活性高的优点.结合实际的可操作性引入了GPS全球定位技术,并将有限元分析和Bresenham画圆算法也加入到该算法中.最后通过VC实现了算法的仿真,仿真结果非常直观地证明了该算法的性能.统计和分析杭州计量所实际运行结果证明,加入该算法的PDA校表系统具有更高的效率.  相似文献   

10.
划分是把程序中不同的计算和数据分配到并行处理系统的不同处理机来充分利用并行系统的计算资源、提高程序处理速度的一种优化技术.划分的效果对程序在并行系统上的执行效率将产生至关重要的影响,因此划分问题一直是并行领域研究的一个热点.但是应用程序的一些特性,如非紧密嵌套循环、一条语句对非只读数组的多次引用间存在重叠、不同语句对同一数组不同步长的引用,给有效解决划分问题设置了极大的障碍.已有的划分算法无法对具有这些特征的程序进行自动划分.虽然在对具有这些特征的程序进行手工优化过程中,存在一些直观上的划分策略,但这些策略无法应用到编译器中来指导编译器完成对程序的自动划分.文中根据这类程序的特点,提出了一种基于代表元的划分算法.该算法通过使用程序中对划分计算产生实际影响的数组引用作为代表元素构造各种划分的限制条件,完成程序的划分.同时通过寻找最大一致性数据划分方向有效减少了程序划分过程中的数据重组织通信.该算法已经在AFT2004中实现,并对应用程序获得了很好的效果.  相似文献   

11.
新一代数值预报模式GRAPES的并行计算方案设计与实现   总被引:3,自引:0,他引:3  
GRAPES(global and regional assimilation and prediction system)是由中国气象科学研究院灾害天气国家重点实验室自主研究开发的中国新一代数值天气预报系统,其目标是科研/业务通用.为了实现这一目标,结合高性能计算机的体系结构设计并实现模式的并行计算是必不可少的.作为核心开发技术之一,GRAPES系统设计并实现了模式的并行计算方案,包括中尺度有限区模式的并行计算和全球模式并行计算.GRAPES模式并行计算版本在IBM-Clusterl600上的测试表明,GRAPES模式的并行计算程序正确、稳定、有效,为其业务化之路奠定了基础,同时也为系统未来的可持续开发、优化创造了条件.  相似文献   

12.
To mine association rules efficiently, we have developed a new parallel mining algorithm FPM on a distributed share-nothing parallel system in which data are partitioned across the processors. FPM is an enhancement of the FDM algorithm, which we previously proposed for distributed mining of association rules (Cheung et al., 1996). FPM requires fewer rounds of message exchanges than FDM and, hence, has a better response time in a parallel environment. The algorithm has been experimentally found to outperform CD, a representative parallel algorithm for the same goal (Agrawal and Srikant, 1994). The efficiency of FPM is attributed to the incorporation of two powerful candidate sets pruning techniques: distributed and global prunings. The two techniques are sensitive to two data distribution characteristics, data skewness, and workload balance. Metrics based on entropy are proposed for these two characteristics. The prunings are very effective when both the skewness and balance are high. In order to increase the efficiency of FPM, we have developed methods to partition a database so that the resulting partitions have high balance and skewness. Experiments have shown empirically that our partitioning algorithms can achieve these aims very well, in particular, the results are consistently better than a random partitioning. Moreover, the partitioning algorithms incur little overhead. So, using our partitioning algorithms and FPM together, we can mine association rules from a database efficiently  相似文献   

13.
Orientation workspace analysis is a critical issue in the design of robot manipulators, especially the spherical manipulators. However, there is a lack of effective methods for such analysis, because the orientation workspace of a robot manipulator is normally a subset of SO(3) (the special orthogonal group) with a complex boundary. Numerical approaches appear more practical in actual implementations. For numerical analysis, a finite partition of the orientation workspace in its parametric domain is necessary. It has been realized that the exponential coordinates parameterization is more appropriate for finite partition. With such a parameterization, the rigid body rotation group, i.e., SO(3), can be mapped to a solid sphere D/sup 3/ of radius /spl pi/ with antipodal points identified. A novel partition scheme is proposed to geometrically divide the parametric domain, i.e., the solid sphere D/sup 3/ of radius /spl pi/, into finite elements with equal volume. Subsequently, the volume of SO(3) can be numerically computed as a weighted volume sum of the equivolumetric elements, in which the weightages are the element-associated integration measures. In this way, we can simplify the partition scheme and also reduce the computation efforts, as the elements in the same partition layer (along the radial direction) have the same integration measure. The effectiveness of the partition scheme is demonstrated through analysis of the orientation workspace of a three-degree-of-freedom spherical parallel manipulator. Numerical convergence on various orientation workspace measures, such as the workspace volume and the global condition index, are obtained based on this partition scheme.  相似文献   

14.
针对高速网络环境下分布式入侵检测中海量数据并行检测处理的效率和检测率问题,提出一种基于能力与负载的数据分割算法。该算法依据采集到的集群内各数据分析节点的系统性能指标及运行状态,评估节点的数据处理能力与负载程度。基于节点的能力与负载适应因子,权衡节点在集群中检测和分析数据能力的权重,实现海量数据在集群内各数据分析节点间的动态数据分割,为节点分配适应其能力与实时负载的数据粒度。仿真测试结果表明,该算法具有较好的负载均衡性,降低了系统的检测时间,提高了数据并行处理的效率和检测率。  相似文献   

15.
将颅面模型数据分区问题转换为一种模式分类问题,给出了一种网格模型上多尺度的特征处理方法,提出了一种基于核方法的支持向量数据域描述(SVDD)数据分区方法。实验证明,该分区方法能快速、有效地对颅面模型的特征区域进行精确合理的分区,且能够适用于有复杂轮廓与形状的特征区域。  相似文献   

16.
Computing the aspect graph for line drawings of polyhedral objects   总被引:2,自引:0,他引:2  
An algorithm for computing the aspect graph for polyhedral objects is described. The aspects graph is a representation of three-dimensional objects by a set of two-dimensional views. The set of viewpoints on the Gaussian sphere is partitioned into regions such that in each region the qualitative structure of the line drawing remains the same. At the boundaries between adjacent regions are the accidental viewpoints where the structure for the line drawing changes. It is shown that for polyhedral objects there are two fundamental visual events: (1) the projections of an edge and a vertex coincide; and (2) the projections of three nonadjacent edges intersect at a point. The geometry of the object is reflected in the locus of the accidental viewpoints. The algorithm computes the partition together with a representative view for each region of the partition  相似文献   

17.
王晓锋  毛力 《计算机工程》2011,37(23):83-85
要提高并行网络模拟性能,需对网络模拟拓扑进行有效划分。为此,提出一种并行网络模拟拓扑的优化划分方法。分析影响并行网络模拟性能因素,给出并行网络模拟性能估计模型,以该模型为评价函数,采用遗传算法寻找优化划分,实现并行网络模拟拓扑的优化划分。在PDNS上的实验结果表明,与传统划分方法相比,该优化划分方法的并行模拟性能平均提高13.3%。  相似文献   

18.
为解决传统任务划分方法在三维网格并行计算任务分配阶段产生的通信开销大的问题,提出了一种基于多层k路划分算法的并行任务分配策略.首先利用多层k路划分算法划分三维网格,将任务划分问题转化为图划分问题,然后基于图划分结果给出一个任务映射并行算法将计算任务分配到各计算结点.在深腾1800上求解三维网格模型最短路径问题的实验结果表明,相比于传统的行列划分任务分配策略,该策略在保证负裁平衡的同时有效地降低了通信开销,算法的运行时间减少,加速比得到提高.  相似文献   

19.
In this paper, we present parallel multilevel algorithms for the hypergraph partitioning problem. In particular, we describe for parallel coarsening, parallel greedy k-way refinement and parallel multi-phase refinement. Using an asymptotic theoretical performance model, we derive the isoefficiency function for our algorithms and hence show that they are technically scalable when the maximum vertex and hyperedge degrees are small. We conduct experiments on hypergraphs from six different application domains to investigate the empirical scalability of our algorithms both in terms of runtime and partition quality. Our findings confirm that the quality of partition produced by our algorithms is stable as the number of processors is increased while being competitive with those produced by a state-of-the-art serial multilevel partitioning tool. We also validate our theoretical performance model through an isoefficiency study. Finally, we evaluate the impact of introducing parallel multi-phase refinement into our parallel multilevel algorithm in terms of the trade off between improved partition quality and higher runtime cost.  相似文献   

20.
基于空间分割的数据简化和分类   总被引:1,自引:1,他引:1  
数据简化的目的是简化数据集并保留有用的分类结构 .本文提出一个基于空间分隔的数据简化和分类算法 ,该算法将常规数据库的记录映射到多维空间上 ,从而将数据简化过程转变成在多维空间中同类数据的空间合并问题 ,也就是多维空间中不同类数据的空间分隔问题 ,最终得到一系列分隔空间 ,达到数据简化和分类的作用 .该方法用现实世界的 7个数据集进行评估 ,并与 C4.5所获得的结果进行比较 ,效果是显著的 ,并且结果唯一  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号