排序方式: 共有43条查询结果,搜索用时 15 毫秒
1.
由于超强的计算能力、高速访存带宽、支持大规模数据级并行程序设计等特点,GPU已经成为超级计算机和高性能计算(HPC)集群的主流加速器。随着处理单元的发展和集群节点的拓展,GPU集群不仅在节点层面呈现异构化,节点内也趋于异构化,大大提高了在GPU集群中编程的复杂度。主流GPU异构集群系统大多采用针对GPU的异构计算编程模型与面向分布式内存的消息传递模型的简单结合方式,这种方式使得GPU集群程序设计缺乏确定的准则,往往是低效而且易错的。为了提高在GPU集群中编程的效率,降低编程复杂度,以及实现平台无关性,提出一套异构GPU集群的并行分布式编程的解决方案。该方案通过采用扩展语言方法提出了编程框架DISPAR,并实现了预处理器系统StreamCC。实验证明了其可行性。 相似文献
2.
2维条码目前已广泛应用于各个领域,2维条码的编码过程中有一个重要步骤称为掩模调制,其目的是为了限制生成图像各区域的平均灰度,以提高码字的易印制、易识别能力。但现有的掩模方法大多基于感性,掩模模式有限并缺乏规范的方法支持及客观的评估手段,难以在各种应用条件下取得最佳效果。本文的研究目的是对能够对2维条码的掩模进行一种客观的数学上的评估。本文结合作者自行提出的一种可承载不确定容量信息的连续型2维条码,从统计分布模型角度对掩模技术进行研究,通过一种归于正态分布的数学评估模型,最终引导出一种比传统方法更为客观、规范、可最优化的掩模方法,该技术还可以应用于QR码等2维编码规则中。 相似文献
3.
SpMT WaveCache:开发数据流计算机中的推测多线程 总被引:1,自引:0,他引:1
推测多线程技术(Speculative Multithreading,SpMT)是通过推测地执行多个线程来开发线程级并行性,提高超标量处理器性能.通过增加额外的硬件单元,比如线程同步单元(Thread Synchronization Unit,TSU)、线程上下文表(Thread Context Table,TCT)和线程内存历史表(Thread Memory History,TMH),扩展了事务性内存系统,提高了基于波标量指令集系统结构(WaveScalar ISA)实现的WaveCache模拟器的性能.同时,还提出了一种新的两级线程级事务提交机制.最后,采用了6个来自SPEC、Media和Mibench测试程序集的真实测试程序.评估了推测多线程WaveCache(SpMT WaveCaehe)的性能.实验表明,SpMT WaveCache比超标量系统结构提高了2~3倍的性能,是一种有效的开发动态数据流计算机性能的方法. 相似文献
4.
体绘制技术因其卓越的图象质量而被广泛应用,尤其是在医学方面.然而传统的体绘制技术(如光线跟踪法)因计算量大、绘制时间长等不足,限制了其在PC机上的应用.本文立足于目前标准的PC硬件平台和OpenGL1.1标准,在不显著降低图象质量的前提下,采用2D纹理映射技术来提高图象的绘制速度,将大量的三次线性插值运算转换为二次线性插值运算,并充分利用PC硬件的2D纹理映能力来加速绘制速度.实验结果表明,2D纹理映方法明显提高了图象的绘制速度,并具有较好的图象质量.随着PC硬件的发展,为提高体绘制速度和改善图象质量提供了更广阔的空间. 相似文献
5.
嵌入式系统软硬件协同设计中的快速样机平台 总被引:5,自引:2,他引:5
提出一种嵌入式系统软硬件协同设计的快速样机平台设计方案,该方案使用系统级可编程芯片和处理机软核技术来构成快速样机平台所需的FPGA阵列和规模可调的处理机,以此实现软硬件的更紧密灵活的耦合和更小的通信延迟.可重构逻辑的应用使得该快速样机平台具有简单规整的结构,一方面使得快速样机平台之间的扩展连接更为容易,另一方面使得FPGA芯片中的逻辑资源能得到更充分利用. 相似文献
6.
7.
文本分类是研究文本数据挖掘、信息检索的重要手段,文本特征项权重值的计算是文本分类算法的关键。针对经典的特征权重计算方法TF-IDF中存在的不足,提出了一种动态自适应特征权重计算方法(DATW)。该算法不仅考虑了特征项在文本中出现的频率及该特征项所属文本在训练集中的数量,而且通过考查特征项的分散度和特征向量梯度差以自适应动态文本的分类。实验结果表明,采用DATW方法计算特征权重可以有效提高文本分类的性能。 相似文献
8.
嵌入式系统在资源争用条件下的软硬件划分 总被引:2,自引:1,他引:1
以一种具有时间约束的数据流图DFG的可调度性分析为基础,提出一种软硬件划分算法.该算法将由共享资源争用引起的性能影响考虑在内,使得软硬件划分能依据更为精确的性能分析结果,由此将缩小软硬件划分中性能估计同实际运行状况之间的差异,提高划分的合理性,也使得目标系统的性能获得更可靠的保证. 相似文献
9.
基于异构GPU集群的主流编程方法是MPI与CUDA的混合编程或者其简单变形。因为对底层的集群架构不透明,程序员对GPU集群采用MPI与CUDA编写应用程序时需要人为考虑硬件计算资源,复杂度高、可移植性差。为此,基于数据流模型设计和实现面向节点异构GPU集群体系结构的新型编程框架分布式并行编程框架(DISPAR)。 DISPAR框架包含2个子系统:(1)代码转换系统StreamCC,是DISPAR源代码到MPI+CUDA代码的自动转换器。(2)任务分配系统StreamMAP,具有自动发现异构计算资源和任务自动映射功能的运行时系统。实验结果表明,该框架有效简化了GPU集群应用程序的编写,可高效地利用异构GPU集群的计算资源,且程序不依赖于硬件平台,可移植性较好。 相似文献
10.
当前GPU集群的主流编程模型是MPI与CUDA的松散耦合,采用这种编程模型进行编程,存在编程复杂度大、程序的可移植性差、执行效率低等问题。为此,提出一种面向通用计算GPU集群的任务自动分配系统StreamMAP。对编译器进行改造,以编译制导的方式提供集群任务的计算资源需求,通过运行时系统动态地发现、建立并维护系统资源拓扑,设计一种较为契合GPU集群应用特征的任务分配策略。实验结果表明,StreamMAP系统能降低集群应用程序的编程复杂度,使之较为高效地利用GPU集群的计算资源,且程序的可移植性和可扩展性也得到了保证。 相似文献