首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
针对CCD摄像机高分辨率下CPU进行三维测量计算效率低的问题,提出基于GPU技术的快速计算方法.同时针对三维测量的四个具备并行度的过程,该方法给出了在GPU上可实现的具体算法流程,并根据数据规模及GPU特性,设计了一种新的GPU设备端数据结构组织方式.实验结果表明,该方法有效利用了GPU的大规模并行处理能力,在处理500万像素数据过程中整个测量时间仅需4s左右,计算效率是CPU的160倍.  相似文献   

2.
GPU上的水彩画风格实时渲染及动画绘制   总被引:1,自引:0,他引:1  
论文提出了一种基于GPU的对三维场景进行实时水彩画效果渲染的方法。该方法的大部分过程使用图像空间的技术实现。算法将画面分为细节层、环境层、笔触层分别渲染,再进行合成。在过程中使用环境遮挡、shadow mapping等技术进行快速的阴影计算,并使用图像滤镜的方法模拟水彩的多种主要特征。由于该方法以图像空间的技术为主,因此可以利用GPU并行处理的特点对计算过程进行加速,进而达到实时的渲染速度。最后建立动画脚本分析系统,进行实时动画渲染,表明该方法在计算机动画、游戏等数字娱乐产业领域有较大的应用潜力。  相似文献   

3.
为提高视频抠像处理的速度,提出基于GPU(图形处理器)加速的视频抠像方法,将色度抠像算法转化为GPU中的纹理图像渲染过程,利用GPU并行计算和高速浮点计算特性,使得色度算法在GPU中加速执行,有效的提高了算法计算速度。  相似文献   

4.
针对射电信号观测的需求,设计并实现了一种基于统一计算设备架构(CUDA)和图形显示卡(GPU)的宽带高速频谱分析系统.该系统通过运用库利-图基(Cooley-Tukey)快速傅立叶变换算法与谱分析算法实现实时宽带高速频谱分析.系统的关键部分在于通过CUDA来完成运用线程合并算法对数据在CPU与GPU之间传递时的转换,并使用并行流水算法在总线中共享多核GPU来降低实时运算时间.该系统主要为500m口径射电望远镜工程的高分辨率微波巡视项目而设计,实测中满足目标需求,并可应用在射电信号观测或类似的高速密集数据运算中.  相似文献   

5.
彭博  谌勇  刘东权 《光电工程》2013,(5):97-105
为了提高超声弹性成像计算速度,提出使用GPU硬件加速基于互相关技术和相位零估计的弹性成像技术。先描述这两种弹性成像技术的实现细节及特点,然后分析这两种技术的计算密集操作部分的并行化计算可能性,最后通过GPU程序开发工具ArrayFire实现了基于GPU的互相关和相位零估计的超声弹性成像技术。通过模拟和扫描仿真人体组织的弹性成像体模获得的压缩前后数据帧对基于GPU的超声弹性成像方法进行测试与验证。实验结果表明,基于GPU的方法可以大幅提高弹性图计算速度,在处理单帧弹性图条件下,与基于互相关方法比较,加速比达到42,而基于相位零估计的方法在提高数据吞吐量的情况下加速比可达到65。  相似文献   

6.
针对粒子系统在计算机游戏特效设计过程中所存在的控制精度不高、运算量大等问题,提出了一种通过粒子系统编辑器生成粒子并基于GPU进行实时渲染的方法。使用粒子系统编辑器能有利于提高粒子系统制作的可控性,而基于GPU的仿真绘制则能够提高大规模粒子系统渲染的实时性。实验证明,GPU支持下的可编辑粒子系统能有效提升计算机游戏开发中的特效设计效率并获得理想效果。  相似文献   

7.
依据大气散射的物理原理,提出了一种考虑多重散射的天空光照效果建模与实时绘制方法.该方法首先以太阳和天空光作为光源建立了多重散射的天空光照效果模型,然后综合多种大气粒子密度,采用合理的分段采样策略,对天空颜色模型的积分进行简化,以减少积分近似计算所带来的误差;通过对简化后的模型进行分析提出了采用二维纹理与三维纹理对光学深度预计算的方法,避免了运行时计算光学深度积分的问题;最后该算法在GPU的片段处理器上执行,实现了天空光照效果模型的实时绘制,可以满足各种实时应用需求.  相似文献   

8.
提出一种基于可编程图形处理器(GPU)有效控制烟雾模拟过程的实时算法。对于给定的烟雾当前状态和目标状态,该算法以自然的烟雾流动方式实现状态之间的转换。根据Navier-Stokes方程定义烟雾流体场的物理模型,通过调整方程中的风力项以达到控制目的。风力项由驱动力和聚合力组成,驱动力促使烟朝着目标密度分布运动,聚合力则用于抵消烟的扩散现象。烟雾的速度和密度参量被整合为纹理颜色通道,并传送到像素程序中由GPU完成计算。该算法无需保证两状态之间转移为最优,从而消除了非线性优化所带来的计算成本。实验表明该算法能实时高效地模拟两种烟雾状态之间的转换。  相似文献   

9.
术语解释     
正1、GPU加速:GPU(Graphic Processing Unit)即图形处理器,GPU加速是指利用一个图形处理器(GPU)和一个中央处理器(CPU)来加速应用程序的执行。CPU和GPU在处理任务时截然不同,CPU由专为顺序串行处理而优化的多核组成,而GPU则由专为多任务并行处理而设计的数以千计的更小、更高效的众核组成。  相似文献   

10.
使用图形处理器(GPU)代替传统中央处理器(CPU)作为数值求解硬件,建立基于LABVIEW?MATLAB?GPU的实时子结构试验架构.以土?结相互作用系统为载体,通过数值仿真与试验对该架构的性能进行验证.试验与仿真结果表明,本文方法将实时子结构试验中数值子结构求解自由度提高到27000,提升了数值模型求解规模,拓展了...  相似文献   

11.
3D非均匀直线网格GPU体绘制方法研究   总被引:1,自引:0,他引:1  
计算机图形硬件技术的快速发展可以用来加速可视化过程,为此针对非均匀直线网格,给出了基于均匀辅助网格的CPU光线投射算法、基于辅助纹理的GPU光线投射算法,以及基于切片的3D纹理体绘制算法,并在Nvidia Geforce 6800GT图形卡上对这些算法进行了测试。结果表明,GPU算法远远快于CPU算法,而基于切片的3D纹理体绘制算法则快于GPU光线投射算法。  相似文献   

12.
基于曲率的体绘制十分有用,它可以帮助科学家分析数据特征,设计新的数学模型.论文在GPU上实现了基于B样条滤波和基于线性滤波的按需计算导数、曲率和光照效果的GPU光线投射方法.实验结果表明,按需计算方法大大加速了基于B样条滤波的GPU光线投射方法的绘制速度;线性滤波方法绘制速度快于B样条滤波的方法;基于B样条滤波的方法绘制质量更高;可以利用线性滤波的方法交互选择相机设置、转换函数和曲率函数,突出感兴趣的特征,然后用基于B样条滤波的方法绘制高质量的图像.  相似文献   

13.
从Mandelbrot集分形算法在GPU上的计算速度和绘制效果角度出发,提出了在追求计算速度的单精度算法和追求绘制效果的双精度算法之外的第三种选择--混合精度算法.首先,分析了Mandelbrot集分形算法;其次,对GPU体系结构和CUDA编程模型进行了介绍;再次,在GPU上实现了单、双精度浮点数算法,基于实验结果提出了精度问题;最后,实现了混合精度算法并进行分析.结果显示,GPU上的混合精度优化是计算速度和绘制效果之间的折中,为分形算法的实现提供了新的选择.  相似文献   

14.
简述了模拟水波的原理,使用面向对象方法对水波3D实时模拟系统进行了结构设计,给出了设计模式的结构图,提出了一个可复用的系统框架.详细介绍了使用HLSL对Gerstner水波进行编程的方法,实现了水波实时渲染的模拟并给出了关键的程序代码.最后分析了使用Gerstner波进行水波模拟存在的不足并提出了改进建议.  相似文献   

15.
非真实感图形绘制(Non-PhotorealisticRendering,简称NPR)能够反映三维形体的几何要素和设计风格,适合于CAD系统和卡通等艺术效果的显示绘制。利用现代可编程图形显示硬件技术,提出了一种在图像空间实现轮廓线提取和绘制的算法,并通过对Blinn-Phong光照模型的改进设计了一种适合于NPR绘制的改进光照模型。实验表明运算速度能够满足交互系统的实时性需求。  相似文献   

16.
介绍了一种用于实现复杂场景高品质实时渲染的新算法。已有的研究表明,基于传统几何图元的渲染技术必然涉及到大量的求交与消隐计算,而这正是实现实时绘制的瓶颈所在。利用OpenGL虽然可以实现实时绘制,但这是建立在Z-Buffer技术的基础上,并且将场景尽可能地简化来实现实时绘制的一种基于传统几何图元的绘制技术。这样渲染而得的图像质量很低,很难再现纹理及材质的特殊光照效果。笔者将图像与体图形学技术相结合,研究并实现了基于表面元素(Surface elements,即Surfels)的渲染技术,避免了耗时的求交计算,因此大大提高了复杂几何场景的绘制时间。又因为surfels中包含完整的材质属性和纹理信息,从而确保了在快速重绘时的图像质量。  相似文献   

17.
KD树是三维场景渲染中常用的空间加速算法。由于SIMD计算平台不支持递归操作,导致KD树在GPU上的应用受到限制,因此提出了一个新的基于SIMD架构的并行KD树算法。通过创建时对KD树线索化,不仅省去堆栈使用,且因无需回溯到根节点而减少大量无效遍历操作,实现了基于GPU的高效并行加速。实验结果表明,线索KD树算法每秒计算的光线数与传统算法相比,提高3~8倍不等,最终显著提高光线跟踪渲染速度。  相似文献   

18.
A lattice Boltzmann method (LBM) for solving the shallow water equations (SWEs) and the advection–dispersion equation is developed and implemented on graphics processing unit (GPU)‐based architectures. A generalized lattice Boltzmann equation (GLBE) with a multiple‐relaxation‐time (MRT) collision method is used to simulate shallow water flow. A two‐relaxation‐time (TRT) method with two speed‐of‐sound techniques is used to solve the advection–dispersion equation. The proposed LBM is implemented to an NVIDIA ® Computing Processor in a single GPU workstation. GPU computing is performed using the Jacket GPU engine for MATLAB ® and CUDA. In the numerical examples, the MRT‐LBM model and the TRT‐LBM model are verified and show excellent agreement to exact solutions. The MRT outperforms the single‐relaxation‐time (SRT) collision operator in terms of stability and accuracy when the SRT parameter is close to the stability limit of 0.5. Mass transport with velocity‐dependent dispersion in shallow water flow is simulated by combining the MRT‐LBM model and the TRT‐LBM model. GPU performance with CUDA code shows an order of magnitude higher than MATLAB‐Jacket code. Moreover, the GPU parallel performance increases as the grid size increases. The results indicate the promise of the GPU‐accelerated LBM for modeling mass transport phenomena in shallow water flows. Copyright © 2010 John Wiley & Sons, Ltd.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号