首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 100 毫秒
1.
王婕  傅华明 《电子技术》2010,47(4):12-14
三维地形是自然环境模拟中不可缺少的重要组成部分,具有广泛的应用价值。本文采用DXF格式文件提取CAD图形中等高线元素,通过建立网格索引实现了DTM数据的高效组织和管理,在VS2005开发环境下,提出按网格轮流取点的策略,减少了搜索时间。实验采用重庆某山区的真实等高线数据运用该算法模拟地形。结果表明,此算法保留了等高线所包含的丰富的地形特征,较好地实现了三维真实感地形重建。  相似文献   

2.
贾新宇  陆志一 《信息技术》2006,30(7):145-146
在GIS基础数据的采集过程中,地理信息数据总量非常大,是海量数据,这就要求我们在数据处理的初级阶段采取合理有效的手段控制数据质量。针对这种情况,需要对数据进行圆滑或抽稀处理,这里介绍了对自动生成的等高线进行圆滑和抽稀处理的一种算法。  相似文献   

3.
鞠标  朱洪涛 《激光与红外》2017,47(8):957-962
在利用激光无接触技术进行轨道检测时,为了彻底摆脱激光摄像式传感器对称安装的束缚,本文在大量调研国内外线结构光视觉系统标定方法的基础上,提出一种基于共面法的视觉系统结构参数的标定方法—等高线标定法。在量块上表面提取140个数据点,先对数据进行坐标变换,再利用Levenberg-Marquardt优化算法进行非线性迭代使所有点处于同一等高线上。该方法操作简单,对设备要求低,标定试验数据表明等高线标定法重复性达0.00133°,检定试验数据表明视觉系统在等高线法标定线结构光平面的基础上检测精度可达7.7 μm。其高精度性和便捷性符合铁道部门对轨道检测的要求。  相似文献   

4.
由于露天矿边坡具有地形复杂、高低起伏等特点,针对传统边坡可视化的研究方法存在一定的局限性问题,在此提出基于BP神经网络的露天矿边坡三维可视化研究算法。将露天矿边坡进行三维可视化,剥离等高线并进行赋值。利用BP神经网络,建立等高线预测模型,生成栅格DEM矩阵,实现可视化建模。实验结果表明,该算法模型解决了边坡复杂性问题,克服了传统可视化方法局限性,真实准确地模拟了现实中边坡的多样性,验证了该方法的有效性。  相似文献   

5.
等高线是地形图中最主要的地貌要素,本文首先介绍了等高线的基本知识,然后总结了在地形图出版编辑中等高线的编辑要求,最后归纳了等高线与其它地图要素之间的关系处理原则。  相似文献   

6.
米波天线的波长较长,在天线俯仰面孔径受限的场合,多波束测高等常规方法无法应用,不能实现高度测量。文章研究分析了利用海面多径信号测高的原理及算法,并经过仿真试验对探测空域进行了测高精度分析,最后给出了雷达测高概率和精度等高线分布。试验结果证明了该算法的有效性。  相似文献   

7.
文章首先介绍了一种基于快速定点的盲分离算法,该算法可以对来自不同方向上的统计独立信号进行有效的分离,并且不需要预先知道信号的方向和阵列的结构流形,因此该算法被称为盲分离算法。该算法不仅有传统的波束形成的优点,即在有用信号方向形成主波束,并且还能够在干扰方向形成很好的零点,所以该算法是波束形成技术和零点形成技术的结合,可大大提高信干比。在盲分离的基础上,文章提出了一种高分辨。测向算法,该算法在高信噪比的情况下,具有与MUSIC、ESPRIT和最大似然算法相似的分辨率,而在低信噪比的情况下,体现了该算法的优越性,具有很好的分辨率。  相似文献   

8.
主要分析了利用民航飞机散射信号的多普勒频移定位地面干扰源的2种定位算法。第1种算法通过零误差等高线相交来进行定位,第2种算法通过比对理论和实际的时频曲线最大互相关值进行定位。对这2种定位算法的优缺点进行了分析,理论仿真和实际测试结果表明,2种定位算法的误差较小,均能较好地完成定位工作。因此,通过民航飞机的散射信号来定位地面干扰源是完全可行的。  相似文献   

9.
田硕  陈名松 《信息技术》2023,(10):33-38
波束形成技术已被广泛应用于通信领域,但传统的波束形成算法的收敛速度仍然有待于提高。文中旨在针对现有波束形成算法收敛速度慢和稳态误差较大的现状,提出了改进波束形成算法,旨在减小稳态误差的同时提高算法的收敛速度。通过理论分析和仿真表明,文中所提出的算法提升了收敛速度并降低了稳态误差。文中首先对所提出的改进算法进行理论分析,并在此基础上将所提出的算法构建在FPGA平台上,进一步论证了文中算法的可行性。  相似文献   

10.
介绍了一种基于快速定点的盲分离算法,该算法可以对来自不同方向上的统计独立信号进行有效的分离,并且不需要预先知道信号的测向和阵列的结构流形,因此该算法称为盲分离算法。另外该算法不仅有传统的波束形成的优点,即在有用信号方向形成主波束,并且还能够在干扰方向形成很好的零点,所以该算法是波束形成技术和零点形成技术的结合,可大大提高信干比,另外该算法还有收敛快的特点,对于每一个信号大约迭代10次后就可以收敛。  相似文献   

11.
12.
The implementation of a FIR filter using a new hybrid RNS-binary arithmetic is presented for the first time. In the new arithmetic, the data samples are represented using RNS, and hence the carry free advantage of RNS computations is retained. However, the computation performed for each modulo is implemented using conventional binary arithmetic elements which overcome the drawback of ROM-based RNS arithmetic elements that become inefficient for large moduli. The conventional binary arithmetic elements are also faster and require less area than existing memoryless RNS arithmetic elements. It is shown that the filter structures based on the new arithmetic have better performance than those based on either the conventional binary or conventional RNS arithmetic for large moduli.  相似文献   

13.
We propose an edge-based segmentation algorithm built on a new type of active contour which is fast, has a low computational complexity and does not introduce unwanted smoothing on the retrieved contours. The contours are always returned as closed chains of points, resulting in a very useful base for subsequent shape representation techniques.  相似文献   

14.
This paper presents a new general framework for contour tracking based on the synergy of two powerful segmentation tools, namely, spatial temporal conditional random fields (CRFs) and geodesic active contours (GACs). The contours of targets are modeled using a level set representation. The evolution of the level sets toward the target contours is formulated as one of the joint region-based (CRF) and boundary-based (GAC) segmentations under a unified Bayesian framework. A variational inference technique is used to solve this otherwise intractable inference problem, leading to approximate MAP solutions of both the new 3D spatial temporal CRF and the GAC model. The tracking result of the previous frame is used to initialize the curve in the current frame. Typical contour tracking problems are considered and experimental results are given to illustrate the robustness of the method against noise and its accurate performance in moving objects boundary localization.  相似文献   

15.
介绍了用离散隐马尔可夫模型(DHMM)构造孤立词语音识别系统中的特征向量矢量量化的码书构造过程。以往的矢量量化通常采用基本算法LBG,在此基础上,引入了一种时间复杂性和空间复杂性有所降低的改进算法。该算法的核心是自适应地生成初始码书以及对初始码书的二次构造过程。从降低时间复杂度和节省存储空间,提高识别率的角度,对该算法进行了讨论。  相似文献   

16.
用于人脸识别系统的一种新PCA算法   总被引:3,自引:1,他引:2  
在人脸识别系统设计中引入了一种新的基于加权主分量分析的人脸算法,该算法利用加权主分量分析的原理,将特征加权和主分量分析相结合,构造了一个新的3个中心的高斯分布函数作为加权函数对人脸各维特征进行加权,从而利用主分量分析的方法进行人脸识别.实验证明,该方法与已有的WPCA算法相比,具有更高的识别率.  相似文献   

17.
属性最小约简的增量式算法   总被引:33,自引:0,他引:33  
刘宗田 《电子学报》1999,27(11):96-98
知识约简是KDD(数据库中的知识发现)中的重要步骤,在粗糙集合理论中,对属性约简原理和方法有专门的论述,许多学者对约简长法进行研究,但是,这些研究几乎都是针对静态数据的,而数据库是动态的,本文提出了当增加数据库记录后,如何在已有最小性的约简族集的基础上求解新的最小属性约简簇集的算法ASRAI,证明了算法的正确和分析了它的时间复杂性,然后又提出了这个算法的改进算法IASRAI。  相似文献   

18.
介绍了一种新型的氧含量检测设备及其程序设计,描述了该设备中使用的监控程度设计算法,该算法吸收并改进了多种流行的监控程序编写算法,实践表明,该算法用于复杂菜单设计是可节约编程时间,减少存储空间的占用。  相似文献   

19.
该文提出了一种新的多运动目标精确外轮廓自动提取算法。算法的主要创新点是:采用指数滤波计算彩色图像的梯度强度,改善了彩色图像梯度局部极值点的定位精度,所得到的梯度强度和运动边缘位置信息供随后的轮廓迭代中使用,成功地避免了动态轮廓的过收缩。此外,充分利用轮廓的方向信息,又有效地克服了动态轮廓迭代中的外扩展。从而,算法自动地提取出一个真正紧贴的目标外轮廓。分析和实验表明,该算法抗干扰能力强,对复杂背景及不重叠物体,可以精确定位并提取出各个运动目标的外轮廓。  相似文献   

20.
In this paper, we propose a new approach for block-based lossless image compression by defining a new semiparametric finite mixture model-based adaptive arithmetic coding. Conventional adaptive arithmetic encoders start encoding a sequence of symbols with a uniform distribution, and they update the frequency of each symbol by incrementing its count after it has been encoded. When encoding an image row by row or block by block, conventional adaptive arithmetic encoders provide the same compression results. In addition, images are normally non-stationary signals, which means that different areas in an image have different probability distributions, so conventional adaptive arithmetic encoders which provide probabilities for the whole image are not very efficient. In the proposed compression scheme, an image is divided into non-overlapping blocks of pixels, which are separately encoded with an appropriate statistical model. Hence, instead of starting to encode each block with a uniform distribution, we propose to start with a probability distribution which is modeled by a semiparametric mixture obtained from the distributions of its neighboring blocks. The semiparametric model parameters are estimated through maximum likelihood using the expectation–maximization algorithm in order to maximize the arithmetic coding efficiency. The results of comparative experiments show that we provide significant improvements over conventional adaptive arithmetic encoders and the state-of-the-art lossless image compression standards.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号