首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
盖孟  赖舜男  李胜 《软件学报》2016,27(10):2654-2660
本文提出了一种基于特征的离散网格模型表示方法,能够表达传统三维网格模型中缺失的高层次信息,并以模型编辑为例显示了其应用价值.该特征结构利用特征线、特征面、特征组来建立离散网格的特征结构,用于描述模型的形状、约束、语义等信息,在原有网格模型的基础上构建了一个“超网格”.通过构建特征间的拓扑关系和约束关系,模型在编辑过程中能够保持特定的形状、结构属性,同时由于编辑操作造成的网格修改被限定在局部的特征区域内,从而提高了模型编辑的运算效率.  相似文献   

2.
高光线是检测自由曲面质量的有效工具.它提供一种直观且便利的手段,在交互设计中提高自由曲面质量.文中提出了在任意三角形网格曲面上生成高光线模型的一种方法.基于该高光线模型,文中给出了一种消除三角形网格上的局部不规则区域的方法.该方法通过求解一个目标函数,并迭代地移动网格顶点位置,来获得修改后的新网格.利用该方法能够同时优化三角形网格表面形状以及网格上的高光线形状.该方法直观易用,适合于三角形网格的局部形状优化.  相似文献   

3.
特征造型技术是新一代CAD系统的关键技术,是产品模型技术的核心。该文讨论了以细胞元模型为基础的语义特征造型技术。在语义特征造型中用特征依赖图(FDG)的数据模型来保存和维护设计中的各种特征信息及其之间的关系,在此基础上分析了依据特征依赖图中特征间的关系动态修改特征优先级的方法,确保了模型修改的有效性。最后给出了一个实例。  相似文献   

4.
基于本体的网格资源匹配算法研究   总被引:1,自引:0,他引:1  
由于网格动态异构等特点,传统的基于资源属性的精确匹配方法不够灵活,并且扩展性差。近年采,本体论引入到网格计算中,试图在语义层次上采用通用可扩展的信息系统建模工具,使得网格资源分配系统能够高效和精确地检索网格资源信息。通常采用的技术是建立和维护一个集中和一致的网格资源本体。这种集中的本体不适合具有分布式特性的P2P网格资源匹配。针对P2P网格,本文提出了一种基于分布式网格本体的P2P网格资源匹配模型。在该模型中,全局本体由各个节点的独立的本地网格资源本体构成。网格资源匹配操作完全分布式地由节点自主控制。这种方法可扩展性强,更适合p2p网格的资源匹配。  相似文献   

5.
基于网格环境的动态自适应信任机制研究   总被引:2,自引:1,他引:1  
为了满足网格系统的异构、动态、开放等特性,提出了一种动态自适应的网格信任模型,在该模型中节点是独立自主的,相对于传统信任模型更加适合在网格环境下运行,系统的节点加入更加自由,降低了节点负担和网络阻塞.并将信任度划分为提供服务和使用服务的两种形式,同时在模型中引入了修正因子和上下文环境对节点进行评估和反馈,避免了恶意节点利用高信誉值进行欺骗行为的发生.模拟实验表明该模型节点交易成功率有了很大的提高.  相似文献   

6.
针对STL网格模型曲面特征边识别困难的问题,提出一种基于边和面的特征边提取方法。首先遍历网格模型,自适应地获取二面角阈值并根据该阈值识别显性特征边;然后利用最小二乘法估算曲面上顶点的平均曲率,由此计算出三角形面片的近似曲率,并利用相邻三角形的曲率差值来判别其公共的隐性特征边是否为特征边,最后采用改进的断点处特征边提取算法形成完整的特征边界。实验结果表明该方法能够有效地提取STL网格模型曲面网格的特征边,具有很好的鲁棒性。  相似文献   

7.
动态的网格环境赋予了网格工作流新的特征。从而进一步增加了工作流程的不确定性和复杂性.提出了Norm驱动的网格工作流状态机模型——GridWSM,利用Norm丰富的语义表达能力和适于描述复杂系统的特征来描述网格工作流系统中任务的动态调度,并利用其推理功能来完善Norm描述、检验Norm的语义冲突,不仅确保了Norm描述的完备性,而且反映了工作流程的实时变化,为系统仿真提供了理论基础.模型的原型系统NormTools验证了网格排序流程的Norm描述,检查出所有的错误.  相似文献   

8.
为了满足网格系统的异卡勾、动态、开放等特性,提出了一种动态自适应的网格信任模型,在该模型中节点是独立自主的,相对于传统信任模型更加适合在网格环境下运行,系统的节点加入更加自由,降低了节点负担和网络阻塞。并将信任度划分为提供服务和使用服务的两种形式,同时在模型中引入了修正因子和上下文环境对节点进行评估和反馈,避免了恶意节点利用高信誉值进行欺骗行为的发生。模拟实验表明该模型节点交易成功率有了很大的提高。  相似文献   

9.
作为下一代网络新架构,语义网格凭借其强大的语义分析能力及集合网格技术的特征,正逐步被人们认可和接受.尽管网格注册为发布、发现资源提供了用于存储和访问元数据的一些机制,如,元数据目录服务MDS,但是要将其扩展到语义网格上处理资源,这种注册机制还不够完善.因此将Web服务和元数据目录服务引入语义网格的资源管理的信息服务模型中,提出一个语义网格注册信息服务模型.定义该模型的信息模型和语义模型,以此得出语义推理结论,并给出具体的执行过程.  相似文献   

10.
袁占亭  张秋余  李丹  张博 《计算机工程与设计》2007,28(21):5206-5209,5213
目前对垃圾邮件问题的大部分解决方法仍受到互联网自身特性的限制,而且在较大范围内邮件过滤的准确率也不能满足人们的要求.因此从语义网格的角度出发,利用语义网格的语义分析能力强且具有网格优势等特点来解决垃圾邮件问题.提出反垃圾邮件语义网格的概念,并详细阐述了反垃圾邮件语义网格系统的基本思想、体系结构以及支撑技术;利用OptorSim网格模拟器对系统进行测试;对系统中一些关键问题进行讨论.  相似文献   

11.
Finite element analysis is nowadays widely used for product testing. At various moments during the design phase, aspects of the physical behaviour of the product are simulated by performing an analysis of the model. For each analysis, a mesh needs to be created that represents the geometry of the model at that point. In particular during the later stages of the development cycle, often only minor modifications are made to a model between design iterations. In that case it can be beneficial to reuse part of the previous mesh, especially if it was costly to construct. A new method is presented that efficiently constructs a tetrahedral mesh based on a tetrahedral mesh of a feature model at an earlier point of the design cycle. This is done by analysing the difference of the two feature models from the point of view of the individual features. By this means we can find a natural correspondence between the geometries of the feature models, and relate this to the mesh of the earlier model. We discuss the algorithm, gained improvements, quality of the results, and conditions for this method to be effective.  相似文献   

12.
This paper describes the development of a prototype system using fuzzy logic concept for constructing a feature human model, which is to be stored in a 3D digital human model database. In our approach, the feature human model is constructed by unorganized cloud points obtained from 3D laser scanners. Firstly, noisy points are removed, and the orientation of the human model is adjusted; secondly, a feature based mesh generation algorithm is applied on the cloud points to construct the mesh surface of a human model; lastly, semantic features of the human model are extracted from the mesh surface. Compared with earlier approach, our method strongly preserves the topology of a human model; more details can be constructed; and both the robustness and the efficiency of the algorithm are improved. At the end of the paper, in order to demonstrate the functionality of feature human models, potential applications are given.  相似文献   

13.
Attribute reduction in decision-theoretic rough set models   总被引:6,自引:0,他引:6  
Yiyu Yao 《Information Sciences》2008,178(17):3356-3373
Rough set theory can be applied to rule induction. There are two different types of classification rules, positive and boundary rules, leading to different decisions and consequences. They can be distinguished not only from the syntax measures such as confidence, coverage and generality, but also the semantic measures such as decision-monotocity, cost and risk. The classification rules can be evaluated locally for each individual rule, or globally for a set of rules. Both the two types of classification rules can be generated from, and interpreted by, a decision-theoretic model, which is a probabilistic extension of the Pawlak rough set model.As an important concept of rough set theory, an attribute reduct is a subset of attributes that are jointly sufficient and individually necessary for preserving a particular property of the given information table. This paper addresses attribute reduction in decision-theoretic rough set models regarding different classification properties, such as: decision-monotocity, confidence, coverage, generality and cost. It is important to note that many of these properties can be truthfully reflected by a single measure γ in the Pawlak rough set model. On the other hand, they need to be considered separately in probabilistic models. A straightforward extension of the γ measure is unable to evaluate these properties. This study provides a new insight into the problem of attribute reduction.  相似文献   

14.
目的 随着高光谱成像技术的飞速发展,高光谱数据的应用越来越广泛,各场景高光谱图像的应用对高精度详细标注的需求也越来越旺盛。现有高光谱分类模型的发展大多集中于有监督学习,大多数方法都在单个高光谱数据立方中进行训练和评估。由于不同高光谱数据采集场景不同且地物类别不一致,已训练好的模型并不能直接迁移至新的数据集得到可靠标注,这也限制了高光谱图像分类模型的进一步发展。本文提出跨数据集对高光谱分类模型进行训练和评估的模式。方法 受零样本学习的启发,本文引入高光谱类别标签的语义信息,拟通过将不同数据集的原始数据及标签信息分别映射至同一特征空间以建立已知类别和未知类别的关联,再通过将训练数据集的两部分特征映射至统一的嵌入空间学习高光谱图像视觉特征和类别标签语义特征的对应关系,即可将该对应关系应用于测试数据集进行标签推理。结果 实验在一对同传感器采集的数据集上完成,比较分析了语义—视觉特征映射和视觉—语义特征映射方向,对比了5种基于零样本学习的特征映射方法,在高光谱图像分类任务中实现了对分类模型在不同数据集上的训练和评估。结论 实验结果表明,本文提出的基于零样本学习的高光谱分类模型可以实现跨数据集对分类模型进行训练和评估,在高光谱图像分类任务中具有一定的发展潜力。  相似文献   

15.
现有的基于局部微分属性度量的网格模型特征线提取方法较难描述模型全局语义特征。为解决该问题,提出一种基于显著性分析的、符合人类视觉注意力机制的语义特征线提取算法。首先以谱图理论为工具,构建网格模型光顺三维基准面,获取网格顶点显著性重要度;利用离散拉普拉斯—贝尔特拉米算子方向属性构建网格语义特征区域,提取特征区域骨骼线,对骨骼线进行优化后得到模型语义特征线。该算法完全去除了模型局部微分几何量的度量,提取的特征线能很好地完成全局语义特征描述。实验结果证明了算法的有效性。  相似文献   

16.
为增加向量空间模型的文本语义信息,提出三元组依存关系特征构建方法,将此方法用于文本情感分类任务中。三元组依存关系特征构建方法在得到完整依存解析树的基础上,先依据中文语法特点,制定相应规则对原有完整树进行冗余结点的合并和删除;再将保留的依存树转化为三元组关系并一般化后作为向量空间模型特征项。为了验证此种特征表示方法的有效性,构造出在一元词基础上添加句法特征、简单依存关系特征和词典得分不同组合下的特征向量空间。将三元组依存关系特征向量与构造出的不同组合特征向量分别用于支持向量机和深度信念网络中。结果表明,三元组依存关系文本表示方法在分类精度上均高于其他特征组合表示方法,进一步说明三元组依存关系特征能更充分表达文本语义信息。  相似文献   

17.
针对资源环境系统的开放性、复杂性和易变性特点,将模型表达划分为要素集、关系集和运算集(ERO集合);采用数学公式语义描述关系集,计算组件的迟绑定,实现模型的语义映射。通过与模型类模型实例的模型表达比较说明,模型的数学公式语义表达增强了资源环境模型库管理系统(REMMS)的用户友好性,涵盖了更多的模型关系集,避免了重复构建模型类模块;语义的动态映射实现了模型的关系集和运算集的解耦合,使得模型计算集不依赖关系集,计算实现可被不同模型共享和重组。  相似文献   

18.
为了提高语义特征建模系统中布尔操作的运行效率,提出了一种基于语义表示法的布尔操作算法.该算法用语义表示法表示特征模型,用细胞元模型组织和管理特征元素,用语义面替代几何面来提高特征的交互检测效率,通过细胞分裂和语义面分解来生成新实体.该算法不仅可以快速准确地生成布尔实体,还可以避免几何面的丢失及“孔洞”等错误的发生.实验证明,该算法具有广泛的使用前景和实用价值.  相似文献   

19.
针对现有多文档抽取方法不能很好地利用句子主题信息和语义信息的问题,提出一种融合多信息句子图模型的多文档摘要抽取方法。首先,以句子为节点,构建句子图模型;然后,将基于句子的贝叶斯主题模型和词向量模型得到的句子主题概率分布和句子语义相似度相融合,得到句子最终的相关性,结合主题信息和语义信息作为句子图模型的边权重;最后,借助句子图最小支配集的摘要方法来描述多文档摘要。该方法通过融合多信息的句子图模型,将句子间的主题信息、语义信息和关系信息相结合。实验结果表明,该方法能够有效地改进抽取摘要的综合性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号