共查询到20条相似文献,搜索用时 859 毫秒
1.
设G是一个图,f是定义在V(G)上的整数值函数,且对坌x∈V(G),有2k≤f(x),设H1,H2,…,Hk是G的k个顶点不相交的子图,且|E(Hi)|=m,1≤i≤k,证明了每个(0,mf-m+1)图有一个(0,f)因子分解正交于Hi(i=1,2,…,k)。 相似文献
2.
设g(x)≤f(x)是定义在V(G)上的两个整数值函数,h(e)∈[0,1]是定义在图G的边集E(G)上的函数。令dGh(x)=移e∈Exh(e),其中Ex={xy:xy∈E(G)}。若对所有的x∈V(G)都有g(x)≤dGh(x)≤f(x)成立,称h是G的一个(g,f)-表示函数。Gh是图G的一个支撑子图使得E(Gh)={e:e∈E(G),h(e)≠0},则称Gh是G的一个分数(g,f)-因子。文章给出,若对V(G)中的任意两个顶点u和v,G-{u,v}有分数k-因子存在。则G有一个分数k-因子不含图G中任意给定的边e∈E(G);当G有分数1-因子F=Gh存在时,对任意e∈F,G-V(e)有分数k-因子存在,则G有分数k-因子。 相似文献
3.
4.
贾佳 《计算机技术与发展》2012,22(6)
基于网格和密度的聚类算法是一类很重要的聚类算法,但由于采用单调性搜索的方法,使得聚类结果并不十分理想,因此文中在GDD算法的基础上,提出了一种基于网格和密度的带有层次因子与距离因子的GDLD算法.GDLD算法将数据空间按要求划分成网格结构并计算网格密度,构建新的跃迁函数以达到形成有效聚类的目的.实验证明,该算法不仅能够发现任意形状的簇,而且使效率得到了很大的提高.同时层次因子既体现了簇的密度水平,也反映了簇密度的变化过程并使得算法参数更容易确定. 相似文献
5.
6.
7.
8.
9.
对于三维模型来说高曲率变化区域、尖角等几何特征是其外部特征的重要体现,因此在简化过程中如何更好地保持这些特征是体现简化算法优劣的重要标准.本文在已有二次误差算法的基础上,综合考虑面片的相邻面的面积与法矢量对该面片附近区域弯曲程度的影响定义了面片的曲率,并根据曲率的大小划分简化过程中各面片的顺序.在简化过程中尽可能地保留对模型几何部特征相关性大的面片,取得了良好的效果. 相似文献
10.
对于三维模型来说高曲率变化区域、尖角等几何特征是其外部特征的重要体现,因此在简化过程中如何更好地保持这些特征是体现简化算法优劣的重要标准。本文在已有二次误差算法的基础上,综合考虑面片的相邻面的面积与法矢量对该面片附近区域弯曲程度的影响定义了面片的曲率,并根据曲率的大小划分简化过程中各面片的顺序。在简化过程中尽可能地保留对模型几何部特征相关性大的面片,取得了良好的效果。 相似文献
11.
12.
13.
14.
讨论了Pal等的广义学习量化算法(GLVQ)和Karayiannis等的模糊学习量化算法(FGLVQ)的优缺点,提出了修正广义学习量化(RGLVQ)算法。该算法的迭代系数有很好的上下界,解决了GLVQ的“Scale”问题,又不像FGLVQ算法对初始学习率敏感。用IRIS数据集对算法进行了测试,并应用所给算法进行了用于图像压缩的量化码书设计。该文算法与FGLVQ类算法性能相当,但少了大量浮点除法,实验过程表明节约训练时间约l0%。 相似文献
15.
16.
学习向量量化(LVQ)和泛化学习向量量化(GLVQ)算法都是采用欧氏距离作为相似性度量函数, 忽视了向量各维属性的数据取值范围,从而不能区分各维属性在分类中的不同作用。针对该问题,使用一种面向特征取值范围的向量相似性度量函数,对GLVQ进行改进,提出了GLVQ-FR算法。使用视频车型分类数据进行改进型GLVQ和LVQ2.1、GLVQ、GRLVQ、GMLVQ等算法的对比实验,结果表明:GLVQ-FR算法在车型分类中具有较高的分类准确性、运算速度和真实生产环境中的可用性。 相似文献
17.
An analysis of the GLVQ algorithm 总被引:6,自引:0,他引:6
Generalized learning vector quantization (GLVQ) has been proposed in as a generalization of the simple competitive learning (SCL) algorithm. The main argument of GLVQ proposal is its superior insensitivity to the initial values of the weights (code vectors). In this paper we show that the distinctive characteristics of the definition of GLVQ disappear outside a small domain of applications. GLVQ becomes identical to SCL when either the number of code vectors grows or the size of the input space is large. Besides that, the behavior of GLVQ is inconsistent for problems defined on very small scale input spaces. The adaptation rules fluctuate between performing descent and ascent searches on the gradient of the distortion function. 相似文献
18.
19.
《IEEE transactions on audio, speech, and language processing》2008,16(8):1396-1408
20.
The utilisation of clustering algorithms based on the optimisation of prototypes in neural networks is demonstrated for unsupervised learning. Stimulated by common clustering methods of this type (learning vector quantisation [LVQ, GLVQ] and K-means) a globally operating algorithm was developed to cope with known shortcomings of existing tools. This algorithm and K-means (for the common methods) were applied to the problem of clustering EEG patterns being pre-processed. It can be shown that the algorithm based on global random optimisation may find an optimal solution repeatedly, whereas K-means provides different sub-optimal solutions with respect to the quality measure defined as objective function. The results are presented. The performance of the algorithms is discussed. 相似文献