首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 62 毫秒
1.
在决策表中,决策规则的可信度和对象覆盖度是衡量决策能力的重要指标。以知识粗糙熵为基础,提出决策熵的概念,并定义其属性重要性;然后以条件属性子集的决策熵来度量其对决策分类的重要性,自顶向下递归构造决策树;最后遍历决策树,简化所获得的决策规则。该方法的优点在于构造决策树及提取规则前不进行属性约简,计算直观,时间复杂度较低。实例分析的结果表明,该方法能获得更为简化有效的决策规则。  相似文献   

2.
基于决策熵的决策树规则提取方法   总被引:2,自引:0,他引:2  
在决策表中,决策规则的可信度和对象覆盖度是衡量决策能力的重要指标。以知识粗糙熵为基础,提出决策熵的概念,并定义其属性重要性;然后以条件属性子集的决策熵来度量其对决策分类的重要性,自顶向下递归构造决策树;最后遍历决策树,简化所获得的决策规则。该方法的优点在于构造决策树及提取规则前不进行属性约简,计算直观,时间复杂度较低。实例分析的结果表明,该方法能获得更为简化有效的决策规则。  相似文献   

3.
基于新的条件熵的决策树规则提取方法   总被引:9,自引:0,他引:9  
分析了知识约简过程中现有信息熵反映决策表“决策能力”的局限性,定义了一种新的条件熵,以弥补现有信息熵的不足;然后对传统启发式方法中选择属性的标准进行改进,由此给出了新的属性重要性定义;以新的属性重要性为启发式信息设计决策树规则提取方法。该方法的优点在于构造决策树及提取决策规则前不进行属性约简,计算直观,时间复杂度较低。应用实例分析的结果表明,该方法能提取更为简洁有效的决策规则。  相似文献   

4.
决策树是一种重要的数据分类方法,测试属性的选择直接影响到决策树中结点的个数和深度,本文提出了一种基于知识粗糙度的方法。通过比较我们发现:在决策树的构造上,粗集理论中知识粗糙度的方法计算量较小,构造的决策树比经典ID3算法简洁,并且具有较高的分类精度。  相似文献   

5.
决策树是一种重要的数据分类方法,测试属性的选择直接影响到决策树中结点的个数和深度,本文提出了一种基于知识粗糙度的方法.通过比较我们发现:在决策树的构造上,粗集理论中知识粗糙度的方法计算量较小,构造的决策树比经典ID3算法简洁,并且具有较高的分类精度.  相似文献   

6.
基于相对决策嫡的决策树算法及其在入侵检测中的应用   总被引:1,自引:0,他引:1  
为了弥补传统决策树算法的不足,提出一种基于相对决策熵的决策树算法DTRDE。首先,将Shannon提出的信息熵引入到粗糙集理论中,定义一个相对决策熵的概念,并利用相对决策熵来度量属性的重要性;其次,在算法DTRDE中,采用基于相对决策熵的属性重要性以及粗糙集中的属性依赖性来选择分离属性,并且利用粗糙集中的属性约简技术来删除冗余的属性,旨在降低算法的计算复杂性;最后,将该算法应用于网络入侵检测。在KDD Cup99数据集上的实验表明,DTRDE算法比传统的基于信息熵的算法具有更高的检测率,而其计算开销则与传统方法接近。  相似文献   

7.
基于决策分类熵的决策树构造算法及应用   总被引:1,自引:0,他引:1  
董广  王兴起 《计算机应用》2009,29(11):3103-3106
为了更好地完成金融数据集上的分类挖掘任务,以粗糙集理论为基础提出决策分类熵的概念,进而以属性的决策分类熵为属性分裂度量提出基于决策分类熵的决策树构造算法,并针对过拟合问题提出一种抑制参数来实现树规模的良好控制。实例分析及金融数据集上的实验表明:相比经典的C4.5决策树算法,新算法能够较好地克服其缺点和不足,构建更优的决策树,能够更好地完成分类任务。  相似文献   

8.
针对数据流中出现的概念漂移问题,采用决策树作为分类器,提出一种基于相对熵的数据流概念漂移检测算法。提出的算法将分类器的准确率与相对熵作为判断该数据块是否发生概念漂移的标准。通过5个数据集对该方法进行验证,该算法在其中4个数据集上都获得了最优的结果,在另一个数据集上获得了次优结果。实验结果表明采用该方法不仅能够有效地检测概念漂移的发生,而且还能提高分类器的准确率。  相似文献   

9.
单变量决策树难以反映信息系统属性间的关联作用,构造的决策树往往规模较大。多变量决策树能较好地反映属性间的关系,得到非常简单的决策树,但使构造的决策树难以理解。针对以上两种决策树特点,提出了基于知识粗糙度的混合变量决策树的构造方法,选择知识粗糙度较小的分类属性来构造决策树。实验结果表明,这是一种操作简单、效率很高的决策树生成方法。  相似文献   

10.
文章在基于变精度粗糙集模型的基础上,研究了具有置信度规则的一种新的决策树构造方法。新算法对基于粗糙集的决策树生成方法进行改进,新算法以变精度加权平均粗糙度作为属性选择标准构造决策树,综合分析训练数据的噪声数据,引入在构造决策树的过程中存在的不一致性。在决策树生长过程中引入置信度,以控制决策树的生长,得到具有确切置信度的决策规则。  相似文献   

11.
基于相对熵的一种属性约简算法   总被引:6,自引:0,他引:6  
知识约简是粗糙集理论研究的主要内容之一。在信息系统中引入了知识的相对熵的概念,证明了在知识相对约简过程中相对熵的变化趋势是递减的;利用相对熵的概念,定义了属性的相对重要性,提出了一种基于相对熵的新的属性约简启发式算法,该算法的时间复杂度为O(|C|3|U|2),通过例子分析,表明该算法是有效的。  相似文献   

12.
基于相对决策条件的规则提取方法   总被引:1,自引:1,他引:1       下载免费PDF全文
黎敏  邓少波  刘清 《计算机工程》2009,35(23):175-177,180
定义相对决策条件的概念,对相对决策条件集进行规则合,提出决策表的规则提取方法。在对决策表约简的过程中,通过构建决策类之间的分明矩阵,计算决策类之间的相对决策条件,合并相对决策条件找出所有决策类的决策规则。分析结果表明,该方法能减少计算规模和存储空间,并可得到决策表的所有最小约简。  相似文献   

13.
基于粗糙集理论的决策树分类方法   总被引:1,自引:0,他引:1  
决策树是数据挖掘中常用的分类方法。本文提出了基于粗糙集的决策树方法,利用粗糙集近似精确度来选择决策树的根节点,分支由分类产生。该方法计算简单,易于理解。本文还提出用悲观剪枝法简化决策树,提高决策树的预测与分类能力。实例说明了本文方法均简单有效。  相似文献   

14.
近年来,人们越来越关注粗糙集中的属性约简算法,尤其是启发式的约简算法。为了度量属性重要度,人们把各种不同的信息熵模型应用到粗糙集中,同时在信息熵这一理论的基础上得出了许多约简算法,用来解决粗糙集中属性约简的问题。然而,现有的基于信息熵的方法还存在一系列问题。针对这些问题,本文首先将知识粒度与相对决策熵这2个概念结合在一起,从而引入一种新的信息熵模型--粒度决策熵;然后,利用粒度决策熵来度量属性的重要性,并由此得出新的约简算法--ARGDE约简算法;最后,用不同的UCI数据集来做实验,通过与已有的约简算法比较,该算法能够得到更好的实验结果。  相似文献   

15.
利用粗糙集中决策表的分明矩阵选择多变量决策树的根属性,把信息熵研究属性约简过程中的理论用于节点属性检验和选择,实现多变量决策树的建立.通过实例验证多变量决策树诊断模型较之单变量决策树诊断模型减少了故障信息的冗余性,诊断效率高,结果易于理解.  相似文献   

16.
设A是一训练集,B是A的一个子集,B是选择A中部分有代表性的示例而生成的。得到了这样一个结论,即对于适当选取的B,由B训练出的决策树其泛化精度优于由A训练出的决策树的泛化精度。进一步,设计实现了一种如何从A中挑选有代表性的示例来生成B的算法,并从数据分布和信息熵理论角度分析了该算法的设计原理。  相似文献   

17.
噪声数据降低了多变量决策树的生成效率和模型质量,目前主要采用针对叶节点的剪枝策略来消除噪声数据的影响,而对决策树生成过程中的噪声干扰问题却没有给予关注。为改变这种状况,将基本粗糙集(rough set,RS)理论中相对核的概念推广到变精度粗糙集(variable precision roughset,VPRS)理论中,并利用其进行决策树初始变量选择;将两个等价关系相对泛化的概念推广为两个等价关系多数包含情况下的相对泛化,并利用其进行决策树初始属性检验;进而给出一种能够有效消除噪声数据干扰的多变量决策树构造算法。最后,采用实例验证了算法的有效性。  相似文献   

18.
毛军军  李侠  吴涛 《计算机工程》2011,37(15):125-127
针对传统粗集理论中属性赋权不一致,甚至相悖的问题,把2个概率分布的相对熵扩展到任意2个单维向量的相对熵,并将相对熵视作一种距离。通过定义属性重要度的代数观和粒度观确定优化权重的取值范围,根据各方案的属性值尽可能靠近理想值、远离负理想值的原理,建立单目标赋权优化模型。针对等价关系的局限性,将优势关系引入属性权重确定方法中。基于优势关系的序信息系统,将代数观下和粒度观下的权重通过相对熵优化模型进行耦合,得到多属性决策中属性权重的优化解。算例分析结果证明了该模型的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号