共查询到16条相似文献,搜索用时 593 毫秒
1.
2.
决策系统中连续属性的离散化,即实型属性空问向整型属性空间的映射,它是对决策表中属性约简的第一步.针对多值决策属性的决策信息系统,提出一种新的属性离散化算法.首先根据决策属性的不同,将条件属性集划分为不同的序列,对每两个序列求取候选断点,最后,综合所有的候选断点即为所求的候选断点集合;然后在基于条件属性重要度和贪心算法的基础上提出一种确定结果断点子集的新启发式算法.实例验证了本文所提出的算法能够取得较理想的连续属性离散化结果. 相似文献
3.
针对粗糙集理论只能处理离散数据的局限,提出了基于决策的剥离式连续属性离散化方法,一改传统的候选断点集合的获取方法,直接通过分析连续属性在各决策类的取值范围和计算属性重要度,完成对连续属性的初步离散.此外,本文提出候选断点集的推移原则,可逐步减小候选断点集的范围.由于每次都是针对尚不能明确分类的样本进行细化,因此随着候选断点集的减少和明确分类样本的增加,系统能够迅速收敛,并且离散化后的决策表总是相容的,这与目前很多离散方法不考虑决策相容性相比,能够最大限度地保留系统的有用信息.本文提出的离散化方法是领域独立的,不需要领域知识,可应用于不同领域的连续属性的离散化. 相似文献
4.
连续属性的离散化是粗糙集理论的主要问题之一.针对粗糙集理论只能处理离散数据的局限性,提出基于属性决策表和竞争型网络的连续属性离散化方法.首先使用条件属性与决策属性之间的决策关系来度量条件属性的重要性,并据此对条件属性按照重要性由小到大排序,然后利用竞争型网络分类功能找到连续属性的断点,从而实现了对连续属性的离散化.算法分析和实验证明算法是切实可行的. 相似文献
5.
决策系统中连续属性离散化,即将一个连续属性分为若干属性区间并为每个区间确定一个离散型数值,对后继阶段的机器学习具有重要的意义。首先研究了满足决策系统最优划分的一种计算候选断点集合的算法,然后在基于条件属性重要度和贪心算法的基础上提出了一种确定结果断点子集的新启发式算法。所提出的属性离散算法考虑并体现了粗糙集理论的基本特点和优点,并能取得较理想的连续属性离散化结果。 相似文献
6.
7.
为了解决数据挖掘和机器学习领域中连续属性离散化问题,提出一种改进的自适应离散粒子群优化算法。将连续属性的断点集合作为离散粒子群,通过粒子间的相互作用最小化断点子集,同时引入模拟退火算法作为局部搜索策略,提高了粒子群的多样性和寻找全局最优解的能力。利用粗糙集理论中决策属性对条件属性的依赖度来衡量决策表的一致性,从而达到连续属性离散化的目的,最后采用多组数据对此算法的性能进行了检验,并与其他算法做了对比实验,实验结果表明此算法是有效的。 相似文献
8.
分析数值决策表离散化方案的度量指标,包括断点数、条件信息熵、粒度熵、类.属性互信息、类-属性互相依赖冗余等.认为相容决策表的条件信息熵和类-属性互信息都是常数,对离散化方案不再有指导作用.讨论粒度熵与互相依赖冗余的关系,证明粒度熵随断点的加入而增加.设计实验度量这些指标之间的关系,实验发现,断点数和粒度熵与预测精度之间的相关程度不相上下,和具体的数据集有关. 相似文献
9.
决策表中连续属性离散化,即将一个连续属性分为若干属性区间并为每个区间确定一个离散型数值。该文提出一种新的决策表连续属性离散化算法。首先使用决策强度来度量条件属性的重要性,并据此对条件属性按照属性重要性从小到大排序,然后按排序后的顺序,考察每个条件属性的所有断点,将冗余的断点去掉,从而将条件属性离散化。该算法易于理解,计算简单,算法的时间复杂性为O(3kn2)。 相似文献
10.
基于粗集理论的数据离散化方法 总被引:21,自引:0,他引:21
对后继阶段的机器学习或数据挖掘过程而言,决策系统中连续属性值的离散化具有非常重要的意义。本文系统地研究了基于粗集理论的数据离散化方法:提出一种计算候选断点集合的算法;定义概念“选择概率”来合理、有效地度量和区分候选断点的相对重要性;最后基于这一概念提出一种确定结果断点子集的启发式算法,理论分析及仿真结果表明,算法的综舍性能优于文献报道的同类算法. 相似文献
11.
针对新能源智能车监控数据中包含过多的连续属性,提出了一种基于分辨矩阵和信息增益率的有监督离散化算法,从而降低连续属性的取值精度,使得新能源智能车后续的分类模型建立更具泛化能力.该算法在保证分类效果的前提下,获得尽可能少的结果断点,主要从3个方面对传统的离散化算法进行优化,一是根据决策表的条件属性与决策属性构建候选断点分辨矩阵,通过分辨矩阵判断相邻属性取值之间是否有可能的断点;二是用信息增益率来优化结果断点的选取;三是通过设定停止阈值解决了传统算法因停止条件过于严格导致算法选取过多的结果断点、离散化效果一般的问题.实验结果表明,改进的算法能够有效减少断点数量,大幅提高计算效率,并获得与经典算法相近的离散结果. 相似文献
12.
Rough Set理论中连续属性的离散化方法 总被引:95,自引:0,他引:95
Rough Set(RS)理论是一种新的处理不精确、不完全与不相容知识的数学工具.传
统的RS理论只能对数据库中的离散属性进行处理,而绝大多数现实的数据库既包含了离散
属性,又包含了连续属性.文中针对传统RS理论的这一缺陷,利用决策表相容性的反馈信
息,提出了一种领域独立的基于动态层次聚类的连续属性离散化算法.该方法为RS理论处
理离散与连续属性提供了一种统一的框架,从而极大地拓广了RS理论的应用范围.通过一
些例子将本算法与现有方法进行了比较分析,得到了令人鼓舞的结果. 相似文献
13.
Discovering Maximal Generalized Decision Rules Through Horizontal and Vertical Data Reduction 总被引:3,自引:0,他引:3
We present a method to learn maximal generalized decision rules from databases by integrating discretization, generalization and rough set feature selection. Our method reduces the data horizontally and vertically. In the first phase, discretization and generalization are integrated and the numeric attributes are discretized into a few intervals. The primitive values of symbolic attributes are replaced by high level concepts and some obvious superfluous or irrelevant symbolic attributes are also eliminated. Horizontal reduction is accomplished by merging identical tuples after the substitution of an attribute value by its higher level value in a pre-defined concept hierarchy for symbolic attributes, or the discretization of continuous (or numeric) attributes. This phase greatly decreases the number of tuples in the database. In the second phase, a novel context-sensitive feature merit measure is used to rank the features, a subset of relevant attributes is chosen based on rough set theory and the merit values of the features. A reduced table is obtained by removing those attributes which are not in the relevant attributes subset and the data set is further reduced vertically without destroying the interdependence relationships between classes and the attributes. Then rough set-based value reduction is further performed on the reduced table and all redundant condition values are dropped. Finally, tuples in the reduced table are transformed into a set of maximal generalized decision rules. The experimental results on UCI data sets and a real market database demonstrate that our method can dramatically reduce the feature space and improve learning accuracy. 相似文献
14.
15.