首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到13条相似文献,搜索用时 109 毫秒
1.
基于复拟随机样本的统计学习理论的理论基础   总被引:2,自引:1,他引:2       下载免费PDF全文
引入复拟(概率)随机变量,准范数的定义。给出了复拟随机变量的期望和方差的概念及若干性质;证明了基于复拟随机变量的马尔可夫不等式,契比雪夫不等式和辛钦大数定律;提出了拟概率空间中复经验风险泛函、复期望风险泛函以及复经验风险最小化原则等定义。证明并讨论了基于复拟随机样本的统计学习理论的关键定理和学习过程一致收敛速度的界,为系统建立基于复拟随机样本的统计学习理论奠定了理论基础。  相似文献   

2.
关键左理是统计学习理论的重要组成部分.但是,目前的研究主要集中在实随机变量且样本不受噪声影响.引入了复gλ随机变量、准范数的定义,提出了受噪声影响的复gλ样本的经验风险泛函、期望风险泛函以及经验风险最小化原则严格一致性的定义;给出并证明了受噪声影响的复gλ样本的学习理论的关键定理,为系统建立基于复gλ样本的统计学习理论奠定了理论基础.  相似文献   

3.
介绍随机粗糙理论的基本内容。提出随机粗糙经验风险泛函,随机粗糙期望风险泛函,随机粗糙经验风险最小化原则等概念。最后证明基于随机粗糙样本的统计学习理论的关键定理并讨论学习过程一致收敛速度的界。  相似文献   

4.
关键定理是统计学习理论的重要组成部分。但是,目前的研究主要集中在实随机变量且样本不受噪声影响。引入了复gλ随机变量、准范数的定义,提出了受噪声影响的复gλ样本的经验风险泛函、期望风险泛函以及经验风险最小化原则严格一致性的定义;给出并证明了受噪声影响的复gλ样本的学习理论的关键定理,为系统建立基于复gλ样本的统计学习理论奠定了理论基础。  相似文献   

5.
基于双重随机样本的统计学习理论的理论基础   总被引:6,自引:2,他引:4  
介绍双重随机理论的基本内容。提出双重随机经验风险泛函,双重随机期望风险泛函,双重随机经验风险最小化原则等概念。最后证明基于双重随机样本的统计学习理论的关键定理并讨论学习过程一致收敛速度的界。为系统建立基于不确定样本的统计学习理论并构建相应的支持向量机奠定了理论基础。  相似文献   

6.
给出泛空间上泛随机变量及其分布函数、泛期望和泛方差的定义和性质,证明泛空间上的Chebyshev不等式和Khinchine大数定律;给出泛空间上期望风险泛函、经验风险泛函以及经验风险最小化原则严格一致收敛的定义,证明了泛空间上学习理论的关键定理,把概率空间和可能性测度空间上的学习理论的关键定理统一推广到了泛空间上。  相似文献   

7.
进一步讨论了拟概率的一些性质,给出了拟概率空间上的拟随机变量及其分布函数、期望和方差的概念及若干性质;证明了拟概率空间上的Markov不等式、Chebyshev不等式和Khinchine大数定律;给出并证明了拟概率空间上学习理论的关键定理和学习过程一致收敛速度的界,把概率空间上的学习理论的关键定理和学习过程一致收敛速度的界推广到了拟概率空间,为系统地建立拟概率上的统计学习理论与构建支持向量机奠定了理论基础.  相似文献   

8.
关键定理是统计学习理论的重要组成部分,但目前其研究主要集中在概率空间上且假设样本不受噪声的影响。鉴于此,提出了泛空间上样本受噪声影响的期望风险泛函、经验风险泛函以及经验风险最小化原则的定义,给出并证明了泛空间上样本受噪声影响的学习理论的关键定理。  相似文献   

9.
支持向量机是机器学习领域一个研究热点,而统计学习理论中的关键定理为支持向量机的研究提供了重要的理论基础。基于模糊样本,提出了模糊经验风险最小化原则和非平凡一致性的概念,提出并证明了基于模糊样本的学习理论的关键定理,为研究模糊支持向量机提供了依据。  相似文献   

10.
首先,给出了拟概率空间上结构风险最小化原则。然后,为了解决在拟概率空间上结构风险是否一致收敛到期望风险,也就是根据这个最小化原则结构风险是否能收敛到最小可能的风险,给出并证明了结构风险最小化原则的一致收敛性。  相似文献   

11.
In the 1970s, Vapnik[1―3] proposed the Statistical Learning Theory (SLT), which deals mainly with the statistical learning principles when samples are limited. SLT is an im- portant development and supplement of traditional statistics, whose kernel idea …  相似文献   

12.
Statistical learning theory based on real-valued random samples has been regarded as a better theory on statistical learning with small sample. The key theorem of learning theory and bounds on the rate of convergence of learning processes are important theoretical foundations of statistical learning theory. In this paper, the theoretical foundations of the statistical learning theory based on fuzzy number samples are discussed. The concepts of fuzzy expected risk functional, fuzzy empirical risk functional and fuzzy empirical risk minimization principle are redefined. The key theorem of learning theory based on fuzzy number samples is proved. Furthermore, the bounds on the rate of convergence of learning processes based on fuzzy number samples are discussed.  相似文献   

13.
支持向量机目前已成为机器学习领域新的研究热点,而统计学习理论中的关键定理为支持向量机等的研究提供了重要的理论基础。提出了粗糙经验风险最小化原则,提出并证明了一种基于粗糙变量的学习理论的关键定理,为研究粗糙支持向量机等应用性研究提供了依据。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号