排序方式: 共有56条查询结果,搜索用时 0 毫秒
51.
52.
53.
针对现有协同模糊C均值算法(CFC)的协同系数不能充分描述数据子集间协同关系的问题,提出K-近邻估计协同系数的协同模糊C均值算法[(βK-CFC)]。用模糊C均值算法(FCM)求出各数据子集的隶属度和聚类中心;其次设定近邻数,求出子集在各聚类中心处的密度,形成密度矩阵;根据密度矩阵的相关性设定变化的协同系数;最后用变化的协同系数进行协同聚类。实验证明K-近邻估计协同系数的协同模糊C均值算法[(βK-CFC)]能够充分描述数据子集间的协同关系,聚类性能较好。 相似文献
54.
针对范例匹配中的冲突问题,提出了基于引入概率的一种范例匹配新方法,并给出了概率确定、引入以及最终相似度计算的完整理论。首先采用阀值判断过滤范例;然后在模型中引入概率,并通过调整影响因子来改变引入概率对最终相似度的影响;最后计算比较最终相似度得出最优相似范例。实例证明,该方法提高了范例匹配的时效性和准确性。 相似文献
55.
一种新的深度卷积神经网络的SLU函数 总被引:1,自引:0,他引:1
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;且当输入为正数时,ReLU的输出保持输入不变,使得ReLU函数的平均值恒大于零,引起了偏移现象,从而限制了深度卷积神经网络的学习速率和学习效果.针对ReLU函数的零梯度问题和偏移现象,根据"输出均值接近零的激活函数能够提升神经网络学习性能"原理对其进行改进,提出SLU(softplus linear unit)函数.首先,对负数输入部分进行softplus处理,使得负数输入时SLU函数的输出为负,从而输出平均值更接近于零,减缓了偏移现象;其次,为保证梯度平稳,对SLU的参数进行约束,并固定正数部分的参数;最后,根据SLU对正数部分的处理调整负数部分的参数,确保激活函数在零点处连续可导,信息得以双向传播.设计深度自编码模型在数据集MINST上进行无监督学习,设计网中网卷积神经网络模型在数据集CIFAR-10上进行监督学习.实验结果表明,与ReLU及其相关改进单元相比,基于SLU函数的神经网络模型具有更好的特征学习能力和更高的学习精度. 相似文献
56.