共查询到20条相似文献,搜索用时 123 毫秒
1.
为了更好地提高短文本语义相似度分析能力,提出了基于神经网络和组合语义的短文本语义相似度分析算法。利用神经网络构建词义表示模型,结合局部和全局上下文信息学习词语在实际语境下的表示;通过句法分析,得到文本的依存关系,并依此构建组合关系树,使用组合语义模型得到整个文本的语义表示;通过计算两个语义表示结果之间的相似性来计算文本的语义相似度。实验分析结果表明,该方法能够在一定程度上提高文本语义分析能力。 相似文献
2.
设计了一种基于依存关系与同义词词林相结合的语义相似度计算方法。该方法通过依存关系分别提取两个文本的关系路径,同时基于同义词词林计算两个文本之间关系路径的语义相似度。在计算两个文本之间的语义相似度时,使用语言技术平台(language technology platform,LTP)对文本进行中文分词以及获取文本的依存关系图,从中提取关系路径,从而可以结合关系路径和同义词词林计算两个文本之间的语义相似度。通过实验,获得的平均偏差率为13.83%。实验结果表明,结合依存关系与同义词词林的语义相似度方法在准确率上相比较基于同义词词林的语义相似度和基于依存关系的语义相似度有了一定的提高。 相似文献
3.
针对目前已有的文本分类方法未考虑文本内部词之间的语义依存信息而需要大量训练数据的问题,提出基于语义依存分析的图网络文本分类模型TextSGN。首先对文本进行语义依存分析,对语义依存关系图中的节点(单个词)和边(依存关系)进行词嵌入和one-hot编码;在此基础上,为了对语义依存关系进行快速挖掘,提出一个SGN网络块,通过从结构层面定义信息传递的方式来对图中的节点和边进行更新,从而快速地挖掘语义依存信息,使得网络更快地收敛。在多组公开数据集上训练分类模型并进行分类测试,结果表明,TextSGN模型在短文本分类上的准确率达到95.2%,较次优分类法效果提升了3.6%。 相似文献
4.
5.
为了提高三维模型的检索性能,针对当前三维模型检索系统的语义检索功能无法支持用户的主观性描述文字的问题,提出一种基于内容和描述性文本结合的三维模型语义检索方法。该方法首先为三维模型构造语义树;然后,利用语料统计的方法,计算输入的描述性文本和语义树节点扩充信息的相关程度,将相关度较高的一部分节点的三维模型实例提取出来,得到一个经过语义约束的较小的三维模型集合;最后,使用用户输入的三维模型实例在这个经过语义约束的较小的三维模型集合里进行形状相似性匹配,依据匹配度的大小返回给用户三维模型检索结果。实验中,使用WordNet对一些名词的释义作为描述性文本输入。在普林斯顿大学的PSB三维模型数据集上的实验结果表明,该方法在大多数类别中的查准率—查全率性能好于传统的基于内容的三维模型检索方法。 相似文献
6.
针对在自然语言文本信息隐写术中,采用基于同义词替换方法来嵌入秘密信息时,常由于候选同义词选择不准确,导致替换后文本语句出现明显错误或逻辑歧义等问题,提出了基于二元依存同义词替换隐写算法。该算法先从WordNet词库中得出与目标词词性相同、语义相似的词语,然后对目标语句利用依存句法提取同义词对应的二元依存关系,从大规模语料库中计算二元依存关系的向量距离,得出最佳替换的同义词词集。实验结果表明,该算法生成的隐写文本保持嵌入秘密信息后文本特征属性不变,比目前改进的同义词替换算法更能保证文本语法正确、语义完整,更高效地抵抗同义词结对和相对词频统计分析检测,提高了秘密信息传递的安全性。 相似文献
7.
语义相关度计算是自然语言处理领域的研究热点。现有的以文本相似度计算代替文本相关度计算的方法存在不足之处。提出从语形相似性和组元相关性两个方面来综合度量短文本之间的语义相关性,并提出2个以Wikipedia作为外部知识库的短文本相关度计算算法:最大词语关联法和动态组块法。在一个网络短文本测试集上对算法进行测评。实验结果表明,该算法与典型相似度计算算法比较,在正确率方面提高了20%以上。 相似文献
8.
为增加向量空间模型的文本语义信息,提出三元组依存关系特征构建方法,将此方法用于文本情感分类任务中。三元组依存关系特征构建方法在得到完整依存解析树的基础上,先依据中文语法特点,制定相应规则对原有完整树进行冗余结点的合并和删除;再将保留的依存树转化为三元组关系并一般化后作为向量空间模型特征项。为了验证此种特征表示方法的有效性,构造出在一元词基础上添加句法特征、简单依存关系特征和词典得分不同组合下的特征向量空间。将三元组依存关系特征向量与构造出的不同组合特征向量分别用于支持向量机和深度信念网络中。结果表明,三元组依存关系文本表示方法在分类精度上均高于其他特征组合表示方法,进一步说明三元组依存关系特征能更充分表达文本语义信息。 相似文献
9.
《计算机应用与软件》2015,(7)
针对传统的短文本分类方法大量使用语法标签和词库导致产生语言依赖的问题,提出一种基于语言无关性语义核学习的短文本分类方法。首先,利用短文本的语义信息从文档中提取模式;然后,以三个标注层(词、文档和类别)标注提取出的每个模式;最后,根据三个标注层次计算文档之间的相似度,并根据相似度完成分类。在英语和汉语数据集上的实验验证了该方法的有效性。实验结果表明,相比其他几种核方法,该方法取得了更好的分类性能。 相似文献
10.
11.
针对L1范数多核学习方法产生核权重的稀疏解时可能会导致有用信息的丢失和泛化性能退化,Lp范数多核学习方法产生核权重的非稀疏解时会产生很多冗余信息并对噪声敏感,提出了一种通用稀疏多核学习方法。该算法是基于L1范数和Lp范数(p>1) 混合的网状正则化多核学习方法,不仅能灵活的调整稀疏性,而且鼓励核权重的组效应,L1范数和Lp范数多核学习方法可以认为是该方法的特例。该方法引进的混合约束为非线性约束,故对此约束采用二阶泰勒展开式近似,并使用半无限规划来求解该优化问题。实验结果表明,改进后的方法在动态调整稀疏性的前提下能获得较好的分类性能,同时也支持组效应,从而验证了改进后的方法是有效可行的。 相似文献
12.
13.
14.
为能够复原出高质量的清晰图像,提出一种混合正则化约束的模糊图像盲复原方法。首先,根据模糊核的稀疏性,采用L0范数的正则项对模糊核进行稀疏约束,以提高模糊核估计的准确性;然后,根据图像梯度的稀疏性,采用混合一阶和二阶图像梯度的L0范数对图像梯度进行正则化约束,以保留图像边缘信息;最后,由于所提出的混合正则化约束模型本质上是非凸非光滑优化问题,通过交替方向乘子法对模型进行求解,并在非盲反卷积阶段采用L1范数数据拟合项和全变分的方法复原清晰图像。实验结果表明,所提方法能够复原出更加清晰的细节和边缘信息,复原结果的质量更高。 相似文献
15.
一种实时多任务调度方法的设计 总被引:1,自引:0,他引:1
在实时多任务系统中,当子任务的参数部分或全部相同、或子任务间存有某些约束关系时,仅由参数确定优先级会造成子任务的优先级难以区分或引起误操作,针对上述问题提出了一种以任务的关键性、价值密度为主,加入任务间约束关系的名为关键性一价值密度一任务约束的实时多任务调度方法,并给出了优先级设计规则。通过在一远程监控系统中的应用证实,该方法能体现实时任务的关键性、价值密度和任务间简单约束关系,避免了优先级相同和误操作现象,特别当任务过载时能使任务有序执行。 相似文献
16.
目的 为了提高运动模糊图像盲复原清晰度,提出一种混合特性正则化约束的运动模糊盲复原算法。方法 首先利用基于局部加权全变差的结构提取算法提取显著边缘,降低了噪声对边缘提取的影响。然后改进模糊核模型的平滑与保真正则项,在保证精确估计的同时,增强了模糊核的抗噪性能。最后改进梯度拟合策略,并加入保边正则项,使图像梯度更加符合重尾分布特性,且保证了边缘细节。结果 本文通过两组实验验证改进模型与所提算法的优越性。实验1以模拟运动模糊图像作为实验对象,通过对比分析5种组合步骤算法的复原效果,验证了本文改进模糊核模型与改进复原图像模型的鲁棒性较强。实验结果表明,本文改进模型复原图像的边缘细节更加清晰自然,评价指标明显提升。实验2以小型无人机真实运动模糊图像为实验对象,通过与传统算法进行对比,对比分析了所提算法的鲁棒性与实用性。实验结果表明,本文算法复原图像的标准差提升约11.4%,平均梯度提升约30.1%,信息熵提升约2.2%,且具有较好的主观视觉效果。结论 针对运动模糊图像盲复原,通过理论分析和实验验证,说明了本文改进模型的优越性,所提算法的复原效果较好。 相似文献
17.
Using the classical Parzen window (PW) estimate as the target function, the sparse kernel density estimator is constructed in a forward-constrained regression (FCR) manner. The proposed algorithm selects significant kernels one at a time, while the leave-one-out (LOO) test score is minimized subject to a simple positivity constraint in each forward stage. The model parameter estimation in each forward stage is simply the solution of jackknife parameter estimator for a single parameter, subject to the same positivity constraint check. For each selected kernels, the associated kernel width is updated via the Gauss-Newton method with the model parameter estimate fixed. The proposed approach is simple to implement and the associated computational cost is very low. Numerical examples are employed to demonstrate the efficacy of the proposed approach. 相似文献
18.
We propose Kernel Self-optimized Locality Preserving Discriminant Analysis (KSLPDA) for feature extraction and recognition. The procedure of KSLPDA is divided into two stages, i.e., one is to solve the optimal expansion of the data-dependent kernel with the proposed kernel self-optimization method, and the second is to seek the optimal projection matrix for dimensionality reduction. Since the optimal parameters of data-dependent kernel are achieved automatically through solving the constraint optimization equation, based on maximum margin criterion and Fisher criterion in the empirical feature space, KSLPDA works well on feature extraction for classification. The comparative experiments show that KSLPDA outperforms PCA, LDA, LPP, supervised LPP and kernel supervised LPP. 相似文献
19.
Michel Gangnet Burton Rosenberg 《Annals of Mathematics and Artificial Intelligence》1993,8(3-4):271-284
Aconstraint system includes a set of variables and a set of relations among these variables, calledconstraints. The solution of a constraint system is an assignment of values to variables so that all, or many, of the relations are made true. A simple and efficient method for constraint resolution has been proposed in the work of B.N. Freeman-Benson, J. Maloney, and A. Borning. We show how their method is related to the classical problem of graph matching, and from this connection we derive new resolution algorithms. 相似文献