首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 202 毫秒
1.
大数据时代的到来,快速而准确的索引算法对信息检索至关重要。针对基于随机投影构成的单表哈希检索方法导致搜索性能低的问题,提出一种基于主成分的多表图像哈希检索方法。为了得到高效的哈希编码保证不同语义样本特征的区分性,首先通过主元分析方法保留训练集具有区分性图像特征,此外利用特征聚类作为学习哈希投影的指引构建多个索引表;其次采用正交旋转矩阵对哈希投影进行优化,保证了相同语义的样本具有相似的哈希码。最后分别在CIFAR-10和Caltech-256数据集上与相关方法进行比较,实验结果表明提出的方法提高了检索性能。  相似文献   

2.
针对现有的哈希图像检索方法表达能力较弱、训练速度慢、检索精度低,难以适应大规模图像检索的问题,提出了一种基于深度残差网络的迭代量化哈希图像检索方法(DRITQH)。首先,使用深度残差网络对图像数据进行多次非线性变换,从而提取图像数据的特征,并获得具有语义特征的高维特征向量;然后,使用主成分分析(PCA)对高维图像特征进行降维,同时运用迭代量化对生成的特征向量进行二值化处理,更新旋转矩阵,将数据映射到零中心二进制超立方体,从而最小化量化误差并得到最佳的投影矩阵;最后,进行哈希学习,以得到最优的二进制哈希码在汉明空间中进行图像检索。实验结果表明,DRITQH在NUS-WIDE数据集上,对4种哈希码的检索精度分别为0.789、0.831、0.838和0.846,与改进深度哈希网络(IDHN)相比分别提升了0.5、3.8、3.7和4.2个百分点,平均编码时间小了1 717 μs。DRITQH在大规模图像检索时减少了量化误差带来的影响,提高了训练速度,实现了更高的检索性能。  相似文献   

3.
提出一种基于非下采样轮廓波变换(NSCT)分解和Zernike矩的图像哈希算法.通过预处理操作后的彩色RGB图像转换到YCbCr空间;分别对每个通道进行一级NSCT分解得到低频图像和高频纹理图像,对Y通道的高频图像使用Canny算子提取边缘后计算Zernike矩作为中间哈希序列H1;将3个通道得到的低频图像分块求取6个统计特征得到18个特征向量,使用PCA降维再进行压缩得到中间哈希序列H2;结合高频哈希序列H1和低频哈希序列H2作为最终哈希h.实验结果表明,该算法比几种对比算法具有更好的区分性和更高的效率.  相似文献   

4.
主成分分析PCA(PrincipleComponentAnalysis)是一种重要的分析方法,广泛应用于图像检索、机器学习、模式识别等领域。随着近年来数据维数越来越大,算法的稳定性、时间复杂度和内存使用成了PCA进一步应用所必须要解决的问题。为此提出一种快速算法,该算法利用随机矩阵构造卷数据降维矩阵,在保持点与点之间“核距离”不变的情况下,将待分解矩阵变换成一个低维矩阵。在没有偏差的情况下,将对原始大矩阵的分解变成对这个低维矩阵的分解,大幅降低了时间复杂度,减少了对内存的使用,同时增加了算法的稳定性,从而在根本上解决了上述3个问题。  相似文献   

5.
图像哈希算法的步骤大致分为投影和量化两个阶段,为提高哈希编码的性能,分别对这两个阶段进行研究。在投影阶段,通过主成分分析算法将数据投影到新的特征子空间中,以降低原始特征之间的冗余性;在量化阶段,为减少量化所带来的损失,提出一种单双比特结合的量化方法;利用得到的哈希编码进行图像检索。在两个常用的图像数据集上的实验结果表明,提出的算法较现有的主流图像哈希算法在多个评价指标下均有所提高。  相似文献   

6.
当前主流的Web图像检索方法仅考虑了视觉特征,没有充分利用Web图像附带的文本信息,并忽略了相关文本中涉及的有价值的语义,从而导致其图像表达能力不强。针对这一问题,提出了一种新的无监督图像哈希方法——基于语义迁移的深度图像哈希(semantic transfer deep visual hashing,STDVH)。该方法首先利用谱聚类挖掘训练文本的语义信息;然后构建深度卷积神经网络将文本语义信息迁移到图像哈希码的学习中;最后在统一框架中训练得到图像的哈希码和哈希函数,在低维汉明空间中完成对大规模Web图像数据的有效检索。通过在Wiki和MIR Flickr这两个公开的Web图像集上进行实验,证明了该方法相比其他先进的哈希算法的优越性。  相似文献   

7.
目的 基于深度学习的图像哈希检索是图像检索领域的热点研究问题。现有的深度哈希方法忽略了深度图像特征在深度哈希函数训练中的指导作用,并且由于采用松弛优化,不能有效处理二进制量化误差较大导致的生成次优哈希码的问题。对此,提出一种自监督的深度离散哈希方法(self-supervised deep discrete hashing,SSDDH)。方法 利用卷积神经网络提取的深度特征矩阵和图像标签矩阵,计算得到二进制哈希码并作为自监督信息指导深度哈希函数的训练。构造成对损失函数,同时保持连续哈希码之间相似性以及连续哈希码与二进制哈希码之间的相似性,并利用离散优化算法求解得到哈希码,有效降低二进制量化误差。结果 将本文方法在3个公共数据集上进行测试,并与其他哈希算法进行实验对比。在CIFAR-10、NUS-WIDE(web image dataset from National University of Singapore)和Flickr数据集上,本文方法的检索精度均为最高,本文方法的准确率比次优算法DPSH(deep pairwise-supervised hashing)分别高3%、3%和1%。结论 本文提出的基于自监督的深度离散哈希的图像检索方法能有效利用深度特征信息和图像标签信息,并指导深度哈希函数的训练,且能有效减少二进制量化误差。实验结果表明,SSDDH在平均准确率上优于其他同类算法,可以有效完成图像检索任务。  相似文献   

8.
跨模态哈希通过将不同模态的数据映射为同一空间中更紧凑的哈希码,可以大大提升跨模态检索的效率.然而现有跨模态哈希方法通常使用二元相似性矩阵,不能准确描述样本间的语义相似关系,并且存在平方复杂度问题.为了更好地挖掘数据间的语义相似关系,提出了一个基于标记增强的离散跨模态哈希方法.首先借助迁移学习的先验知识生成样本的标记分布,然后通过标记分布构建描述度更强的语义相似性矩阵,再通过一个高效的离散优化算法生成哈希码,避免了量化误差问题.最后,在两个基准数据集上的实验结果验证了所提方法在跨模态检索任务上的有效性.  相似文献   

9.
提出两种基于矩阵分解的DLDA特征抽取算法。通过引入QR分解和谱分解(SF)两种矩阵分析方法,在DLDA鉴别准则下,对散布矩阵实现降维,从而得到描述人脸图像样本更有效和稳定的分类信息。该方法通过对两种矩阵分解过程的分析,证明在传统Fisher鉴别分析方法中,矩阵分解同样可以模拟PCA过程对样本进行降维,从而克服了小样本问题。在ORL人脸数据库上的实验结果验证了该算法的有效性。  相似文献   

10.
韩亚茹  闫连山  姚涛 《计算机应用》2022,42(7):2015-2021
随着移动互联网技术的发展,图像数据的规模越来越大,大规模图像检索任务已经成为了一个紧要的问题。由于检索速度快和存储消耗低,哈希算法受到了研究者的广泛关注。基于深度学习的哈希算法要达到较好的检索性能,需要一定数量的高质量训练数据来训练模型。然而现存的哈希方法通常忽视了数据集存在数据类别非平衡的问题,而这可能会降低检索性能。针对上述问题,提出了一种基于元学习网络的深度哈希检索算法。所提算法可以直接从数据中自动学习加权函数。该加权函数是只有一个隐含层的多层感知机(MLP),在少量无偏差元数据的指导下,加权函数的参数可以和模型训练过程中的参数同时进行优化更新。元学习网络参数的更新方程可以解释为:较符合元学习数据的样本权重将被提高,而不符合元学习数据的样本权重将被减小。基于元学习网络的深度哈希检索算法可以有效减少非平衡数据对图像检索的影响,并可以提高模型的鲁棒性。在CIFAR-10等广泛使用的基准数据集上进行的大量实验表明,在非平衡比率较大时,所提算法的平均准确率均值(mAP)最佳;在非平均比率为200的条件下,所提算法的mAP比中心相似度量化算法、非对称深度监督哈希(ADSH)算法和快速可扩展监督哈希(FSSH)算法分别提高0.54个百分点,30.93个百分点和48.43个百分点。  相似文献   

11.
刘冶  潘炎  夏榕楷  刘荻  印鉴 《计算机科学》2016,43(9):39-46, 51
在大数据时代,图像检索技术在大规模数据上的应用是一个热门的研究领域。近年来,大规模图像检索系统中, 图像哈希算法 由于具备提高图像的检索效率同时减少储存空间的优点而受到广泛的关注。现有的有监督学习哈希算法存在一些问题,主流的有监督的哈希算法需要通过图像特征提取器获取人为构造的图像特征表示,这种做法带来的图像特征损失影响了哈希算法的效果,也不能较好地处理图像数据集中语义的相似性问题。随着深度学习在大规模数据上研究的兴起,一些相关研究尝试通过深度神经网络进行有监督的哈希函数学习,提升了哈希函数的效果,但这类方法需要针对数据集人为设计复杂的深度神经网络,增大了哈希函数设计的难度,而且深度神经网络的训练需要较多的数据和较长的时间,这些问题影响了基于深度学习的哈希算法在大规模数据集上的应用。针对这些问题,提出了一种基于深度卷积神经网络的快速图像哈希算法,该算法通过设计优化问题的求解方法以及使用预训练的大规模深度神经网络,提高了哈希算法的效果,同时明显地缩短了复杂神经网络的训练时间。根据在不同图像数据集上的实验结果分析可知, 与现有的基准算法相比,提出的算法在哈希函数训练效果和训练时间上都具有较大的提高。  相似文献   

12.
针对现阶段深度跨模态哈希检索算法无法较好地检索训练数据类别以外的数据及松弛哈希码离散化约束造成的次优解等问题,提出自适应深度跨模态增量哈希检索算法,保持训练数据的哈希码不变,直接学习新类别数据的哈希码。同时,将哈希码映射到潜在子空间中保持多模态数据之间的相似性和非相似性,并提出离散约束保持的跨模态优化算法来求解最优哈希码。此外,针对目前深度哈希算法缺乏有效的复杂度评估方法,提出基于神经网络神经元更新操作的复杂度分析方法,比较深度哈希算法的复杂度。公共数据集上的实验结果显示,所提算法的训练时间低于对比算法,同时检索精度高于对比算法。  相似文献   

13.
针对加密存储在云服务器的医学图像安全检索问题,提出基于离散小波变换(DWT)和感知哈希的加密医学图像检索算法。首先结合Henon映射的特点对图像进行频域加密运算;然后,对加密医学图像进行小波分解,得到逼近原图的子图;其次,根据离散余弦变换(DCT)的特性,通过比较DCT各系数与系数均值的关系得到图像的感知哈希序列;最后通过比较感知哈希序列之间的归一化相关系数来实现对加密医学图像检索。与基于非负矩阵分解(NMF)的哈希算法相比,所提算法在高斯噪声下检索精度提高了近40%,且在JPEG压缩攻击、中值滤波攻击、缩放攻击和扭曲攻击下检索精度与之相差无几。实验结果表明,所提算法对于常规攻击和几何攻击具有较好的鲁棒性,同时降低了图像加密的时间复杂度。  相似文献   

14.
针对计算视觉领域图像实例检索的问题,提出了一种基于深度卷积特征显著性引导的语义区域加权聚合方法。首先提取深度卷积网络全卷积层后的张量作为深度特征,并利用逆文档频率(IDF)方法加权深度特征得到特征显著图;然后将其作为约束,引导深度特征通道重要性排序以提取不同特殊语义区域深度特征,排除背景和噪声信息的干扰;最后使用全局平均池化进行特征聚合,并利用主成分分析(PCA)降维白化得到图像的全局特征表示,以进行距离度量检索。实验结果表明,所提算法提取的图像特征向量语义信息更丰富、辨识力更强,在四个标准的数据库上与当前主流算法相比准确率更高,鲁棒性更好。  相似文献   

15.
针对数字图像作为一种常用的数字多媒体信息,对其真实性和完整性的认证显得尤其重要,提出了一种基于提升小波变化和BP神经网络的图像哈希算法。首先利用图像像素矩阵和构造的函数来训练BP神经网络;再将图像进行提升小波变换,利用低频分量组成矩阵;最后利用已经训练好的BP神经网络来产生哈希序列。实验结果表明,本算法不仅可以抵抗内容保持的修改操作,而且能够很好地区分恶意攻击,有一定的鲁棒性和脆弱性。该技术在图像认证、版权保护、安全和基于内容的图像检索等方面有应用价值。  相似文献   

16.
基于多尺度密集网络的肺结节图像检索算法   总被引:1,自引:0,他引:1  
现有基于内容的医学图像检索(CBMIR)算法存在特征提取的不足,导致图像的语义信息表达不完善、图像检索性能较差,为此提出一种多尺度密集网络算法以提高检索精度。首先,将512×512的肺结节图像降维到64×64,同时加入密集模块以解决提取的低层特征和高层语义特征之间的差距;其次,由于网络的不同层提取的肺结节图像信息不同,为了提高检索精度和效率,采用多尺度方法结合图像的全局特征和结节局部特征生成检索哈希码。实验结果分析表明,与自适应比特位的检索(ABR)算法相比,提出的算法在64位哈希码编码长度下的肺结节图像检索查准率可以达到91.17%,提高了3.5个百分点;检索一张肺切片需要平均时间为48 μs。所提算法的检索结果在表达图像丰富的语义特征和检索效率方面,优于其他对比的网络结构,适用于为医生临床辅助诊断提供依据、帮助患者有效治疗。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号