首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 828 毫秒
1.
林翔宇  张华熊 《纺织学报》2015,36(5):123-126
为了提高领带花型检索的速度和准确度,提出了一种基于图像边缘特征的检索方法。首先,对图案进行边缘检测,提取领带花型的轮廓,量化为边缘特征值;然后,分析边缘特征值分布的数理统计特性,将花型分为条纹、多边形和复杂图案 3 个大类;最后,将待检索花型与数据库内同类花型进行匹配,选取最相似的花型图案。结果表明,基于图像边缘特征的检索方法能够精确地检索相似的领带花型,并且计算量小,检测速度快,可以满足实际应用的需求。  相似文献   

2.
向忠  何旋  钱淼  胡旭东 《纺织学报》2018,39(5):137-143
针对织物印花花型同型不同色和同形异构的特点,提出了一种综合花型边缘和颜色特征的图像检索算法。首先利用中值滤波对花型图像进行滤波去噪,并采用Canny算子获取花型边缘;以边缘像素坐标加权中心点为圆心,将各边缘点划分到若干等距环面内,提取花型边缘距离直方图,并在对边缘像素点直线拟合基础上,提取边缘方向直方图;然后在HSV空间内对彩色边缘进行颜色量化,提取各颜色分量构成颜色直方图;最后对3种特征分别进行相似性度量,并赋予三者不同权重予以结合,获得图像间相似度。结果表明,该算法具有平移、缩放、旋转不变性,并能兼顾边缘特征和颜色特征对检索结果的影响,准确区分同型不同色和同形异构的花型图案,该算法平均查准率可达93.17%。  相似文献   

3.
介绍一种采用边缘和纹理特征融合的蕾丝花型检索方法。首先利用Live Wire分割算法提取出1 327个样本花型和530个测试花型,然后分别提取它们的傅立叶描述子、灰度梯度共生矩阵作为边缘特征和纹理特征,最后将测试花型与样本花型特征匹配后按照相似度大小进行排序,并与特征融合后的排序值进行比较,在Matlab中实现蕾丝花型用户界面检索系统。结果表明,与单一的特征检索方法相比,特征融合方法具有更高的识别率,能够满足大数据库下蕾丝花型的检索需求。  相似文献   

4.
分形图像压缩编码一直以高压缩比而著称,由于其编码时间较长而饱受诟病,因此改进采用子块差特征的分形图像编码算法。分割后的图像块依照图像显著度分为重要区域块与非重要区域块,并将各类图像块以子块特征排序。设定显著度阈值,当小于设定的阈值,则认为是非重要区域,否则为重要区域;匹配搜索过程中,在同类别的值域块库中进行匹配搜索,搜索满足设定的误差阈值范围码本块。  相似文献   

5.
针对织物扫描图像的特点,提出了一种通过图像最大稳定极值区域的加速稳健特征(SURF)检索织物图案的方法。首先用结构提取算法去除织物扫描图像的纹理,保留图案信息;其次通过最大稳定极值区域法检测织物图像,提取图案各区域的SURF特征,建立织物图像特征库;再将织物检索图像与特征库内的图像进行相似性度量,得到相似图案的织物图像。实验结果表明,提出的算法能够较准确地检索织物图案。  相似文献   

6.
由于蕾丝花边工艺复杂,花型图案种类繁多,且传统的基于文本的图像检索方法采用人工标注,工作量大、主观性强,不能满足蕾丝花型的检索需求,因此文章采用基于Live Wire交互式图像分割和层次匹配的方法对蕾丝花型进行检索。首先利用Live Wire算法提取蕾丝花边中一个或多个花型轮廓;然后分别提取傅立叶描述子、几何特征、灰度共生矩阵作为其特征向量;最后将每个测试花型的特征向量与1 327个样本花型的特征向量进行匹配并按相似度大小排序。实验结果表明,相比于单一的特征识别,该方法具有更高的识别率,能够满足蕾丝花型的检索需求。  相似文献   

7.
针对传统的蕾丝花边检索主要依赖于人的视觉检测及文本检索,存在信息不稳定、效率低、检索效果不可靠的现象,提出了一种基于层次匹配下多特征融合的蕾丝花边检索方法。通过运用图案纹理特征标识图像,首先分别用灰度共生矩阵、灰度梯度共生矩阵、局部二进制算子提取纹理特征进行匹配。然后将3种提取纹理特征方法分别结合几何特征、不变矩特征量进行逐层匹配。最后将层次匹配下各个纹理特征进行融合,弥补了单个匹配方法的不足,同时在蕾丝花边库中验证所用检索方法的正确率。分析结果表明,该方法优于任意单个的蕾丝花边匹配方法,能较好地实现蕾丝花边检索,有效地提高图案检索的可靠度和准确率。  相似文献   

8.
为快速识别服装款式类型,提高生产效率,针对现有传统边缘检测算法难以准确提取轮廓特征序列的不足,设计一种改进的边缘提取算法。通过定义一种新的优化卷积核,在使用传统边缘检测算法提取训练样本的服装轮廓基础上,将该卷积核与目标矩阵进行卷积得到新的外轮廓,将新轮廓序列的傅里叶描述子作为特征向量,进一步利用BP神经网络模型完成服装款式的自动分类与识别。为验证改进方法的有效性,建立一个包含4类服装500个不重复服装图像的样本库,选取281个作为训练样本,对剩余219个样本进行测试,测试识别准确率最低为93.48%,最高达到了100%。该改进算法提高了服装款式识别率,对服装智能化生产具有借鉴意义。  相似文献   

9.
基于内容的图像检索技术研究   总被引:1,自引:0,他引:1  
讨论了基于内容的图像检索技术中特征提取与特征匹配算法,诸如颜色直方图、颜色矩、灰度共生矩阵、边界特征法等的优缺点,对查全率和查准率、检索速度和检索时间等图像检索的评价标准以及排序评价法进行研究,指出改进索引机制、引入相关反馈技术等是值得深入研究的方向.  相似文献   

10.
夏明  宋婧  姜朝阳  马延彬 《纺织学报》2020,41(7):141-146
为便于人们快速检索相似款式的服装,以连衣裙款式关键点轮廓为基础,对轮廓的不同描述和相似性度量计算的检索方法进行了研究。将形状上下文、传统欧式距离和基于系数分配的欧式距离3种算法计算的相似度结果与人工测评的相似度测评表做对比,确定最优算法。结果表明:形状上下文匹配方法的效果最佳,其中准确度和精确度分别为82.91%和77%,可作为轮廓相似性度量算法;基于系数分配的欧式距离与传统欧式距离的匹配效果相比,准确度和精确度都有所提升,分别提高6.45%和0.44%;根据计算初步推断,在轮廓特征描述子中按照相似度影响程度大小排序为:角度余弦值、宽度、高度。  相似文献   

11.
江慧  马彪 《纺织学报》2021,42(11):129-136
为准确计算服装图像之间的相似度,从而满足更多用户通过搜索服装搭配图像来购买相似服装的跨场景需求,研究了服装风格的影响因素,并以服装风格的量化标准为基础,构建了服装款式的风格特征模型,进一步分析了现有服装属性识别算法的不足,实现了基于深度学习的款式风格特征识别,通过构建融合迁移学习的残差网络模型,刻画出服装在款式上的风格特征。实验结果表明:模型在服装款式风格特征上的精确度接近90%,准确度达到了80%;相对于传统的图像相似度计算方法,基于服装款式风格的图像相似度计算,准确率和可解释性更高,也为服装个性化推荐提供了新的思路。  相似文献   

12.
为快速、批量化检测服饰品的视觉兴趣度,依据人眼视觉注意模型,利用自底向上的视觉显著性检测方法描述服饰图像的视觉显著性。提取服饰图像的亮度、色彩、纹理方向 3 个底层特征,利用多尺度的分解方法构建出图像的多特征通道;采用归一化合并的方式对特征显著图进行滤波;对形成的 3类特征图进行融合,根据显著程度绘制视觉热点图及亮度图,从而划分图像的视觉显著区域,并进一步提出了视觉覆盖率和分散度 2个指标,用以对服饰图像的视觉显著性差异进行量化和评价。对常见色块、不同纹理织物、服装及配饰图视觉显著度进行实验检测,结果表明,本文方法可有效地描绘出图像视觉显著区域,快速、客观地评定出服饰图像的视觉显著度。  相似文献   

13.
基于内容的图像检索在服装电子商务中是受关注的研究热点。形状特征是服装图像的最重要的视觉特征之一,但基于形状特征的图像检索一直是图像处理领域多年的难题。为了提高准确性,提出一种利用通用Fourier描述子与改进的相关反馈技术来提高服装图像检索精度的算法。通用Fourier描述子在所有形式的Fourier描述子中性能突出,同时根据样本的概率分布改进了查询向量优化算法中的权值计算方式,使相关尺度更加合理。实验结果表明所提出的算法相较于传统算法的优势。  相似文献   

14.
为提高色纺织物图像检索系统的有效性与执行效率,建立了融合高级语义特征的色纺织物图像检索系统.该系统利用深度卷积神经网络对色纺织物图像的风格等高级语义特征进行提取,并融合图像的局部二值模式与方向梯度直方图等浅层纹理特征构建层次化检索系统.与此同时,采用二进制哈希编码对提取的高维特征向量进行降维.采用该系统对具有9种不同纹...  相似文献   

15.
为解决服装打版中款式自动搜索的问题,以服装衣领款式的结构特征为背景,以服装圆领型图像为例,先通过构建复杂网络对其进行复杂网络特征的描述与提取,然后采用支持向量机的模型实现8种衣领类型图像的分类。实验结果表明:样本整体的平均分类准确率为98%,各类别的平均分类准确率均达到96%以上,其中,圆领的平均分类准确率为100%;在原样本图像库中加入一定程度椒盐噪声和高斯噪声后,样本整体的分类准确率在80%上下浮动,表明支持向量机模型分类的方法适用于含有一定程度噪声的图像识别。因而,本文基于复杂网络提取和支持向量机模型分类的服装领型研究的提取和分类准确率高,且分类结果相对稳定。  相似文献   

16.
Cheng P.  Wang W.  Fang Y. 《丝绸》2023,(3):97-104
With the penetration of artificial intelligence technology into various fields the combination of artificial intelligence and art design provides a broader prospect for the intelligent design of clothing. As an active topic of deep learning of artificial intelligence style transfer starts to be used in the fields of clothing pattern design and art painting. At present there are many technical shortcomings in using style transfer technology for clothing pattern design. When style transfer based on the convolutional neural network is applied to clothing pattern design the problems of monotonous color simple texture and inability to remove redundant backgrounds arise. Therefore this study explores an integration of Gram matrix and Canny edge detector to solve the problem of multi-style fusion and background segmentation in style transfer. In this study in order to realize multi-style transfer we first input multiple style images into the VGG-19 model so that the layers designated as style output can extract the features of each style image and output them separately. We calculate the Gram matrix of each image separately and weight all the obtained Gram matrices to form a new matrix. Therefore the co-occurrence and correlation of each channel in the new matrix can represent the fusion style. In order to deal with the redundant backgrounds generated in the style transfer process and the non-rendered areas due to the features of swimsuit styles we adopt the Canny edge detector algorithm and the OpenCV image processing library to perform operations such as rendering segmentation of images using the HSV interval differences of different rendered areas of swimsuit and finally obtain the swimsuit pattern design drawings. Compared with other convolutional neural networks whose style transfer can only extract the style of one image we optimize the structure of the Gram matrix and can extract the style of multiple images to transfer at the same time. In the processing of the image generated by style transfer by analyzing the structure and design features of swimsuit a clothing image segmentation model applicable to swimsuits is established. In order to verify the effectiveness of this study in the field of clothing pattern design we compare the effect drawings generated in this study with those generated by the style transfer method of other convolutional neural networks using the three metrics of questionnaire score PSNR and SSIM and the results show that the method of this study obtains higher evaluation in all the three metrics. This study by combining the painting art style with swimsuit pattern design is able to design a large number of swimsuit patterns with multi-style fusion features at a very low cost and has great application prospects. There is still room for improvement in the accuracy of swimsuit image segmentation in this study and further research will be conducted in this area. © 2023 China Silk Association. All rights reserved.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号