首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 984 毫秒
1.
文章以5个典型民族服饰为实证研究对象,利用图像分析技术,自适应提取序列场景意象色彩,融合多维特征构建色彩网络关系模型;结合待配色对象形态特征,以和谐论为指导,实现基于意象色彩的纹样自动配色。试验部分在解析民族服饰设色形态的基础上,以色序、同类、对比及综合配色法则,自动生成了多类型纹样的风格迁移赋色。该方法的实施提升了设计决策效能,为当代时尚创意与智慧设计提供了参考解决方案。  相似文献   

2.
针对当前服饰用色规律及其内在机制解析模糊的问题,提出了利用图像处理技术构建服饰配色关系及其内在联系的网络关系模型。对服饰系列图像色彩进行初始聚类及二次聚类,提取主色及其用色比例关系;提取色彩占比、二元色组共现频率、色彩空间距离等指标构建主色网络关系模型;对选取的3个代表性品牌女装的500幅图像,利用所开发的色彩解析软件,从主色分布、配色关系、配色机制方面进行了比对和分析,以可视化形式呈现品牌女装年度、时尚季用色规律。实验结果表明,3个女装品牌主色、空间距离和共现规律不尽相同,前3种颜色累计占比均超出50%,单幅样本耗时小于0.3 s;该方法能够以客观、可视化的方式表征服饰用色机制,用以辅助服装企划和设计决策。  相似文献   

3.
社会的快速发展为少数民族文化的发展创造了崭新的环境。当前对研究对象的配色方案中,大多是对色彩本身进行研究而鲜有结合人的主观意象,为挖掘意象词与服饰配色之间的隐含关系,建立用户需求意象与服饰色彩构成及占比之间的映射模型,提出了一种基于用户需求意象的多重K-means-ELM侗锦配色方案。首先,通过对侗族织锦色彩样本的提取,运用语意差异法(SD法)获得用户的认知数据源。结合聚类分析对侗族织锦图像进行分类和色彩提取。其次,基于色彩提取结果采用K-means对相似色彩构成的图像进行多重聚类划分得到具有相似色彩构成及占比的图像集合。最后,以侗族织锦色彩样本、色彩比例关系和HSV空间数值等信息与用户意象建立映射关系,采用极限学习机(Extreme learning machine,ELM)对多重划分得到的聚类图像样本单独建模,构建用户需求意象的多重K-means-ELM侗锦配色模型进行侗族服饰的配色研究。经过算例分析,将配色模型运用到以“星河”为主题的现代插画设计实际创作中进行验证,得出了该模型的可行性与科学性,所提出的配色方法提高了建模精度、降低了配色难度,从而细化意象—色彩之间的映射关系。  相似文献   

4.
为清晰阐释畲族传统服装设色分布及其关联规则,文章利用图像分析技术解析意象色彩配色关系。以散居于浙、赣、闽三地畲族为例,对田野调查采集的150幅典型传统服装图像进行色彩解析。通过利用自适应聚类机制提取意象色彩,分别构建三地服装色彩谱系;设计基于向量集的Apriori算法,解析畲族服装意象色之间的多元配色关系。实验结果表明,浙、赣、闽三地畲族服装用色集中于黑、红、蓝等八色,主色较为接近;最小支持度优选0.2时,能够有效区分三地服装多元配色差异。其中浙江地区二元配对色组、江西地区三元配对色组表色相对丰富。改进后的算法配色规则输出平均耗时0.032 s,能够快速解析畲族服装设色关联规则,为类似传统服装色彩分析和再生设计提供方法参考。  相似文献   

5.
为实现皮影服饰图案的自动提取,以唐山皮影头茬图像为例,分析了皮影服饰的色彩构成及图案特点,探讨了一种基于色彩聚类的皮影图案识别方法。通过相对总变差模型对皮影图像进行了噪声平滑处理;将处理后的数字图像由RGB颜色空间转换至CIE L~*a~*b~*颜色空间,提取空间中的a、b两个色彩分量;利用K-means聚类算法对皮影图像色彩进行聚类分析,最终实现皮影色彩纹样的最佳分割。结果表明,笔者设计的算法可有效实现对于皮影这类色相分明、细节丰富且主色统一的彩色图像的分割。  相似文献   

6.
《丝绸》2019,(12)
为了提高提花织物纹样提取的准确性,消除织物组织结构对提取结果的干扰,文章提出了一种基于纹理消除滤波算法和密度峰聚类算法的纹样提取方法。通过统计图片区域梯度信息分离提花织物组织纹理区域和图案边缘结构,并利用非极大值抑制获得纹样边缘结构作为滚动引导滤波器的引导图,经过多次迭代计算实现织物纹理滤波。然后将图片从RGB颜色空间转换为CIELab颜色空间,利用密度峰聚类算法对织物色彩空间分割聚类,最终提取出织物纹样。实验结果表明,文章提出的方法快速准确地实现了提花织物纹样的自动分割与提取。  相似文献   

7.
基于聚类算法和色彩网络的蝴蝶色彩分析及应用   总被引:2,自引:0,他引:2  
蝴蝶蕴含着独特的自然美,是设计师重要的设计灵感来源。为厘清蝴蝶色彩及其搭配规律,更好地进行蝴蝶色彩重用,基于聚类算法和色彩网络对蝴蝶色彩进行分析和应用研究。首先,利用K-means聚类算法对单只蝴蝶8种不同角度的图像进行2次色彩聚类和主色提取,构建110只蝴蝶的6色标准色卡。其次,对蝴蝶标准色卡再次聚类,结合蝴蝶色彩实际搭配关系,构建了包含20个网络节点的蝴蝶色彩网络模型,并通过4个蝴蝶样本对色彩网络模型的可靠性进行验证。最后,以丝巾纹样配色设计作为应用案例,验证标准色卡和色彩网络模型作为配色辅助工具的可操作性和应用价值。案例表明,蝴蝶标准色卡和色彩网络模型可以为设计师在色彩设计过程中提供有效的辅助和支持。  相似文献   

8.
人机界面配色设计对促进用户与机器之间的界面交互有重要影响,为了更有效地辅助设计师进行人机界面交互配色设计,从而提高用户感性需求的满意度,文章提出了色彩案例和灰色关联分析的人机界面交互配色设计方法,运用模糊处理与主色提取等技术从源图像中获得色彩组合方案,研究色彩合并、取舍和色彩案例表示方式.如此,通过颜色的组合和选择来实现色彩案例目标界面配色,并基于灰色关联分析评估映射后的配色方案与颜色之间的相关性,验证此方法的可行性,并以此为依据生成用户满意方案.  相似文献   

9.
《丝绸》2018,(11)
为解决人工提取明代织物纹样色彩存在难度大、准确性差、直接采样难的问题,文章以明代赐服斗牛袍为例,探讨一种新的纹样提取手段。首先,利用高分辨率数码相机采集斗牛袍织物纹样;然后将RGB颜色空间的数字图像转换至CIELab颜色空间,用中值滤波法对彩色图像进行平滑处理;再用K-means聚类算法对图像中的色彩进行聚类,以实现不同色彩纹样的分割;最后利用CalinskiHarabasz指标对聚类有效性进行判断,获取最佳聚类数。实验结果表明,此方法可以实现纹样色彩的聚类分割与智能提取,为研究珍贵古代织物纹样提供有效途径。  相似文献   

10.
邢乐  张杰  梁惠娥  李忠健  刘姣姣 《纺织学报》2017,38(11):110-115
为解决获取传统服饰实物图像色彩耗时且缺乏准确性问题,以传统服饰的云肩为例,借助均值漂移(Mean-shift)聚类法,提出了一种检测传统服饰实物图像颜色的方法。运用单反数码相机进行实物图像采集;对所得初始图像的R、G、B3个颜色通道进行去噪处理;再将图像RGB颜色空间的特征向量转换至CIE L*a*b*颜色空间中,利用大津法阈值原理(自适应阈值算法)分割被测图像中云肩实物与背景;最后采用Mean-shift聚类算法,将被测图像的颜色像素分割为若干有效的集群,同时从这些集群中提取云肩主要色彩。实验结果表明,该算法可较为准确地从云肩图像中提取主色,且当Mean-shift聚类算法的带宽被设定为0.05时,分类颜色结果更为准确。  相似文献   

11.
Cheng P.  Wang W.  Fang Y. 《丝绸》2023,(3):97-104
With the penetration of artificial intelligence technology into various fields the combination of artificial intelligence and art design provides a broader prospect for the intelligent design of clothing. As an active topic of deep learning of artificial intelligence style transfer starts to be used in the fields of clothing pattern design and art painting. At present there are many technical shortcomings in using style transfer technology for clothing pattern design. When style transfer based on the convolutional neural network is applied to clothing pattern design the problems of monotonous color simple texture and inability to remove redundant backgrounds arise. Therefore this study explores an integration of Gram matrix and Canny edge detector to solve the problem of multi-style fusion and background segmentation in style transfer. In this study in order to realize multi-style transfer we first input multiple style images into the VGG-19 model so that the layers designated as style output can extract the features of each style image and output them separately. We calculate the Gram matrix of each image separately and weight all the obtained Gram matrices to form a new matrix. Therefore the co-occurrence and correlation of each channel in the new matrix can represent the fusion style. In order to deal with the redundant backgrounds generated in the style transfer process and the non-rendered areas due to the features of swimsuit styles we adopt the Canny edge detector algorithm and the OpenCV image processing library to perform operations such as rendering segmentation of images using the HSV interval differences of different rendered areas of swimsuit and finally obtain the swimsuit pattern design drawings. Compared with other convolutional neural networks whose style transfer can only extract the style of one image we optimize the structure of the Gram matrix and can extract the style of multiple images to transfer at the same time. In the processing of the image generated by style transfer by analyzing the structure and design features of swimsuit a clothing image segmentation model applicable to swimsuits is established. In order to verify the effectiveness of this study in the field of clothing pattern design we compare the effect drawings generated in this study with those generated by the style transfer method of other convolutional neural networks using the three metrics of questionnaire score PSNR and SSIM and the results show that the method of this study obtains higher evaluation in all the three metrics. This study by combining the painting art style with swimsuit pattern design is able to design a large number of swimsuit patterns with multi-style fusion features at a very low cost and has great application prospects. There is still room for improvement in the accuracy of swimsuit image segmentation in this study and further research will be conducted in this area. © 2023 China Silk Association. All rights reserved.  相似文献   

12.
美哉京剧服装——浅探京剧服装色彩及图案的艺术特点   总被引:2,自引:0,他引:2  
京剧是我国的国粹,京剧服装鲜亮、夸张,通过色彩、装饰来表现京剧人物的性格,可以说是神形兼备。本文就通过讨论京剧服装色彩和图案,分析其内在的表现形式和艺术美感。  相似文献   

13.
为避免人工视觉方法完成刺绣图案花纹提取过程中存在的耗时费力、主观性强等缺陷,结合传统服饰织物,采用图像分析方法实现刺绣图案的自动提取,并进行色值分析。首先采用数码相机实现刺绣织物类图案的采集;接着利用平滑滤波滤除图像中的噪声信号,并将图像从RGB颜色空间转换到Lab颜色空间;然后利用K-Means聚类分析方法对a,b分量进行聚类分析;最后根据聚类分析结果获得准确的图案及色彩信息。研究结果表明:图像处理方法可以实现刺绣图案的自动分割,这种自动化图案分割对一般刺绣图案的自动提取均能使用,这为服饰图案的审美研究提供了全新的样本整理途径。  相似文献   

14.
为提高织物设计的效率及多样性,文章从“再设计”的角度梳理“织物-织物”的设计流程,重点整理织物图案形状及颜色主题的主要提取方法。大部分提取研究主要利用织物图像底层视觉特征中的形状及颜色特征,其中针对图案形状的提取,大多采用边缘检测、阈值、聚类、区域及其他特定理论对图案轮廓或整体区域进行分割;针对颜色主题的提取,则通过聚类、中位切分及八叉树等颜色量化方法建立和谐的配色规律,两个方向的提取算法可以相互借鉴。通过图像实例对不同提取方法的特点进行分析比较,发现单一算法具有一定的局限性,采用多特征、多算法融合的方式可有效提高提取的精度和效率。最后对织物再设计流程的完善及其在纺织服装领域的应用发展进行展望。  相似文献   

15.
汪珊娜  张华熊  康锋 《纺织学报》2018,39(8):117-123
为避免传统手工特征和局部特征难以全面表征和准确量化图像情感特征的不足,以领带花型为研究对象,提出了一种融合手工情感特征的基于卷积神经网络的织物图像情感分类方法,可为服饰设计、服装选购等提供辅助。 首先对领带花型图像进行情感评价,建立领带花型图像的情感样本库;然后提取图像饱和度、纹理等手工情感特征和图像像素值作为卷积神经网络的输入;其次建立卷积神经网络模型,将2 000幅样本图像作为训练样本对卷积神经网络进行训练;最后将1 000幅检测样本输入训练后的卷积神经网络,实现了领带花型图像的情感分类。实验结果显示:该方法的情感分类准确率为89.7%,比采用传统手工特征的分类方法有较大提升,较其他卷积神经网络模型正确率更高。  相似文献   

16.
胡群  张宁  潘如如 《纺织学报》2021,42(11):97-102
针对印花面料设计专业性要求高、面料打样耗时费力、对面料进行换色生产系列产品困难的问题,提出了一种基于纹理平滑与均值漂移(Mean-shift)的面料分色换色方法。采集并剪裁获得印花面料图像,采用相对总变差模型对面料图像进行纹理平滑,将平滑后的图像转换到CIE1976L*a*b*色彩空间,然后利用Mean-shift聚类算法对面料图像进行分割,提取面料图像分色。通过交互式的方法调节分色,建立目标颜色与图像原始分色的映射关系,实现面料的分色换色,并采集不同的印花面料图像进行换色实验。结果表明:换色图像自然真实,面料纹理细节保留完整,可辅助印花面料设计,模拟印花面料的打样效果。  相似文献   

17.
顾梅花  刘杰  李立瑶  崔琳 《纺织学报》2022,43(11):163-171
针对小尺寸服装与遮挡服装图像分割准确率低的问题,提出一种基于改进多尺度特征学习策略与注意力机制的服装图像分割方法。以Mask R-CNN为基础框架,首先采用增强特征金字塔网络优化模型的特征学习过程,对多尺度服装特征进行统一监督,缩小不同层级之间的语义差距,引入残差特征增强模块减少高层特征损失,采用软感兴趣区域选择自适应地获取最优感兴趣区域特征;然后在分类预测分支引入通道注意力模块,在边界框回归与掩膜预测分支分别引入空间注意力模块,提取图像中需要重点关注的服装区域特征。结果表明,与其他方法相比,本文方法改善了小尺寸服装图像和遮挡服装图像分割中存在的漏检、漏分割现象,提取出的服装实例更精确,其平均精度均值比原模型提升了3.8%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号