首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 203 毫秒
1.
廖欣  郑欣  邹娟  冯敏  孙亮  杨开选 《液晶与显示》2018,33(6):528-537
针对宫颈细胞病理自动筛查问题,提出一种基于深度卷积神经网络的智能辅助诊断方法。首先采用基于改进UNet深度卷积神经网络模型的语义分割方法,检测出宫颈细胞病理涂片扫描图像中的细胞(粘连簇团)区域。接着,利用VGG 16深度卷积神经网络模型,结合迁移学习技术,对检测出的细胞(粘连簇团)区域进行精确识别。为了提高深度卷积神经网络模型的性能,在进行细胞(粘连簇团)区域检测、识别的过程中,采用了数据增强技术。同时,针对该领域相关研究缺乏宫颈细胞病理液基涂片扫描图像数据集的问题,我们收集四川大学华西附二院的典型LCT筛查病例,建立了宫颈细胞病理图像HXLCT数据集,并由资深病理医生完成数据标注。实验表明,本文方法能够较好地完成宫颈细胞病理涂片扫描图像中的细胞(粘连簇团)区域检测(正确率为91.33%),并能对检测出的区域完成正常、疑似病变二分类识别(正确率为91.6%,召回率为92.3%,ROC曲线线下面积为0.914)。本文工作将有助于宫颈细胞病理自动筛查系统的开发,对于宫颈癌早期防治具有重要意义。  相似文献   

2.
深度学习技术因其强大的特征提取能力而被广泛应用于目标检测任务中。针对多尺度宫颈癌细胞的识别准确率不均衡、检测效率低等问题,本文提出一种基于YOLO v3模型的改进识别算法mo-YOLO v3(mini-object-YOLO v3)。选用20倍数字扫描仪下采集的宫颈细胞图像作为数据集,为提高算法的鲁棒性,引入对比度增强、灰度图、旋转和翻转等多种数据增强策略扩充数据集;模型以Darknet53网络结合注意力机制作为主干模块,针对宫颈癌细胞尺寸差异大的特点,提出一种多尺度特征融合算法来优化模型结构;针对小目标检测精度低的问题,提出一种改进的损失函数,采用相对位置信息的方法减弱物体框对检测结果的影响。测试结果表明,本文所提的mo-YOLO v3模型不仅在总体识别精度上有明显的优势,同时大大提高了小尺寸宫颈癌细胞的定位精度。该模型对宫颈癌细胞识别的准确率达到90.42%,查准率达到96.20%,查全率达到93.77%,相似指数ZSI为94.97%,高于同类算法。  相似文献   

3.
改进YOLO V3遥感图像飞机识别应用   总被引:1,自引:0,他引:1  
为了准确识别遥感图像中的飞机,基于YOLO V3算法,通过使用K-means算法对数据集进行聚类分析,借鉴Densenet网络的思想,将YOLO V3网络中的两个残差网络模块替换为两个密集网络模块,改进为一种Dense-YOLO深度卷积神经网络结构。对改进前与改进后的网络进行训练,分别选出使两个网络识别效果最好的权重文件,针对高质量遥感图像与过度曝光、云雾遮挡等低质量遥感图像分别进行测试与分析。实验结果表明,新改进的深度卷积神经网络应用在两种图像上效果均有提升。其中,改进的算法在高质量的遥感图像中准确率高达99.72%,比原始算法准确率提升了0.85%,召回率高达98.34%,召回率提升了1.94%。在低质量遥感图像中准确率高达96.12%,比原始算法准确率提升了5.07%,召回率高达93.10%,召回率提升了19.75%。  相似文献   

4.
廖欣  郑欣  邹娟  冯敏  孙亮  杨帆 《液晶与显示》2018,33(4):347-356
针对宫颈细胞病理图像自动筛查问题,本文提出一种基于人工智能技术的计算机辅助诊断方法。该方法通过对宫颈细胞病理图像采用自适应双阈值法进行初步检测,再采用改进Chan-Vase模型进行精确分割,提取出细胞(粘连簇团)中的不同区域。然后,结合病理诊断专家规则,构建相应的正交特征集。在此基础上,使用神经网络集成模型进行正常、疑似病变二分类识别,完成计算机辅助诊断。实验表明,本文方法能够有效完成宫颈病理细胞(粘连簇团)的分类识别,具有较高的正确率(84%)与较低的误判率(2.1%)。满足了在保证判断正确率的条件下,尽量降低将疑似病变样本误判为正常样本的实际病理诊断要求。  相似文献   

5.
针对目前骑行人员头盔佩戴检测的准确率低、泛化能力差以及检测类别单一等问题,提出一种基于改进YOLO v5的骑行人员头盔及车牌检测模型。首先,在骨干网络中引入卷积注意力模块(convolutional block attention module,CBAM),以强化目标区域的关键特征,提高模型的准确率。其次,通过优化多尺度特征融合模块,并在预测端新增针对小目标特征的检测层,增强网络在密集场景下对小目标的检出率,提升模型的泛化能力。最后,使用EIoU(efficient intersection over union)优化边框回归,同时采用K-means算法在创建的头盔及车牌数据集中聚类先验框,以加速模型训练的收敛速度并提高目标定位的精度。实验结果表明,改进后的YOLO v5网络的检测准确率提高2.5%,召回率提高3.3%,平均精度均值提高3.8%,更适用于对骑行人员头盔及车牌目标的检测。  相似文献   

6.
现有光伏组件缺陷识别方法存在提取特征困难、实时性较差导致了对光伏组件的缺陷故障检测的识别精度不高,本文提出一种基于改进YOLO v5算法的光伏组件红外热成像缺陷检测方法。改进后的YOLO v5算法主要是在原来的基础上增添注意机制SE模块,并且改进损失函数将GIo U改为EIo U提高模型收敛效果、最后采用KG模块平衡特征金字塔结构对模型进行优化,用以提高YOLOv5算法的识别精度和收敛效果。改进后的网络结构应用在YOLO v5s模型中,在光伏组件红外图像的检测上的平均检测精度m AP可以达到92.8%,比原本的YOLO v5s算法88.3%提升了4.5%,在精确度和召回率上的收敛效果也比原始YOLO v5算法模型有所提高,改进后的网络结构应用于l、m、x三种模型中,其检测精度都有所提升,因此改进后的YOLOv5算法适用于4种模型。  相似文献   

7.
高分辨率合成孔径雷达(Synthetic Aperture Radar,SAR)图像中不同目标的尺寸区别较大,这使得小目标的特征不明显,为目标检测带来了极大的挑战。针对这一问题,提出了SAR YOLO 960算法。该算法首先改进了图像输入大小的限制,将输入图像提升到960×960像素;进而改善了YOLOv3(You Only Look Once v3)网络的整体结构,修改并添加了卷积层和残差层,整体采用64倍降采样,使其速度大大提升;最后,根据SAR图像目标的特点,改进了损失函数,从而得到了SAR YOLO 960算法。在手工制作的高分辨率SAR图像数据集中的目标检测结果表明,相对于当前主流的检测算法,该算法性能显著提高;检测速度达32.8帧/秒,准确率达95.7%,召回率达94.5%。  相似文献   

8.
迟凯  魏书伟 《电子测试》2022,(8):58-59+57
为解决传统的卷积神经网络的卷积结构单一、分类精度不佳且模型参数和计算量较大等问题,本文对经典的传统网络Alexnet进行网络结构优化进行多通道改进,构建了Tra-net、Mynet v1、Mynet v2三条不同的网络。将三种不同的卷积神经网络在公开数据集Caltech256上进行识别性能测试,其中Mynet v2网络最高识别准确率可达59.56%,且模型缩小至25MB左右。实验结果表明改进后网络Mynet v1、Mynet v2的识别性能均优于传统的神经网络Tra-net,使用瓶颈结构卷积模块的网络在提高识别准确率的同时大幅度降低了网络模型参数。  相似文献   

9.
为了保证定位的速度和准确率,采用2016年在目标检测领域取得最佳检测效果的YOLO v2网络制作了以明显特征的地物作为目标区域的目标检测数据集。通过目标框维度聚类、分类网络预训练、多尺度检测训练及更改候选框的筛选规则等方法改进YOLO v2网络,使其更好地适应定位任务。能够将无人机实时获取的航拍图像定位到目标区域,并通过投影关系进行坐标转换得到无人机的经纬度。结果表明:该方法效果较为理想,在航拍图像的目标区域检测任务中检测网络的平均准确率提高到79.5%;在包含目标区域的航拍图像中,经模拟飞行的仿真实验验证,其网络定位准确率大于84%。  相似文献   

10.
为进一步提升空中作战条件下目标检测的性能,本文通过优化YOLO v3,提出了一种基于空中红外目标的检测算法EN-YOLO v3。该算法使用轻量的EfficientNet骨干网络作为YOLO v3的主干特征提取网络,使模型参数大幅减少,降低模型的训练时间;同时选用CIoU作为模型的损失函数,优化模型损失计算方法,提升模型的检测精度。结果表明,优化后的EN-YOLO v3目标检测算法与原YOLO v3相比模型尺寸减少了50.03%,精准度提升了1.17%,能够有效提升红外场景下空中目标的检测效果。  相似文献   

11.
段辉军  王志刚  王彦 《激光与红外》2020,50(11):1370-1378
由于缺乏目标的先验信息,实时预警检测系统存在虚警率高、实时性偏低等问题,限制了实战环境下的广泛应用。为了提升目标检测识别的性能,本文提出了一种基于改进YOLO网络的双通道显著性目标识别算法,该算法利用红外图像与可见光互补特性进行多尺度融合,并在融合图像上采用显著性检测获取疑似目标区域,最后利用改进的识别网络对疑似区域进行多层次目标识别。改进的YOLO识别网络增加了一路辅助网络,改善整个特征提取网络的性能,并采用注意机制对辅助网络和骨干网络的特征信息融合,增强有效信息通道,抑制无效信息通道,提高网络识别效率。仿真实验结果表明,本文提出的模型可以有效地提高目标检测与识别精度,其实时性得到了大大增强。  相似文献   

12.
为有效识别视觉系统采集的可见光图像中的舰船目标,提出了基于YOLO(You Only Look Once)网络模型改进的10层的卷积神经网络(Convolutional Neural Network,CNN)用于水面舰船目标的智能识别,通过反卷积的方法可视化CNN中不同卷积层提取到的舰船目标特征。按照传统目标识别方法提取了舰船目标的四类典型人工设计特征,将所提CNN的舰船目标识别结果与YOLO网络模型及四类人工设计特征结合支持向量机用于舰船目标识别的结果进行比较。实验结果表明,与YOLO网络模型相比,综合精确率、召回率和效率3个舰船目标识别的性能指标,改进后的CNN性能更好,从而验证了所提方法的有效性。不同数据量下采用典型特征识别舰船目标与基于深度CNN识别舰船目标的识别结果比较说明了不同类型目标识别算法的优劣势,有利于推动综合性视觉感知框架的构建。  相似文献   

13.
张静  刘凤连  汪日伟 《光电子.激光》2020,31(10):1054-1061
传统装配系统中依靠人力进行重复性劳动,容易 由于人的操作具有疲劳性和人眼分辨 率有限等特点造成失误,为了避免浪费人工和时间,解决工厂环境中光线等不稳定因素,提 出了一种基于YOLO v3算法对形状多样的工业零件识别方法。在智能装配系统中根据视觉检 测结果判断零件种类,弥补了传统方法的不足,满足产品生产系统的节拍要求。改进后的YO LO v3网络模型使用k-means算法重新聚类预选框的参数,残差网络来减少网络的参数,结 合 多尺度方法、采用Mish激活函数提高精确度,使其更适合工业零件的小目标分类检测。该模 型以3D打印的工业零件制作数据集,实验表明与原有的YOLO v3算法对比,使用改进后的网 络模型具有良好的鲁棒 性,准确率提高了1.52%,时间提高了7.25 ms,实现精确实时地检测出智能装配系统中的零件种类。  相似文献   

14.
针对无人机在光伏组件巡检任务中红外故障图像识别准确率低、检测速度慢的问题,提出一种特征增强的YOLO v5s故障检测算法。首先对损失函数进行优化,将原有的回归损失计算方法由GIOU(generalized intersection over union)改为功能更加强大的EIOU(efficient intersection over union)损失函数,并自适应调节置信度损失平衡系数,提升模型训练效果;随后,在每个检测层前分别添加InRe特征增强模块,通过丰富特征表达增强目标特征提取能力。最后,用创建的红外光伏数据集进行对比验证。实验结果表明:本文方法均值平均精度(mean average precision, mAP)为92.76%,检测速度(frame per second,FPS)达到42.37 FPS,其中热斑、组件脱落两种故障类型平均精度分别为94.85%、90.67%,完全能够满足无人机自动巡检的需求。  相似文献   

15.
张立国  马子荐  金梅  李义辉 《激光与红外》2022,52(11):1737-1744
红外图像中行人的快速检测一直是计算机视觉领域的热点和难点。针对红外图像行人目标检测算法检测速度和检测精度难以平衡,算法模型体积较大,在中低性能设备中难以部署和实时运行的问题,提出了一种基于YOLO算法的轻量红外图像行人检测方法。在分析了MobileNet v3等轻量网络在YOLO v3算法上的性能和特点之后,该方法提出了引入注意力机制的轻量特征提取网络(CSPmini a)、特征融合模块和解耦检测端分类回归结构三种改进措施,在满足网络模型轻量的情况下保证了一定的检测精度。实验表明,该方法有效的实现了红外图像行人目标检测的准确性和快速性。  相似文献   

16.
马啸  邵利民  金鑫  徐冠雷 《电讯技术》2019,59(8):869-874
针对传统目标识别方法资源消耗大、精度和可靠性低、泛化能力不强的问题,提出了一种基于改进YOLO(You Only Look Once)模型的舰船目标识别方法。通过精简YOLO模型,设计了一个10层的卷积神经网络用于舰船目标的自动特征提取和分类识别,模型训练过程中引入迁移学习的概念防止模型过拟合并加速模型参数的训练。在自建舰船目标图像测试集上的实验分析结果表明,该方法能够正确识别出航母、除航母外的其余军舰及民船三类舰船目标,识别精度达到93.7%且识别效率较高,验证了所提舰船目标识别方法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号