首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
程磊  吴晓富  张索非 《信号处理》2020,36(1):110-107
数据集类别不平衡性是机器学习领域的常见问题,对迁移学习也不例外。本文针对迁移学习下数据集类别不平衡性的影响研究不足的问题,重点研究了以下几种不平衡性处理方法对迁移学习的影响效果分析:过采样、欠采样、加权随机采样、加权交叉熵损失函数、Focal Loss函数和基于元学习的L2RW(Learning to Reweight)算法。其中,前三种方法通过随机采样消除数据集的不平衡性,加权交叉熵损失函数和Focal Loss函数通过调整传统分类算法的损失函数以适应不平衡数据集的训练,L2RW算法则采用元学习机制动态调整样本权重以实现更好的泛化能力。大量实验结果表明,在上述各种不平衡性处理方法中,过采样处理和加权随机采样处理更适合迁移学习。   相似文献   

2.
在进行口罩遮挡人脸图像修复时,往往需要进行人脸口罩的分割,分割的结果将会对后续的修复工作产生较大的影响。因此,为了更好地实现分割,通过改进图像分割网络DeepLabv3+,提出了一种针对人脸口罩分割的网络模型。将原始DeepLabv3+网络中的主干特征提取网络替换为轻量级网络MobileNetV2,减少模型的参数量,提升模型分割速度;采用密集连接方式将原始空洞空间金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模块中的不同特征层进行特征融合,并引入CBAM注意力机制,增强模型特征表达能力。为了使模型能够准确分割出不同形状、大小和颜色的口罩,在损失函数中引入焦点损失(Focal Loss)进行模型训练,以缓解不同类别口罩在训练样本上的不均衡问题。通过在PASCLA VOC公共数据集和自建口罩数据集上进行实验。结果表明,改进后的模型相比基准模型在模型参数、分割时间以及分割精度上取得较好的平衡。  相似文献   

3.
为提高半监督语义分割的效果,文章提出一种损失归一化技术结合UPS策略的半监督语义分割网络SPNS。利用损失归一化技术缓解标准损失函数的自我训练不稳定问题;UPS策略是结合不确定性估计和消极学习的技术,通过计算输出值的不确定性作为另一种阈值,用以挑选可靠的伪标签,最后利用生成的伪标签和标记数据完成半监督语义分割任务。SPNS方法在PASCAL·VOC数据集上相对于只使用标记数据训练有着+2.06的效果提升,与其他方法相比也有一定提升。  相似文献   

4.
李翠锦  瞿中 《电讯技术》2023,63(9):1291-1299
针对目前复杂交通环境下还存在多目标检测精度和速度不高等问题,以特征金字塔网络(Feature Pyramid Network, FPN)为基础,提出了一种多层融合多目标检测与识别算法,以提高目标检测精度和网络泛化能力。首先,采用ResNet101的五层架构将空间分辨率上采样2倍构建自上而下的特征图,按照元素相加的方式将上采样图和自下而上的特征图合并,并构建一个融合高层语义信息与低层几何信息的特征层;然后,根据BBox回归存在训练样本不平衡问题,选择Efficient IOU Loss损失函数并结合Focal Loss提出一种改进Focal EIOU Loss;最后,充分考虑复杂交通环境下的实际情况,进行人工标注混合数据集进行训练。该模型在KITTI测试集上的平均检测精度和速度比FPN分别提升了2.4%和5 frame/s,在Cityscale测试集上平均检测精度和速度比FPN提升了1.9%和4 frame/s。  相似文献   

5.
为了提高钢铁质量图像检测的效率和精度,提高生产自动化水平,该文提出一种改进的Res-UNet网络分割算法。使用ResNet50代替ResNet18作为编码模块,增强特征提取能力;修改编码模块,使残差块间稠密连接,增强浅层特征的深度延展,充分利用特征;使用加权Dice损失和加权交叉熵损失(BCEloss)结合的新损失函数缓解样本不均衡的情况;数据集增强策略保证网络学习更多的样本特征,增强细节分割精度。相比于经典的UNet算法,组合优化后的Res-UNet网络的Dice系数最多提高了12.64%,达到0.7930,网络训练时间更短,对各类缺陷的分割精准度更优,证明该文算法在钢铁表面缺陷分割领域具有应用价值。  相似文献   

6.
针对传统二次代价函数在卷积神经网络训练过程中图像识别准确率不高的问题,提出基于交叉熵代价函数的卷积神经网络算法。经数学推导,证明交叉熵代价函数较二次代价函数在图像识别中精度更高,并应用MNIST数据集和CIFAR-10数据集,使用AlexNet卷积神经网络,分别采用二次代价函数和交叉熵代价函数对图像识别模型进行训练,当数字图像识别精确率和损失值稳定后,使用测试数据对代价函数进行多次测试,对比识别准确率。仿真结果表明,此方法不仅能提高数字图像识别的准确率,而且相较于传统的代价函数,训练模型速度更快,明显缩减了训练深度神经网络模型的过程。  相似文献   

7.
针对无人机获取的露天矿影像道路提取过程中道路边界信息丢失和路网提取不准确问题,提出一种基于改进DeepLabv3+网络的露天矿路网提取方法.利用Retinex算法对原始图像进行降噪预处理,得到色彩和光照均衡的数据集;并针对道路区域与背景所占像素比例相差较大的特点,使用占比加权的方法解决了网络训练中正负样本严重不平衡的问题;最后在原始DeepLabv3+模型的基础上构建具有不同空洞速率的密集连接ASPP模块来优化所提取的露天矿道路网络,扩大道路特征点的感受野,提高多尺度特征的覆盖范围.实验结果表明,该语义分割方法的效果优于原DeepLabv3+算法,平均交并比达到79.27%,能够在大范围内准确地提取道路目标,可应用于露天矿区主干路网的提取.  相似文献   

8.
由于深度学习中语义分割模型参数量较大且算法耗时较长,不适合部署到移动端,针对此问题,提出了一种基于改进DeepLabv3+网络的轻量级语义分割算法.首先,采用MobileNetv3代替原DeepLabv3+语义分割模型特征提取骨干网络以降低模型复杂度,加快模型运行速度;其次,将空洞空间金字塔池化模块中的标准卷积替换为深...  相似文献   

9.
为解决传统DeepLabv3+算法在遥感影像变化检测上出现的边缘目标分割不精确、分类结果差的问题,提出了一种改进DeepLabv3+的高分辨率遥感影像变化检测方法。首先,基于深度分离卷积与空洞卷积构建了DeepLabv3+模型,大大降低了模型的计算量和参数量。其次,通过引入异感受野改进池化金字塔结构,同时在解码器模块中加入多尺度特征张量,对中间流结构进行残差改造,优化Xception骨干网络,并通过设置权重系数对网络通道进行权重配置优化,从而改进DeepLabv3+模型。最后,采用非生成性和生成性样本扩充方法构建数据集,并通过实验对比分析了所提方法的检测精度与泛化性能。实验结果表明,所提方法能够有效改善图形的输出分辨率和细节特征,具有良好的泛化性能和较高的检测准确率,且与其他对比方法相比,所提方法的图像检测准确率较高,整体精度指标最高可达96.4%。  相似文献   

10.
对于当前越来越多的行人交通事故,驾驶车辆能够准确、快速地检测到行人是避免事故发生的有效途径之一。针对目前行人检测模型对密集场所行人检测出现漏检、误检等现象,提出了一种基于YOLOX-S改进的行人检测模型。首先用多尺度不对称特征融合模块替换输出端2个普通卷积层,不仅增加模型复杂度,也可以获得不同的感受野特征。然后使用Focal loss函数替换交叉熵损失函数,可以减少易分类样本的权重,增加了难分类样本的权重,提高模型的准确。在自制行人检测数据集上实验结果表明,改进的YOLOX-S模型的平均精度均值达到90.9%,和YOLOX-S相比提高了2.1%。对检测速度影响很小的前提下,减少行人漏检情况,提高了检测精度。  相似文献   

11.
In this paper, deep learning technology was utilited to solve the railway track recognition in intrusion detectionproblem. The railway track recognition can be viewed as semantic segmentation task which extends imageprocessing to pixel level prediction. An encoder-decoder architecture DeepLabv3 + model was applied in this workdue to its good performance in semantic segmentation task. Since images of the railway track collected from thevideo surveillance of the train cab were used as experiment dataset in this work, the following improvements weremade to the model. The first aspect deals with over-fitting problem due to the limited amount of training data. Dataaugmentation and transfer learning are applied consequently to rich the diversity of data and enhance modelrobustness during the training process. Besides, different gradient descent methods are compared to obtain theoptimal optimizer for training model parameters. The third problem relates to data sample imbalance, cross entropy(CE) loss is replaced by focal loss (FL) to address the issue of serious imbalance between positive and negativesample. Effectiveness of the improved DeepLabv3 + model with above solutions is demonstrated by experimentresults with different system parameters.  相似文献   

12.
Image segmentation with a volume constraint is an important prior for many real applications. In this work, we present a novel volume preserving image segmentation algorithm, which is based on the entropy and Total Variation (TV) regularized optimal transport theory. The volume and classification constraints can be regarded as two measures preserving constraints in the optimal transport. By studying the dual problem, we develop a simple but efficient dual algorithm for our model. Moreover, to be different from many variational based image segmentation algorithms, the proposed algorithm can be directly unrolled to a new Volume Preserving and TV regularized softmax (VPTV-softmax) layer for semantic segmentation in the popular Deep Convolution Neural Network (DCNN). The experiment results show that our proposed model is very competitive and can improve the performance of many semantic segmentation networks such as the popular U-net and DeepLabv3+.  相似文献   

13.
全景分割是计算机视觉中重要的研究方向。考虑到不同应用场景对语义分割精度的要求不同,本文提出一种基于注意力机制的语义增强损失函数和全景分割方法。首先将语义类别按照重要程度分组,加入注意力机制来对不同语义信息进行区分,并通过对损失权重的设计有效抑制了分类失衡问题;其次设计一种全景分割网络,利用MaskR CNN网络作为实例分割子分支并加入FPN结构作为语义分割基准,提高了所需物体种类的分割精度;最后通过设计重叠结果剔除规则避免了网络结构中的实例和语义分割分支输出的重叠问题。通过对COCO数据集的对比实验表明,本文提出的语义增强损失函数有效提高了优先级较高语义类别的分割效果,为不同应用场景的全景分割提供了更加高质量的语义信息。  相似文献   

14.
针对光电图像语义分割问题,提出了一种基于编解码(Encoder-Decoder)结构和图像局部增强的分割算法。首先,采用基于互质因子的空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块减小多尺度空洞卷积(Atrous Convolution)引入的网格效应,提升卷积核的像素近邻信息表征能力;其次,对分割难度较大的图像局部区域,采用融合平均交并比(Mean Intersection Over Union,MIOU)和交叉信息熵的损失函数,结合权值衰减策略,提高这些局部区域的像素权重。实验结果表明,提出的改进算法能有效提升图像语义分割精度。  相似文献   

15.
基于遗传算法的二维最小交叉熵的动态图像分割   总被引:6,自引:1,他引:6  
为解决动态图像的分割问题,本文提出了一种遗传算法的二维最小交叉熵的分割算法。首先给出二维交叉熵的定义,然后运用遗传算法,以二维交叉熵为评价函数,搜索能使二维交叉熵最小的参数向量,并以该参数向量为分割阈值对飞机图像进行图像分割处理。实验结果表明,二维飞机交叉熵图像分割精度比一维飞机熵图像分割精度高,且比传统的二维熵分割速度快。  相似文献   

16.
针对现有人体图像前景目标姿态变化、大小差异过大和边缘细节丢失等因素造成分割效果不佳的问题,提出了一种基于可变形有效感受野的人体前景分割算法.该算法将不同尺度的特征图进行融合,减少下采样过程中丢失的空间语义信息;同时结合可变有效感受野模块和边缘细化模块来捕获空间信息和语义信息,以适应算法对不同目标的有效感受野范围,并使有效感受野随目标姿态、大小等形态变化进行扩张;最后采用Focal loss缓解正负样本不均衡的问题.实验结果表明,在Baidu People Segmentation人体分割数据集上,对比其他主流语义分割算法,该算法交并比高达88.45%,相比于主流语义分割算法DeepLabV3+高1.07%,相比于经典算法U-net高3.71%,且运行速度快,稳定性好,具有较高的时效性和良好的鲁棒性.  相似文献   

17.
快速准确地获得脑部核磁共振图像中海马体的体积变化情况,对阿尔兹海默症等疾病的诊断具有重要意义。海马体在大脑中占比很小且与周边结构的边界不明显,使得基于深度学习的核磁共振影像海马体分割具有一定难度。针对上述问题本文提出一种利用边界增强损失训练含注意力机制网络的海马体分割算法,主要贡献在于:1)设计了一种含注意力机制的U形三维卷积神经网络;2)提出一种边界增强的损失函数。在解决海马体与背景因为尺寸相差过大而带来的类不平衡问题的同时,使网络在训练时更注重对海马体边界的学习。在欧洲阿尔兹海默病协会和阿兹海默症神经影像学倡议数据集上,分析讨论了本文提出的损失函数和网络结构的性能。与目前几种先进的基于深度学习的三维分割算法进行了对比分析,实验结果表明本文提出的算法性能更优,达到了89.41%的Dice精度与人工分割精度相近。  相似文献   

18.
交叉熵约束的红外图像最小错误阈值分割   总被引:1,自引:0,他引:1       下载免费PDF全文
针对目标和背景具有相似统计分布的红外图像,经典阈值分割方法仅以某种形式的方差或熵作为准则,未考虑图像的实际特性,分割效果不甚理想。为此,提出了一种基于交叉熵约束的红外图像最小错误阈值分割新方法。首先,引入交叉熵来度量目标和背景统计分布的相似性,交叉熵越小表明分布越相似;然后在交叉熵小于一定值的条件下使分类错误达到最小。交叉熵的约束保证了分割过程适应红外图像实际特性,分类错误最小确保了分割效果的有效性。该方法原理清晰、参数设置简单,在一系列实际图像上的实验结果表明,与现有几种经典阈值分割方法相比,文中方法有效提高了目标和背景具有相似统计分布的红外图像的阈值分割准确率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号