首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 78 毫秒
1.
为提取高分辨率遥感影像的典型地物,且针对Deeplabv3+在遥感图像分割任务中,边缘分割比较模糊,存在孔洞和遗漏分类的问题,基于深度学习提出在Deeplabv3+加入通道注意力机制模块以增强分割结果的方法。先通过深度卷积网络得到的高级特征图输入到通道注意力机制,进行通道间像素特征强化,再通过空间金字塔池获得多尺度输入图像,并且进行了类别不平衡的修正,提取出了完整的图像分割信息,实现了分割边界信息的优化。最后,通过采集广州市高分二号遥感影像进行遥感数据处理、标注、增强之后进行实验,对比经典语义分割网络U-Net、SegNet、PSPNet,结果表明,该方法的评估指标MIOU达到了96.19%,MPA达到了97.85%。  相似文献   

2.
针对传统的高分影像建筑物提取方法存在分割精度低和分割边界模糊等问题,提出基于U-net神经网络的高分辨率光学遥感影像建筑物提取方法。方法包含U-net神经网络和全连接CRFs网络,依据图像特征进行语义分割并优化分割结果;在实现U-net神经网络和全连接CRFs模型的基础上,根据U-net的特点以及本文数据特性调试出不同数据量的增强扭曲数据集进行测试,以达到最高鲁棒的分割效果;调试全连接CRFs模型,使得后处理结果更加贴近影像中的真实情况。实验结果表明,与利用传统分割方法的分割效果相比,该方法分割精度及地物边缘分割完整度都得到了显著提升,对高分辨率遥感影像中建筑物的实验分割精度达到了87.64%。  相似文献   

3.
快速获取遥感信息对图像语义分割方法在遥感影像解译应用发展具有重要的研究意义。随着卫星遥感影像记录的数据种类越来越多,特征信息越来越复杂,精确有效地提取遥感影像中的信息,成为图像语义分割方法解译遥感图像的关键。为了探索快速高效解译遥感影像的图像语义分割方法,对大量关于遥感影像的图像语义分割方法进行了总结。首先,综述了传统的图像语义分割方法,并将其划分为基于边缘检测的分割方法、基于区域的分割方法、基于阈值的分割方法和结合特定理论的分割方法,同时分析了传统图像语义分割方法的局限性。其次,详细阐述了基于深度学习的语义分割方法,并以每种方法的基本思想和技术特点作为划分标准,将其分为基于FCN的方法、基于编解码器的方法、基于空洞卷积的方法和基于注意力机制的方法四类,概述了每类方法中包含的子方法,并对比分析了这些方法的优缺点。然后,简单介绍了遥感图像语义分割常用数据集和性能评价指标,给出了经典网络模型在不同数据集上的实验结果,同时对不同模型的性能进行了评估。最后,分析了图像语义分割方法在高分辨率遥感图像解译上面临的挑战,并对未来的发展趋势进行了展望。  相似文献   

4.
目的 传统的遥感影像分割方法需要大量人工参与特征选取以及参数选择,同时浅层的机器学习算法无法取得高精度的分割结果。因此,利用卷积神经网络能够自动学习特征的特性,借鉴处理自然图像语义分割的优秀网络结构,针对遥感数据集的特点提出新的基于全卷积神经网络的遥感影像分割方法。方法 针对遥感影像中目标排列紧凑、尺寸变化大的特点,提出基于金字塔池化和DUC(dense upsampling convolution)结构的全卷积神经网络。该网络结构使用改进的DenseNet作为基础网络提取影像特征,使用空间金字塔池化结构获取上下文信息,使用DUC结构进行上采样以恢复细节信息。在数据处理阶段,结合遥感知识将波段融合生成多源数据,生成植被指数和归一化水指数,增加特征。针对遥感影像尺寸较大、采用普通预测方法会出现拼接痕迹的问题,提出基于集成学习的滑动步长预测方法,对每个像素预测14次,每次预测像素都位于不同图像块的不同位置,对多次预测得到的结果进行投票。在预测结束后,使用全连接条件随机场(CRFs)对预测结果进行后处理,细化地物边界,优化分割结果。结果 结合遥感知识将波段融合生成多源数据可使分割精度提高3.19%;采用基于集成学习的滑动步长预测方法可使分割精度较不使用该方法时提高1.44%;使用全连接CRFs对预测结果进行后处理可使分割精度提高1.03%。结论 针对宁夏特殊地形的遥感影像语义分割问题,提出基于全卷积神经网络的新的网络结构,在此基础上采用集成学习的滑动步长预测方法,使用全连接条件随机场进行影像后处理可优化分割结果,提高遥感影像语义分割精度。  相似文献   

5.
针对如何应用深度学习语义分割方法实现遥感影像高性能分割的问题,选择了当前流行的SegNet、PSPnet以及Deeplabv3+三种基于深度学习语义分割算法,利用南方某区域无人机高分辨率遥感影像中4类要素分割为实验,以总体精度、平均精度及平均交并比(MIoU)作为精度衡量指标,全面对比分析了三种算法的精度。结果表明,在迁移学习支持下,三种算法总体精度可提升2至5个百分点。通过对PSPNet算法运用不同骨干网络,验证了不同结构网络对精度的贡献,优选出复杂度低的骨干网络。采用集成学习的思路,利用投票法对多算法模型进行结果融合可提升总体精度1%左右。三种算法对植被及水体的分割效果均要优于建筑物及道路,其中Deeplabv3+算法精度最高,总体精度达到89.3%,MIoU达到80.4%,可实现要素的鲁棒分割。  相似文献   

6.
将传统的语义分割SegNet网络用于高分辨率遥感影像的建筑物提取时,分割的建筑物存在边界模糊、精度较低、错检漏检等问题。为了解决上述问题,提出一种改进SegNet网络+CRF语义分割方法。编码阶段的最低分辨率层引入空洞金字塔池化模型,通过并行的空洞卷积操作扩大特征提取的感受野;解码阶段构建特征金字塔实现特征多尺度融合,弥补上采样过程中丢失的特征信息;最后,预测图像送入全连接条件随机场模型进行后处理,优化提取的建筑物边缘。实验表明,相较于原SegNet网络,改进方法的建筑物提取像素精度、召回率、平均交并比分别提高了0.48%、1.29%、2.36%。  相似文献   

7.
针对高空间分辨率遥感影像背景信息复杂,现有语义分割模型提取建筑物轮廓易出现边缘缺失、边界划分不清晰等问题,提出一种边缘增强型EDU-Net深度学习网络。在EDU-Net结构设计中,通过构建边缘特征约束模块,结合Sobel边缘检测图细化建筑物边缘特征;同时,基于二次强化策略提升模型对建筑物边缘信息的表征学习能力。在WHU数据集上,EDU-Net语义分割指标MIoU和F1分别为91.99%和92.37%,相较DoubleU-Net提升0.99%和1.05%;在中国典型城市建筑物数据集上,MIoU达83.12%,同时边缘与边界分割效果更佳,证明了所提出模型具有较好的分割性能和普适性。  相似文献   

8.
王施云  杨帆 《计算机科学》2021,48(8):162-168
高分辨率遥感影像的空间分辨率高、地物信息丰富、复杂程度高、各类地物的大小尺寸不一,这为分割精度的提高带来了一定的难度.为提高遥感影像语义分割精度,解决U-Net模型在结合深层语义信息与浅层位置信息时受限的问题,文中提出了一种基于U-Net特征融合优化策略的遥感影像语义分割方法.该方法采用基于U-Net模型的编码器-译码器结构,在特征提取部分沿用U-Net模型的编码器结构,提取多个层级的特征信息;在特征融合部分保留U-Net的跳跃连接结构,同时使用提出的特征融合优化策略,实现了高层语义特征与底层位置特征的融合-优化-再融合.此外特征融合优化策略还使用空洞卷积获取了更多的全局特征,并采用Sub-Pixel卷积层代替传统转置卷积,实现了自适应上采样.所提方法在ISPRS的Potsdam数据集和Vaihingen数据集上得到了验证,其总体分割精度、Kappa系数和平均交并比mIoU 3个评价指标在Potsdam数据集上分别为86.2%,0.82,0.77,在Vaihingen数据集上分别为84.5%,0.79,0.69;相比传统的U-Net模型,所提方法的3个评价指标在Potsdam数据集上分别提高了5.8%,8%,8%,在Vaihingen数据集上分别提高了3.5%,4%,11%.实验结果表明,基于U-Net特征融合优化策略的遥感影像语义分割方法,在Potsdam数据集和Vaihingen数据集上都能达到很好的语义分割效果,提高了遥感影像的语义分割精度.  相似文献   

9.
针对图像语义分割方法预测出的目标大多存在边缘模糊和准确度较低的问题,提出多类别边缘感知的图像分割方法.首先设计一种用于多目标分割的Multi-sigmoid损失函数,结合COCO数据集预训练的FCN+CRF网络,建立可优化类别边界的语义分割模型;然后在全局嵌套边缘检测(HED)模型的基础上,增加自底向上的信息解码部分,利用亚像素(subpixel)的图像增强算法实现上采样以及相邻尺度之间的特征融合,构建出可用于边缘检测的深度多尺度编解码模型(MSDF);最后将FCN+CRF提取到的分割信息作为一元势,MSDF检测到的边缘特征作为二元势,设计全局能量函数并计算最小值,实现分割结果的进一步优化.在2个标准数据集Pascal context和SIFT Flow上进行了实验,结果表明,该模型的总体性能较为优越,可应用在图像语义分割和显著性目标检测等相关领域.  相似文献   

10.
道路网络提取是高分辨率遥感影像数据应用研究的难点之一.针对现有的道路提取方法普遍注重区域精度而边界质量缺失考虑的问题,提出一种基于DeepLabV3+语义分割神经网络的深度学习提取道路的方法.该网络模型采用编码器-解码器网络(encoder-decoder)和多孔空间金字塔池(atrous spatial pyrami...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号