首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 312 毫秒
1.
前列腺磁共振图像分割的反卷积神经网络方法   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 前列腺磁共振图像存在组织边界对比度低、有效区域少等问题,手工勾勒组织轮廓边界的传统分割方法无法满足临床实时性要求,针对这些问题提出了一种基于深度反卷积神经网络的前列腺磁共振图像分割算法。方法 基于深度学习理论,将训练图像样本输入设计好的卷积神经网络,提取具有高度区分性的前列腺图像特征,反卷积策略用于拓展特征图尺寸,使网络的输入尺寸与输出预测图大小匹配。网络生成的概率预测图通过训练一个softmax分类器,对预测图像取二值化,获得最终的分割结果。为克服原始图像中有效组织较少的问题,采用dice相似性系数作为卷积网络的损失函数。结果 本文算法以Dice相似性系数和Hausdorff距离作为评价指标,在MICCAI 2012数据集中,Dice相似性系数大于89.75%,Hausdorff距离小于1.3 mm,达到了传统方法的分割精度,并且将处理时间缩短在1 min以内,明显优于其他方法。结论 定量与定性的实验表明,基于反卷积神经网络的前列腺分割方法可以准确地对磁共振图像进行分割,相比于其他分割算法大幅度减小了处理时间,能够很好地适用于临床的前列腺图像分割任务。  相似文献   

2.
目的 医学图像的像素级标注工作需要耗费大量的人力。针对这一问题,本文以医学图像中典型的眼底图像视盘分割为例,提出了一种带尺寸约束的弱监督眼底图像视盘分割算法。方法 对传统卷积神经网络框架进行改进,根据视盘的结构特点设计新的卷积融合层,能够更好地提升分割性能。为了进一步提高视盘分割精度,本文对卷积神经网络的输出进行了尺寸约束,同时用一种新的损失函数对尺寸约束进行优化,所提的损失公式可以用标准随机梯度下降方法来优化。结果 在RIM-ONE视盘数据集上展开实验,并与经典的全监督视盘分割方法进行比较。实验结果表明,本文算法在只使用图像级标签的情况下,平均准确识别率(mAcc)、平均精度(mPre)和平均交并比(mIoU)分别能达到0.852、0.831、0.827。结论 本文算法不需要专家进行像素级标注就能够实现视盘的准确分割,只使用图像级标注就能够得到像素级标注的分割精度。缓解了医学图像中像素级标注难度大的问题。  相似文献   

3.
目的 视觉假体通过向盲人体内植入电极刺激视神经产生光幻视,盲人所能感受到的物体只是大体轮廓,对物体识别率低,针对视觉假体中室内应用场景的特点,提出一种快速卷积神经网络图像分割方法对室内场景图像进行分割,通过图像分割技术把物品大致的位置和轮廓显示出来,辅助盲人识别。方法 构建了用于室内场景图像分割的FFCN(fast fully convolutional networks)网络,通过层间融合的方法,避免连续卷积对图像特征信息的损失。为了验证网络的有效性,创建了室内环境中的基本生活物品数据集(以下简称XAUT数据集),在原图上通过灰度标记每个物品的类别,然后附加一张颜色表把灰度图映射成伪彩色图作为语义标签。采用XAUT数据集在Caffe(convolutional architecture for fast feature embedding)框架下对FFCN网络进行训练,得到适应于盲人视觉假体的室内场景分割模型。同时,为了对比模型的有效性,对传统的多尺度融合方法FCN-8s、FCN-16s、FCN-32s等进行结构微调,并采用该数据集进行训练得到适用于室内场景分割的相应算法模型。结果 各类网络的像素识别精度都达到了85%以上,均交并比(MIU)均达到60%以上,其中FCN-8s at-once网络的均交并比最高,达到70.4%,但其分割速度仅为FFCN的1/5。在其他各类指标相差不大的前提下,FFCN快速分割卷积神经网络上平均分割速度达到40帧/s。结论 本文提出的FFCN卷积神经网络可以有效利用多层卷积提取图像信息,避免亮度、颜色、纹理等底层信息的影响,通过尺度融合技术可以很好地避免图像特征信息在网络卷积和池化中的损失,相比于其他FCN网络具有更快的速度,有利于提高图像预处理的实时性。  相似文献   

4.
目的 随着自动驾驶技术不断引入生活,机器视觉中道路场景分割算法的研究已至关重要。传统方法中大多数研究者使用机器学习方法对阈值分割,而近年来深度学习的引入,使得卷积神经网络被广泛应用于该领域。方法 针对传统阈值分割方法难以有效提取多场景下道路图像阈值的问题和直接用深度神经网络来训练数据导致过分割严重的问题,本文提出了结合KSW(key seat wiper)和全卷积神经网络(FCNN)的道路场景分割方法,该方法结合了KSW熵法及遗传算法,利用深度学习在不同场景下的特征提取,并将其运用到无人驾驶技术的道路分割中。首先对道路场景测试集利用KSW熵法及遗传算法得到训练集,然后导入到全卷积神经网络中进行训练得到有效训练模型,最后通过训练模型实现对任意一幅道路场景图分割。结果 实验结果表明,在KITTI数据集中进行测试,天空和树木的分割精度分别达到91.3%和94.3%,道路、车辆、行人的分割精度提高了2%左右。从分割结果中明显看出,道路图像中的积水、泥潭、树木等信息存在的过分割现象有良好的改观。结论 相比传统机器学习道路场景分割方法,本文方法在一定程度上提高了分割精度。对比深度学习直接应用于道路场景分割的方法,本文方法在一定程度上避免了过分割现象,提高了模型的鲁棒性。综上所述,本文提出的结合KSW和FCNN的道路场景分割算法有广泛的研究前景,有望应用于医学图像和遥感图像的处理中。  相似文献   

5.
结合深度学习和支持向量机的海马子区图像分割   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 由于海马子区体积很小且结构复杂,传统的分割方法无法达到理想的分割效果,为此提出一种基于卷积神经网络和支持向量机的海马子区分割方法。方法 该方法构建一种新模型,将卷积神经网络和支持向量机结合起来,使用支持向量机分类器替换卷积神经网络的输出层,通过训练深层网络自动提取图像块特征,利用所提取的图像特征训练支持向量机实现图像的像素级分类。结果 实验选取美国旧金山CIND中心的32位实验者的脑部磁共振图像(MRI)进行海马子区分割测试,在定性和定量方面分别对比了本文方法与支持向量机(SVM)、卷积神经网络(CNN)和基于稀疏表示与字典学习方法的分割结果。所提方法对海马子区CA1、CA2、DG、CA3、Head、Tail、SUB、ERC和PHG的分割准确率分别为0.969、0.733、0.967、0.837、0.981、0.920、0.972、0.968和0.976。本文方法优于现有的基于稀疏表示与字典学习、支持向量机和卷积神经网络的方法,各海马子区分割准确率均有较大提升,对较大子区如Head,准确率较现有最优方法提升10.2%,对较小子区如CA2、CA3,准确率分别有36.2%和52.7%的大幅提升。结论 本文方法有效提升了海马子区的分割准确率,可用于大脑核磁共振图像中海马及其子区的准确分割,为诸多神经退行性疾病的临床诊断与治疗提供依据。  相似文献   

6.
遥感图像飞机目标分类的卷积神经网络方法   总被引:2,自引:0,他引:2       下载免费PDF全文
目的 遥感图像飞机目标分类,利用可见光遥感图像对飞机类型进行有效区分,对提供军事作战信息有重要意义。针对该问题,目前存在一些传统机器学习方法,但这些方法需人工提取特征,且难以适应真实遥感图像的复杂背景。近年来,深度卷积神经网络方法兴起,网络能自动学习图像特征且泛化能力强,在计算机视觉各领域应用广泛。但深度卷积神经网络在遥感图像飞机分类问题上应用少见。本文旨在将深度卷积神经网络应用于遥感图像飞机目标分类问题。方法 在缺乏公开数据集的情况下,收集了真实可见光遥感图像中的8种飞机数据,按大致4∶1的比例分为训练集和测试集,并对训练集进行合理扩充。然后针对遥感图像与飞机分类的特殊性,结合深度学习卷积神经网络相关理论,有的放矢地设计了一个5层卷积神经网络。结果 首先,在逐步扩充的训练集上分别训练该卷积神经网络,并分别用同一测试集进行测试,实验表明训练集扩充有利于网络训练,测试准确率从72.4%提升至97.2%。在扩充后训练集上,分别对经典传统机器学习方法、经典卷积神经网络LeNet-5和本文设计的卷积神经网络进行训练,并在同一测试集上测试,实验表明该卷积神经网络的分类准确率高于其他两种方法,最终能在测试集上达到97.2%的准确率,其余两者准确率分别为82.3%、88.7%。结论 在少见使用深度卷积神经网络的遥感图像飞机目标分类问题上,本文设计了一个5层卷积神经网络加以应用。实验结果表明,该网络能适应图像场景,自动学习特征,分类效果良好。  相似文献   

7.
目的 针对细粒度图像分类中的背景干扰问题,提出一种利用自上而下注意图分割的分类模型。方法 首先,利用卷积神经网络对细粒度图像库进行初分类,得到基本网络模型。再对网络模型进行可视化分析,发现仅有部分图像区域对目标类别有贡献,利用学习好的基本网络计算图像像素对相关类别的空间支持度,生成自上而下注意图,检测图像中的关键区域。再用注意图初始化GraphCut算法,分割出关键的目标区域,从而提高图像的判别性。最后,对分割图像提取CNN特征实现细粒度分类。结果 该模型仅使用图像的类别标注信息,在公开的细粒度图像库Cars196和Aircrafts100上进行实验验证,最后得到的平均分类正确率分别为86.74%和84.70%。这一结果表明,在GoogLeNet模型基础上引入注意信息能够进一步提高细粒度图像分类的正确率。结论 基于自上而下注意图的语义分割策略,提高了细粒度图像的分类性能。由于不需要目标窗口和部位的标注信息,所以该模型具有通用性和鲁棒性,适用于显著性目标检测、前景分割和细粒度图像分类应用。  相似文献   

8.
目的 视网膜血管健康状况的自动分析对糖尿病、心脑血管疾病以及多种眼科疾病的快速无创诊断具有重要参考价值。视网膜图像中血管网络结构复杂且图像背景亮度不均使得血管区域的准确自动提取具有较大难度。本文通过使用具有对称全卷积结构的U-net深度神经网络实现视网膜血管的高精度分割。方法 基于U-net网络中的层次化对称结构和Dense-net网络中的稠密连接方式,提出一种改进的适用于视网膜血管精准提取的深度神经网络模型。首先使用白化预处理技术弱化原始彩色眼底图像中的亮度不均,增强图像中血管区域的对比度;接着对数据集进行随机旋转、Gamma变换操作实现数据增广;然后将每一幅图像随机分割成若干较小的图块,用于减小模型参数规模,降低训练难度。结果 使用多种性能指标对训练后的模型进行综合评定,模型在DRIVE数据集上的灵敏度、特异性、准确率和AUC(area under the curve)分别达到0.740 9、0.992 9、0.970 7和0.917 1。所提算法与目前主流方法进行了全面比较,结果显示本文算法各项性能指标均表现良好。结论 本文针对视网膜图像中血管区域高精度自动提取难度大的问题,提出了一种具有稠密连接方式的对称全卷积神经网络改进模型。结果表明该模型在视网膜血管分割中能够达到良好效果,具有较好的研究及应用价值。  相似文献   

9.
目的 精确的肺肿瘤分割对肺癌诊断、手术规划以及放疗具有重要意义。计算机断层扫描(computed tomography,CT)是肺癌诊疗中最重要的辅助手段,但阅片是一项依靠医生主观经验、劳动密集型的工作,容易造成诊断结果的不稳定,实现快速、稳定和准确的肺肿瘤自动分割方法是当前研究的热点。随着深度学习的发展,使用卷积神经网络进行肺肿瘤的自动分割成为了主流。本文针对3D U-Net准确度不足,容易出现假阳性的问题,设计并实现了3维卷积神经网络DAU-Net(dual attention U-Net)。方法 首先对数据进行预处理,调整CT图像切片内的像素间距,设置窗宽、窗位,并通过裁剪去除CT图像中的冗余信息。DAU-Net以3D U-Net为基础结构,将每两个相邻的卷积层替换为残差结构,并在收缩路径和扩张路径中间加入并联在一起的位置注意力模块和通道注意力模块。预测时,采用连通域分析对网络输出的二值图像进行后处理,通过判断每个像素与周围26个像素的连通关系获取所有的连通域,并清除最大连通域外的其他区域,进一步提升分割精度。结果 实验数据来自上海胸科医院,总共1 010例肺癌患者,每例数据只包含一个病灶,专业的放射科医师提供了金标准,实验采用十折交叉验证。结果表明,本文提出的肺肿瘤分割算法与3D U-Net相比,Dice系数和哈斯多夫距离分别提升了2.5%和9.7%,假阳性率减少了13.6%。结论 本文算法能够有效提升肺肿瘤的分割精度,有助于实现肺癌的快速、稳定和准确分割。  相似文献   

10.
图像实例分割是图像处理和计算机视觉技术中关于图像理解的重要环节,随着深度学习和深层卷积神经网络日趋成熟,基于深度卷积神经网络的图像实例分割方法取得了跨越性进展.实例分割任务实际上是目标检测和语义分割两项任务的结合,可以在像素层面完成识别图像中目标轮廓的任务.实例分割不仅可以定位图像中目标的位置,从像素层面上分割所有目标...  相似文献   

11.
目的 目前主流物体检测算法需要预先划定默认框,通过对默认框的筛选剔除得到物体框。为了保证足够的召回率,就必须要预设足够密集和多尺度的默认框,这就导致了图像中各个区域被重复检测,造成了极大的计算浪费。提出一种不需要划定默认框,实现完全端到端深度学习语义分割及物体检测的多任务深度学习模型(FCDN),使得检测模型能够在保证精度的同时提高检测速度。方法 首先分析了被检测物体数量不可预知是目前主流物体检测算法需要预先划定默认框的原因,由于目前深度学习物体检测算法都是由图像分类模型拓展而来,被检测数量的无法预知导致无法设置检测模型的输出,为了保证召回率,必须要对足够密集和多尺度的默认框进行分类识别;物体检测任务需要物体的类别信息以实现对不同类物体的识别,也需要物体的边界信息以实现对各个物体的区分、定位;语义分割提取了丰富的物体类别信息,可以根据语义分割图识别物体的种类,同时采用语义分割的思想,设计模块提取图像中物体的边界关键点,结合语义分割图和边界关键点分布图,从而完成物体的识别和定位。结果 为了验证基于语义分割思想的物体检测方法的可行性,训练模型并在VOC(visual object classes)2007 test数据集上进行测试,与目前主流物体检测算法进行性能对比,结果表明,利用新模型可以同时实现语义分割和物体检测任务,在训练样本相同的条件下训练后,其物体检测精度优于经典的物体检测模型;在算法的运行速度上,相比于FCN,减少了8 ms,比较接近于YOLO(you only look once)等快速检测算法。结论 本文提出了一种新的物体检测思路,不再以图像分类为检测基础,不需要对预设的密集且多尺度的默认框进行分类识别;实验结果表明充分利用语义分割提取的丰富信息,根据语义分割图和边界关键点完成物体检测的方法是可行的,该方法避免了对图像的重复检测和计算浪费;同时通过减少语义分割预测的像素点数量来提高检测效率,并通过实验验证简化后的语义分割结果仍足够进行物体检测任务。  相似文献   

12.

Image segmentation is the basis of image analysis, object tracking, and other fields. However, image segmentation is still a bottleneck due to the complexity of images. In recent years, fuzzy clustering is one of the most important selections for image segmentation, which can retain information as much as possible. However, fuzzy clustering algorithms are sensitive to image artifacts. In this study, an improved image segmentation algorithm based on patch-weighted distance and fuzzy clustering is proposed, which can be divided into two steps. First, the pixel correlation between adjacent pixels is retrieved based on patch-weighted distance, and then the pixel correlation is used to replace the influence of neighboring information in fuzzy algorithms, thereby enhancing the robustness. Experiments on simulated, natural and medical images illustrate that the proposed schema outperforms other fuzzy clustering algorithms.

  相似文献   

13.
This paper presents a color-based technique for object segmentation in colored digital images. Principally, we make use of some color spaces to segment pixels as either objects of interest or non-objects using artificial neural networks (ANN). This study clearly shows how a novel method for fusion of the existing color spaces produces better results in practice than individual color spaces. The segmented objects include lips, faces, hands, fingers and tree leaves. Using several databases to represent these problems, the ANN was trained on the color of the pixel and its surrounding 8 neighbors to be an object or non-object; in the test mode the trained set was used to segment the 9 pixels in the test image into object or non-object. The feature vector was used for training and testing results from the fusion of different types of color information that came from different color models of the targeted pixel. Several experiments were conducted on different databases and objects to evaluate the proposed method; significant results were recorded, showing the power of expressiveness of color and some texture information to deal with the object segmentation problem.  相似文献   

14.
目的 随着遥感影像空间分辨率的提升,相同地物的空间纹理表现形式差异变大,地物特征更加复杂多样,传统的变化检测方法已很难满足需求。为提高高分辨率遥感影像的变化检测精度,尤其对相同地物中纹理差异较大的区域做出有效判别,提出结合深度学习和超像元分割的高分辨率遥感影像变化检测方法。方法 将有限带标签数据分割成切片作训练样本,按照样本形式设计一个多切片尺度特征融合网络并对其训练,获得测试图像的初步变化检测结果;利用超像元分割算法将测试图像分割成许多无重叠的同质性区域,并将分割结果与前述检测结果叠合,得到带分割标记的变化检测结果;用举手表决算法统计带分割标记的变化检测结果中超像元的变化状况,得到最终变化检测结果。结果 在变化检测实验结果中,本文提出的多切片尺度特征融合卷积网络模型在广东数据集和香港数据集上,优于单一切片尺度下卷积神经网络模型,并且结合超像元的多切片尺度特征融合卷积网络模型得到的Kappa系数分别达到80%和82%,比相应的非超像元算法分别提高了6%和8%,在两个测试集上表现均优于长短时记忆网络、深度置信网络等对比算法。结论 本文提出的卷积神经网络变化检测方法可以充分学习切片的空间信息和其他有效特征,避免过拟合现象;多层尺度切片特征融合的方法优于单一切片尺度训练神经网络的方法;结合深度学习和超像元分割算法,检测单元实现了由切片到超像元的转变,能对同物异谱的区域做出有效判决,有利于提升变化检测精度。  相似文献   

15.
目的 线状目标的检测具有非常广泛的应用领域,如车道线、道路及裂缝的检测等,而裂缝是其中最难检测的线状目标。为避免直接提取线状目标时图像分割难的问题,以裂缝和车道线为例,提出了一种新的跟踪线状目标中线的算法。方法 对图像进行高斯平滑,用一种新的分数阶微分模板增强图像中的模糊及微细线状目标;基于Steger算法提出一种提取线状目标中心线特征点的算法,避免了提取整体目标的困难;根据水动力学思想将裂隙看成溪流,通过最大熵阈值处理后,先进行特征点的连接,再基于线段之间的距离及夹角进行线段之间的连接(溪流之间的融合)。结果 对300幅裂缝图像及4种类别的其他线状目标图像进行试验,并与距离变换、最大熵阈值法+细线化Otsu阈值分割+细线化、谷底边界检测等类似算法进行比较分析,本文算法检测出的线状目标的连续性好、漏检(大间隙少)和误检(毛刺及多余线段少)率均较低。结论 本文算法能够在复杂的线状目标图像中准确快速地提取目标的中心线,一定程度上改善了复杂线状目标图像分割难的问题。  相似文献   

16.
改进K-means活动轮廓模型   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 通过对C-V模型能量泛函的Euler-Lagrange方程进行变形,建立其与K-means方法的等价关系,提出一种新的基于水平集函数的改进K-means活动轮廓模型。方法 该模型包含局部自适应权重矩阵函数,它根据像素点所在邻域的局部统计信息自适应地确定各个像素点的分割阈值,排除灰度非同质对分割目标的影响,进而实现对灰度非同质图像的精确分割。结果 通过分析对合成以及自然图像的分割结果,与传统及最新经典的活动轮廓模型相比,新模型不仅能较准确地分割灰度非同质图像,而且降低了对初始曲线选取的敏感度。结论 提出了包含权重矩阵函数的新活动轮廓模型,根据分割目的和分割图像性质,制定不同的权重函数,该模型具有广泛的适用性。文中给出的一种具有局部统计特性的权重函数,对灰度非同质图像的效果较好,且对初始曲线位置具有稳定性。  相似文献   

17.
目的 传统模糊C-均值聚类应用于图像分割仅考虑像素本身的聚类问题,无法克服噪声干扰对图像分割结果的影响,不利于受到噪声干扰的工业图像、医学影像和高分遥感影像等进行目标提取、识别和解译。嵌入像素空间邻域信息或局部信息的鲁棒模糊C-均值聚类分割算法是近年来图像分割理论研究中的热点课题。为此,针对现有的鲁棒核空间模糊聚类算法非常耗时且抑制噪声能力弱、不适合强噪声干扰下大幅面图像快速分割等问题,提出一种快速鲁棒核空间模糊聚类分割算法。方法 利用待分割图像中像素邻域的灰度信息和空间位置等信息构建线性加权滤波图像,对其进行鲁棒核空间模糊聚类。为了进一步提高算法实时性,引入当前聚类像素与其邻域像素均值所对应的2维直方图信息,构造一种基于2维直方图的鲁棒核空间模糊聚类快速分割最优化数学模型,采用拉格朗日乘子法获得图像分割的像素聚类迭代表达式。结果 对大幅面图像添加一定强度的高斯、椒盐以及混合噪声,以及未加噪标准图像的分割测试结果表明,本文算法比基于邻域空间约束的核模糊C-均值聚类等算法的峰值信噪比至少提高1.5 dB,误分率降低约5%,聚类性能评价的划分系数提高约10%,运行速度比核模糊C-均值聚类和基于邻域空间约束的鲁棒核模糊C-均值聚类算法至少提高30%,与1维直方图核空间模糊C-均值聚类算法具有相当的时间开销,所得分割结果具有较好的主观视觉效果。结论 通过理论分析和实验验证,本文算法相比现有空间邻域信息约束的鲁棒核空间模糊聚类等算法具有更强的抗噪鲁棒性、更优的分割性能和实时性,对大幅面遥感、医学等影像快速解译具有积极的促进作用,能更好地满足实时性要求较高场合的图像分割需要。  相似文献   

18.
论文采用边过程的思想,提出了一种基于目标区域边界像素表示的围线追踪算法。该算法能够追踪形状任意复杂区域的围线,包括单像素宽及含有空洞的区域,并且能够得到围线间的包含关系。实验结果表明该算法比现有追踪算法的读点数更少,性能更高。  相似文献   

19.
目的 为了解决图像显著性检测中存在的边界模糊,检测准确度不够的问题,提出一种基于目标增强引导和稀疏重构的显著检测算法(OESR)。方法 基于超像素,首先从前景角度计算超像素的中心加权颜色空间分布图,作为前景显著图;由图像边界的超像素构建背景模板并对模板进行预处理,以优化后的背景模板作为稀疏表示的字典,计算稀疏重构误差,并利用误差传播方式进行重构误差的校正,得到背景差异图;最后,利用快速目标检测方法获取一定数量的建议窗口,由窗口的对象性得分计算目标增强系数,以此来引导两种显著图的融合,得到最终显著检测结果。结果 实验在公开数据集上与其他12种流行算法进行比较,所提算法对具有不同背景复杂度的图像能够较准确的检测出显著区域,对显著对象的提取也较为完整,并且在评价指标检测上与其他算法相比,在MSRA10k数据集上平均召回率提高4.1%,在VOC2007数据集上,平均召回率和F检验分别提高18.5%和3.1%。结论 本文提出一种新的显著检测方法,分别利用颜色分布与对比度方法构建显著图,并且在显著图融合时采用一种目标增强系数,提高了显著图的准确性。实验结果表明,本文算法能够检测出更符合视觉特性的显著区域,显著区域更加准确,适用于自然图像的显著性目标检测、目标分割或基于显著性分析的图像标注。  相似文献   

20.
In this paper, we propose a novel variational method for color image segmentation using modified geodesic active contour method. Our goal is to detect Object(s) of Interest (OOI) from a given color image, regardless of other objects. The main novelty of our method is that we modify the stopping function in the functional of usual geodesic active contour method so that the new stopping function is coupled by a discrimination function of OOI. By minimizing the functional, the OOI is segmented. Firstly, we study the pixel properties of the OOI by sample pixels visually chosen from OOI. From these sample pixels, by the principal component analysis and interval estimation, the discrimination function of whether a pixel is in the OOI is obtained probabilistically. Then we propose the energy functional for the segmentation of OOI with new stopping function. Unlike usual stopping functions defined by the image gradient, our improved stopping function depends on not only the image gradient but also the discrimination function derived from the color information of OOI. As a result, better than usual active contour methods which detect all objects in the image, our modified active contour method can detect OOI but without unwanted objects. Experiments are conducted in both synthetic and natural images. The result shows that our algorithm is very efficient for detecting OOI even the background is complicated. Ling Pi received her PhD from the Department of Mathematics, East China Normal University in 2006. She is currently a lecturer in the Department of Mathematics, Shanghai Jiao Tong University. Her work involves the application of geometric and analytic methods to problems in image processing. Jinsong Fan received his MSc degree in mathematics from East China Normal University, Shanghai, China in 1996. Currently, he is a lecturer in the School of Mathematics and Information Science at Wenzhou University. His research interests include image processing and pattern recognition. Chaomin Shen received the MSc degree in Mathematics from the National University of Singapore (NUS) in 1998. He worked in the Centre for Remote Imaging, Sensing and Processing (CRISP), NUS as an associate scientist during 1998 to 2004. Currently he is a lecturer in Joint Laboratory for Imaging Science & Technology and Department of Computer Science, East China Normal University. His research interests include remote sensing applications and variational methods in image processing.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号