首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 281 毫秒
1.
结合深度学习和支持向量机的海马子区图像分割   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 由于海马子区体积很小且结构复杂,传统的分割方法无法达到理想的分割效果,为此提出一种基于卷积神经网络和支持向量机的海马子区分割方法。方法 该方法构建一种新模型,将卷积神经网络和支持向量机结合起来,使用支持向量机分类器替换卷积神经网络的输出层,通过训练深层网络自动提取图像块特征,利用所提取的图像特征训练支持向量机实现图像的像素级分类。结果 实验选取美国旧金山CIND中心的32位实验者的脑部磁共振图像(MRI)进行海马子区分割测试,在定性和定量方面分别对比了本文方法与支持向量机(SVM)、卷积神经网络(CNN)和基于稀疏表示与字典学习方法的分割结果。所提方法对海马子区CA1、CA2、DG、CA3、Head、Tail、SUB、ERC和PHG的分割准确率分别为0.969、0.733、0.967、0.837、0.981、0.920、0.972、0.968和0.976。本文方法优于现有的基于稀疏表示与字典学习、支持向量机和卷积神经网络的方法,各海马子区分割准确率均有较大提升,对较大子区如Head,准确率较现有最优方法提升10.2%,对较小子区如CA2、CA3,准确率分别有36.2%和52.7%的大幅提升。结论 本文方法有效提升了海马子区的分割准确率,可用于大脑核磁共振图像中海马及其子区的准确分割,为诸多神经退行性疾病的临床诊断与治疗提供依据。  相似文献   

2.
目的 海马体积很小,对比度极低,传统标记融合方法选用手工设计的特征模型,难以提取出适应性好、判别性强的特征。近年来,深度学习方法取得了极大成功,基于深度网络的方法已应用于医学图像分割中,但海马结构复杂,子区较多且体积差别较大,特别是CA2和CA3子区体积极小,常见的深度网络无法准确分割海马子区。为了解决这些问题,提出一种结合多尺度输入和串行处理神经网络的海马子区分割方法。方法 针对海马中体积差距较大的子区,设计两种不同的网络,结合多种尺度图像块信息,为小子区建立类别数量均衡的训练集,避免网络被极端化训练,最后,采用串行标记的方式对海马子区进行分割。结果 在Tail,SUB和PHG子区上的准确率达到了0.865,0.81,0.773,较现有的多图谱子区分割方法有较大提高,并且将体积较小子区CA2,CA3上的准确率分别提高了6%和9%。结论 该算法将基于卷积神经网络的分类方法引入到标记融合阶段,根据海马子区特殊的灰度及结构特点,设计两种针对性网络,实验证明,该算法能提取出适应性好、判别性强的特征,提高了分割准确率。  相似文献   

3.
目的 稀疏表示在遥感图像融合上取得引人注目的良好效果,但由于经典稀疏表示没有考虑图像块与块之间的相似性,导致求解出的稀疏系数不够准确及字典学习的计算复杂度高。为提高稀疏表示遥感图像融合算法的效果和快速性,提出一种基于结构组稀疏表示的遥感图像融合方法。方法 首先,将相似图像块组成结构组,再通过组稀疏表示算法分别计算亮度分量和全色图像的自适应组字典和组稀疏系数;然后,根据绝对值最大规则进行全色图像稀疏系数的部分替换得到新的稀疏系数,利用全色图像的组字典和新的稀疏系数重构出高空间分辨率亮度图像;最后,应用通用分量替换(GCOS)框架计算融合后的高分辨率多光谱图像。结果 针对3组不同类型遥感图像的全色图像和多光谱图像分别进行了退化和未退化遥感融合实验,实验结果表明:在退化融合实验中,本文方法的相关系数、均方根误差、相对全局融合误差、通用图像质量评价指标和光谱角等评价指标比传统的融合算法更优越,其中相对全局融合误差分别是2.326 1、1.888 5和1.816 8均远低于传统融合算法;在未退化融合实验中,除了在绿色植物融合效果上略差于AWLP(additive wavelet luminance proportional)方法外,其他融合结果仍占有优势。与经典稀疏表示方法相比,由于字典学习的优越性,计算复杂度上要远低于经典稀疏表示的遥感图像融合算法。结论 本文算法更能保持图像的光谱特性和空间信息,适用于不同类型遥感图像的全色图像和多光谱图像融合。  相似文献   

4.
目的 图像中的目标一般含有很多子类,仅仅利用某个子类的特征无法完整地分割出目标区域。针对这一问题,提出一种结合相似性拟合与空间约束的图像交互式分割方法。方法 首先,通过手工标记的样本组成各个目标的字典,通过相似度量搜寻测试样本与各个目标的字典中最相似的原子建立拟合项;再结合图像的空间约束项,构建图像分割模型;最后利用连续最大流算法求解,快速实现图像分割的目的。结果 通过对比实验,本文方法的速度比基于稀疏表示的分类方法的速度提高约13倍,而与归一化切割(N-Cut),逻辑回归(logistic regression)等方法相比,本文方法能取得更稳定和准确的分割结果。此外,本文方法无需过完备字典,只需要训练样本能体现各个子类的信息即可得到稳定的图像分割结果。结论 本文交互式图像分割方法,通过结合相似性拟合以及空间约束建立分割模型,并由连续最大流算法求解,实现图像的快速准确的分割。实验结果表明,该方法能够胜任较准确地对自然图像进行分割以及目标提取等任务。  相似文献   

5.
目的 自动指纹识别系统大多是基于细节点匹配的,系统性能依赖于输入指纹质量。输入指纹质量差是目前自动指纹识别系统面临的主要问题。为了提高系统性能,实现对低质量指纹的增强,提出了一种基于多尺度分类字典稀疏表示的指纹增强方法。方法 首先,构建高质量指纹训练样本集,基于高质量训练样本学习得到多尺度分类字典;其次,使用线性对比度拉伸方法对指纹图像进行预增强,得到预增强指纹;然后,在空域对预增强指纹进行分块,基于块内点方向一致性对块质量进行评价和分级;最后,在频域构建基于分类字典稀疏表示的指纹块频谱增强模型,基于块质量分级机制和复合窗口策略,结合频谱扩散,基于多尺度分类字典对块频谱进行增强。结果 在指纹数据库FVC2004上将提出算法与两种传统指纹增强算法进行了对比实验。可视化和量化实验结果均表明,相比于传统指纹增强算法,提出的方法具有更好的鲁棒性,能有效改善低质量输入指纹质量。结论 通过将指纹脊线模式先验引入分类字典学习,为拥有不同方向类别的指纹块分别学习一个更为可靠的字典,使得学习到的分类字典拥有更可靠的脊线模式信息。块质量分级机制和复合窗口策略不仅有助于频谱扩散,改善低质量块的频谱质量,而且使得多尺度分类字典能够成功应用,克服了增强准确性和抗噪性之间的矛盾,使得块增强结果更具稳定性和可靠性,显著提升了低质量指纹图像的增强质量。  相似文献   

6.
针对脑部磁共振图像中白质、灰质和脑脊液的分割精度问题,提出一种融合稀疏表示和字典学习的图像分割方法。首先,利用基于块的输入数据来训练过完备字典;然后,根据学习到的字典获得最优稀疏表示的高维特征;最后,结合每个像素局部和非局部重构误差实现分割。在模拟和真实图像数据库上的实验结果表明,该方法能利用带有距离因子和稀疏因子的公式准确分割MR图像,在稳定性方面优于其他MR分割方法。  相似文献   

7.
小波域中双稀疏的单幅图像超分辨   总被引:1,自引:1,他引:0       下载免费PDF全文
目的 过去几年,基于稀疏表示的单幅图像超分辨获得了广泛的研究,提出了一种小波域中双稀疏的图像超分辨方法。方法 由小波域中高频图像的稀疏性及高频图像块在空间冗余字典下表示系数的稀疏性,建立了双稀疏的超分辨模型,恢复出高分辨率图像的细节系数;然后利用小波的多尺度性及低分辨率图像可作为高分辨率图像低频系数的逼近的假设,超分辨图像由低分辨率图像的小波分解和估计的高分辨率图像的高频系数经过二层逆小波变换来重构。结果 通过大量的实验发现,双稀疏的方法不仅较好地恢复了图像的局部纹理与边缘,且在噪声图像的超分辨上也获得了不错的效果。结论 与现在流行的使用稀疏表示的超分辨方法相比,双稀疏的方法对噪声图像的超分辨效果更好,且计算复杂度减小。  相似文献   

8.
目的 针对目前基于稀疏表示的超分辨率重建算法中对字典原子的选取效率低、图像重建效果欠佳的问题,本文提出了核方法与一种高效的字典原子相关度筛选方法相融合的图像超分辨重建算法,充分利用字典原子与图像的相关度,选用对重建的贡献最大的原子来提高重建的效率和效果。方法 首先,通过预处理高分辨率图像得到高、低分辨率图像样本集,再用字典学习得到高、低分辨率字典对;然后,对字典原子进行非相关处理提高字典原子的表达能力;此后,再利用低分辨率字典,引入核方法和字典原子筛选方法进行稀疏表示,设置阈值筛选高相关原子,低相关度原子对重建贡献度低,在迭代过程中耗费计算量,所以舍去低相关原子,再对普通原子进行正则化处理后加入支撑集,处理后的字典原子对于重建具有很好的表达能力;最后,利用处理后的字典原子对低分辨率图求解稀疏表示问题得到稀疏表示系数,结合高分辨率字典重建出高分辨率图像。结果 实验通过与其他学习算法对比,得到结构相似度(SSIM)、峰值信噪比(PSNR)以及重建时间的结果。实验结果表明:本文方法与对比方法相比,图像重建时间提高了22.2%;图像结构相似度提高了9.06%;峰值信噪比提高了2.30 dB。原有的基于字典学习的方法对于字典选取具有一定的盲目性,所选取的原子与重建图像相关度较低,使重建效果差,本文方法获得的字典原子可以减少稀疏表示过程的时耗,同时提高稀疏表示的精度。引入核方法,改善经典算法中对原子选取的低精度问题,经实验证明,本方法能有效提高重建算法性能。结论 实验结果表明,图像的稀疏表示过程的重建时间明显减少,重建效果也有一定的提高,并且在训练样本较少的情况下同样有良好的重建效率和效果,适合在实际中使用。  相似文献   

9.
目的 肾脏图像分割对于肾脏疾病的诊断有着重要意义,临床上通过测量肾皮质的体积和厚度可判断肾脏是否有肿瘤、慢性动脉硬化性肾病和肾移植急性排斥反应等。现有的肾脏分割算法大多针对一种模态,且只能分割出肾脏整体。本文提出一种基于全卷积网络和GrowCut的肾皮质自动分割算法,用于多模态肾脏图像分割。方法 首先用广义霍夫变换对肾脏进行检测,提取出感兴趣区域,通过数据增强扩充带标签数据;然后用VGG-16预训练模型进行迁移学习,构建适用于肾皮质分割的全卷积网络,设置网络训练参数,使用扩充数据训练网络。最后用全卷积网络分割图像,提取最后一层卷积层的特征图得到种子点标记,结合肾脏图像的先验知识纠正错误种子点,将该标记图作为GrowCut初始种子点可实现肾皮质准确分割。结果 实验数据为30组临床CT和MRI图像,其中一组有标记的CT图像用于训练网络并测试算法分割准确性,该文算法分割准确率IU(region intersection over union)和DSC(Dice similarity coefficient)分别达到91.06%±2.34%和91.79%±2.39%。与全卷积网络FCN-32s相比,本文提出的网络参数减少,准确率更高,可实现肾皮质分割。GrowCut算法考虑像素间的邻域信息,与全卷积网络结合可进一步将分割准确率提高3%。结论 该方法可准确分割多模态肾脏图像,包括正常和变异肾脏的图像,说明该方法优于主流方法,能够为临床诊断提供可靠依据。  相似文献   

10.
目的 针对基于稀疏编码的医学图像融合方法存在的细节保存能力不足的问题,提出了一种基于卷积稀疏表示双重字典学习与自适应脉冲耦合神经网络(PCNN)的多模态医学图像融合方法。方法 首先通过已配准的训练图像去学习卷积稀疏与卷积低秩子字典,在两个字典下使用交替方向乘子法(ADMM)求得其卷积稀疏表示系数与卷积低秩表示系数,通过与对应的字典重构得到卷积稀疏与卷积低秩分量;然后利用改进的的拉普拉斯能量和(NSML)以及空间频率和(NMSF)去激励PCNN分别对卷积稀疏与卷积低秩分量进行融合;最后将融合后的卷积稀疏与卷积低秩分量进行组合得到最终的融合图像。结果 对灰度图像与彩色图像进行实验仿真并与其他融合方法进行比较,实验结果表明,所提出的融合方法在客观评估和视觉质量方面明显优于对比的6种方法,在4种指标上都有最优的表现;与6种多模态图像融合方法相比,3组实验平均标准差分别提高了7%、10%、5.2%;平均互信息分别提高了33.4%、10.9%、11.3%;平均空间频率分别提高了8.2%、9.6%、5.6%;平均边缘评价因子分别提高了16.9%、20.7%、21.6%。结论 与其他稀疏表示方法相比,有效提高了多模态医学图像融合的质量,更好地保留了源图像的细节信息,使融合图像的信息更加丰富,符合人眼的视觉特性,有效地辅助医生进行疾病诊断。  相似文献   

11.
Yang  Xinbo  Zhang  Yan 《Multimedia Tools and Applications》2021,80(11):16537-16547

Multi-atlas segmentation is widely accepted as an essential image segmentation approach. Through leveraging on the information from the atlases instead of utilizing the model-based segmentation techniques, the multi-atlas segmentation could significantly enhance the accuracy of segmentation. However, label fusion, which plays an important role for multi-atlas segmentation still remains the primary challenge. Bearing this in mind, a deep learning-based approach is presented through integrating feature extraction and label fusion. The proposed deep learning architecture consists of two independent channels composing of continuous convolutional layers. To evaluate the performance our approach, we conducted comparison experiments between state-of-the-art techniques and the proposed approach on publicly available datasets. Experimental results demonstrate that the accuracy of the proposed approach outperforms state-of-the-art techniques both in efficiency and effectiveness.

  相似文献   

12.
Sparse representation is a mathematical model for data representation that has proved to be a powerful tool for solving problems in various fields such as pattern recognition, machine learning, and computer vision. As one of the building blocks of the sparse representation method, dictionary learning plays an important role in the minimization of the reconstruction error between the original signal and its sparse representation in the space of the learned dictionary. Although using training samples directly as dictionary bases can achieve good performance, the main drawback of this method is that it may result in a very large and inefficient dictionary due to noisy training instances. To obtain a smaller and more representative dictionary, in this paper, we propose an approach called Laplacian sparse dictionary (LSD) learning. Our method is based on manifold learning and double sparsity. We incorporate the Laplacian weighted graph in the sparse representation model and impose the l1-norm sparsity on the dictionary. An LSD is a sparse overcomplete dictionary that can preserve the intrinsic structure of the data and learn a smaller dictionary for each class. The learned LSD can be easily integrated into a classification framework based on sparse representation. We compare the proposed method with other methods using three benchmark-controlled face image databases, Extended Yale B, ORL, and AR, and one uncontrolled person image dataset, i-LIDS-MA. Results show the advantages of the proposed LSD algorithm over state-of-the-art sparse representation based classification methods.  相似文献   

13.
Multi-atlas segmentation has emerged in recent years as a simple yet powerful approach in medical image segmentation. It commonly comprises two steps: (1) a series of pairwise registrations that establish correspondences between a query image and a number of atlases, and (2) the fusion of the available segmentation hypotheses towards labeling objects of interest. In this paper, we introduce a novel approach that solves simultaneously for the underlying segmentation labels and the multi-atlas registration. The proposed approach is formulated as a pairwise Markov Random Field, where registration and segmentation nodes are coupled towards simultaneously recovering all atlas deformations and labeling the query image. The coupling is achieved by promoting the consistency between selected deformed atlas segmentations and the estimated query segmentation. Additional membership fields are estimated, determining the participation of each atlas in labeling each voxel. Inference is performed by using a sequential relaxation scheme. The proposed approach is validated on the IBSR dataset and is compared against standard post-registration label fusion strategies. Promising results demonstrate the potential of our method.  相似文献   

14.
The employed dictionary plays an important role in sparse representation or sparse coding based image reconstruction and classification, while learning dictionaries from the training data has led to state-of-the-art results in image classification tasks. However, many dictionary learning models exploit only the discriminative information in either the representation coefficients or the representation residual, which limits their performance. In this paper we present a novel dictionary learning method based on the Fisher discrimination criterion. A structured dictionary, whose atoms have correspondences to the subject class labels, is learned, with which not only the representation residual can be used to distinguish different classes, but also the representation coefficients have small within-class scatter and big between-class scatter. The classification scheme associated with the proposed Fisher discrimination dictionary learning (FDDL) model is consequently presented by exploiting the discriminative information in both the representation residual and the representation coefficients. The proposed FDDL model is extensively evaluated on various image datasets, and it shows superior performance to many state-of-the-art dictionary learning methods in a variety of classification tasks.  相似文献   

15.
稀疏编码中的字典学习在稀疏表示的图像识别中扮演着重要的作用。由于Gabor特征对表情、光照和姿态等变化具有一定的鲁棒性,提出一种基于Gabor特征和支持向量引导字典学习(GSVGDL)的稀疏表示人脸识别算法。先提取图像的Gabor特征,然后用增广Gabor特征矩阵来构造初始字典。字典学习模型中综合了重构误差项、判别项和正则化项,判别项公式化定义为所有编码向量对平方距离的加权总和;通过字典学习同时得到字典原子与类别标签相对应的结构化字典和线性分类器。该字典学习方法能够自适应地为不同的编码向量对分配不同的权值,提高了字典的判别性能。实验结果表明该方法具有很好的识别精度和较高的识别效率。  相似文献   

16.
主动脉图像自动分割技术在主动脉疾病的早期诊断、风险评估及手术治疗中发挥重要作用。本文采用了基于多图谱的医学图像分割技术,并将之与联合标签融合(Joint label fusion,JLF)策略相结合应用于3D主动脉CT图像的自动分割问题中。联合标签融合策略考虑了各个图谱之间的相互关系,能够有效抑制图谱间冗余信息的干扰,进而提高标签融合精度。本文提出了一种图谱更新算法以应对图谱数量不足的问题,在提高分割精度的同时,保持了较低的计算复杂度。在15例主动脉CT图像数据上的分割结果表明,本文方法能有效地对3D主动脉图像进行分割,与3种基于传统融合方式的图谱分割法相比,本文方法具有更高的分割精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号