首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 945 毫秒
1.
针对现有超分辨率重建方法存在重建的高分辨率图像具有边缘结构不清晰、高频信息提升有限的问题,提出了一种结合迭代反投影(iterative back-projection,IBP)与限制对比度自适应直方图均衡化(contrast limited adaptive histogram equalization,CLAHE)的遥感图像超分辨率重建方法。通过结合迭代反投影与限制对比度自适应直方图均衡的超分辨率重建方法重建高分辨率遥感影像,增加重建图像的纹理细节信息,并利用灰度信息与梯度特征的能量优化模型对重建图像进行优化处理。本文以不同地貌类型遥感图像为实验数据。实验结果表明,该重建方法与经典迭代反投影方法相比,纹理细节丰富,边缘结构清晰,与非局部迭代反投影(nonlocal iterative back-projection,NLIBP)相比,客观质量评价指标均有明显改善,验证了该方法具有较好的普适性与鲁棒性。  相似文献   

2.
欧阳宁  梁婷  林乐平 《计算机应用》2019,39(8):2391-2395
针对图像超分辨率重建中纹理细节等高频信息恢复的问题,提出一种基于自注意力网络的图像超分辨率重建方法。该网络框架利用两个重建阶段逐步地将图像的精确度从粗到细进行恢复。在第一阶段中,首先将低分辨率(LR)图像作为输入通过一个卷积神经网络(CNN),并输出一个粗精度的高分辨率(HR)图像;然后将粗精度图像作为输入并产生更加精细的高分辨率图像。在第二阶段中,使用自注意力模块计算特征之间所有位置的关联性,通过捕捉特征的全局依赖关系来提高纹理细节的恢复能力。在基准数据集上的实验结果表明,与现有基于深度神经网路的超分辨率重建算法相比,所提算法不仅图像视觉效果最好,而且在数据集Set5和BDSD100上的峰值信噪比(PSNR)平均提高了0.1 dB、0.15 dB,表明该网络可以通过增强特征的全局表达能力来重建出高质量图像。  相似文献   

3.
耿丹丹  王婷婷  曹蕾  张煜 《计算机应用》2015,35(4):1120-1123
针对肺四维计算机断层摄影(4D-CT)数据获取时辐射剂量高的缺点,提出了一种基于弹性配准的肺4D-CT中间相位图像重建方法,利用已知的两个特殊呼吸相位图像,重建出其他中间呼吸相位图像。其具体过程是:选择呼吸周期内的两个相位图像分别作为参考图像和浮动图像,首先用Active Demons配准方法估计出两个相位图像间的运动位移场;然后根据呼吸运动过程的线性假设,相应地求出浮动图像到中间相位图像的运动位移,继而重建出中间相位图像。实验结果表明,重建出的中间相位图像不仅在视觉上与真实图像非常接近,而且用标记点方法量化评价的平均误差也在3 mm内。所提基于弹性配准的重建方法能较准确地重建出肺4D-CT中间相位图像。  相似文献   

4.
端木春江  沈碧婷 《计算机应用研究》2020,37(12):3792-3794,3802
为了提高医学图像的分辨率,提出一种基于内部样例的邻域回归的超分辨率方法。首先,把输入的低分辨率图像当做高分辨率图像去构造基于自身实例的内部图像训练集,不再依赖外部训练集;然后,把高分辨率重建分成高频重建和低频重建,用邻域回归方法重建图像高频细节部分,用双三次插值方法重建低频部分;最后,用迭代组合的方法联合高频分量和低频分量来获得最终输出的高分辨率图像。实验结果表明,该方法性能优于传统的超分辨率重建算法,重建出的医学图像视觉效果更真实。  相似文献   

5.
随着数码相机、手机等电子设备的普及,每天都会产生大量的图像,但通常这些图像的分辨率比较低。针对单幅图像超分辨率(Single Image Super-Resolution,SISR)方法性能较低的问题,提出一种基于残差密集网络的单幅图像超分辨率重建方法。将浅层的卷积特征输入到残差密集块,获得全局和局部的特征;对图像进行超分辨率重建,得到清晰的高分辨率图像。为了验证该方法的有效性,在四个公共的数据集Set5、Set14、B100和Urban10上进行了定性和定量的实验。实验结果表明,该方法能够更好地恢复出高分辨率的图像。  相似文献   

6.
单张图像超分辨率重建受到多对一映射的困扰.对于给定的低分辨率图像块,存在若干高分辨率图像块与之对应.基于学习的方法受此影响,学习到的逆映射规则只能预测这些高分辨率图像块的均值,从而产生视觉上模糊的超分辨率重建结果.为了克服歧义性造成的高频细节损失,本文提出了一种基于深度网络,利用在线检索的数据进行高频信息补偿的图像超分辨率重建算法.该方法构建一个深度网络,通过三个分支预测高分辨率重建结果:一条旁路直接将输入的低分辨率图像输入到网络的最后一层;一条内部高频信息重建路径基于低分辨率图像回归预测高分辨率图像,重建高分辨率图像的主要结构;另一条外部高频信息补偿路径根据内部重建的结果,从在线检索到的相似图像中提取高频细节,对内部重建的重建结果进行细节补偿.在第二条路径中,为了有效提取高频信号并使之适应于内部重建的重建结构,本文在多层特征的测量和约束下,进行高频细节迁移.相比于之前基于云数据库的传统图像超分辨率方法,本文提出的方法是端对端可训练的(end-to-end trainable),因此通过在大数据上进行学习,方法能同时建模内部重建和外部补偿,并能自动权衡两者利弊而给出最优的重建结果.图像超分辨率重建的实验结果表明,相比于最新的超分辨率算法,本文方法在主客观评价中均取得了更加优越的性能.  相似文献   

7.
《计算机工程》2017,(5):255-260
针对图像重建过程中待插值点灰度估计不准确的问题,提出一种基于邻域特征学习的单幅图像超分辨回归分析方法。在输入低分辨率图像后,利用图像特征从低分辨率图像及其对应高分辨率图像的几何相似结构中学习局部协方差。对于邻域中的每一个图像块,估计4个方向的方差以适应插值像素。实验结果表明,该方法既能保证重建的高分辨率图像均匀区域的一致性,同时也能完整保留图像细节信息和边缘轮廓。  相似文献   

8.
在低分辨率图像序列的超分辨率重建过程中,如何由配准后的视频序列构造出高分辨率图像对重建结果起着至关重要的作用,而现有算法只是采取了求均值的方法,这就削弱了细节信息。新算法根据运动估计的位移对低分辨率序列进行分类,在各类内根据重叠区域再进行分类,然后采用基于方向信息测度的方法进行数据融合,最后输出高分辨率图像。试验表明提出的算法简单、有效,增强了超分辨率算法的信息搜集能力。  相似文献   

9.
图像超分辨率重建即使用特定算法将同一场景中的低分辨率模糊图像恢复成高分辨率图像。近年来,随着深度学习的蓬勃发展,该技术在很多领域都得到了广泛的应用,在图像超分辨率重建领域中基于深度学习的方法被研究的越来越多。为了掌握当前基于深度学习的图像超分辨率重建算法的发展状况和研究趋势,对目前图像超分辨率的流行算法进行综述。主要从现有单幅图像超分辨算法的网络模型结构、尺度放大方法和损失函数三个方面进行详细论述,分析各类方法的缺陷和益处,同时通过实验对比分析不同网络模型、不同损失函数在主流数据集上的重建效果,最后展望基于深度学习的单幅图像超分辨重建算法未来的发展方向。  相似文献   

10.
一种空间自适应正则化MAP超分辨率重建算法   总被引:1,自引:0,他引:1  
提出一种简单、通用的基于正则化技术的自适应MAP超分辨率重建算法。与以往算法不同,该方法引入了局部空间自适应正则化参数,弥补了传统算法对图像自身的局部特性缺乏考虑的不足。算法通过迭代的方式,利用中间重建结果不断对正则化参数进行更新,并最终得到重建图像。实验结果表明,该方法可以根据不同图像序列的特点以及图像的局部灰度特性,自适应地确定相应的正则化参数,并找到最优解,有效地保护了高分辨率图像的细节信息。  相似文献   

11.
在很多信息处理任务中,人们容易获得大量的无标签样本,但对样本进行标注是非常费时和费力的。作为机器学习领域中一种重要的学习方法,主动学习通过选择最有信息量的样本进行标注,减少了人工标注的代价。然而,现有的大多数主动学习算法都是基于分类器的监督学习方法,这类算法并不适用于无任何标签信息的样本选择。针对这个问题,借鉴最优实验设计的算法思想,结合自适应稀疏邻域重构理论,提出基于自适应稀疏邻域重构的主动学习算法。该算法可以根据数据集各区域的不同分布自适应地选择邻域规模,同步完成邻域点的搜寻和重构系数的计算,能在无任何标签信息的情况下较好地选择最能代表样本集分布结构的样本。基于人工合成数据集和真实数据集的实验表明,在同等标注代价下,基于自适应稀疏邻域重构的主动学习算法在分类精度和鲁棒性上具有较高的性能。  相似文献   

12.
基于语义分割的图像掩膜方法常用来解决静态场景三维重建任务中运动物体的干扰问题,然而利用掩膜成功剔除运动物体的同时会产生少量无效特征点.针对此问题,提出一种在特征点维度的运动目标剔除方法,利用卷积神经网络获取运动目标信息,并构建特征点过滤模块,使用运动目标信息过滤更新特征点列表,实现运动目标的完全剔除.通过采用地面图像和航拍图像两种数据集以及DeepLabV3、YOLOv4两种图像处理算法对所提方法进行验证,结果表明特征点维度的三维重建运动目标剔除方法可以完全剔除运动目标,不产生额外的无效特征点,且相较于图像掩膜方法平均缩短13.36%的点云生成时间,减小9.93%的重投影误差.  相似文献   

13.
ABSTRACT

This study proposes a curve fitting approach for classification problems. The different classification data sets are utilized to test and evaluate the suggested method. For tested classification problems, the Gaussian curve fitting models are used. In the curve fitting stage, the number of curves equals the number of attributes in the related classification problem. For example, there are 4 attributes for iris dataset, thus four Gaussian curves are fitted for this problem. Then, output values of these fitted curves are calculated to average values, and this average value is rounded to the nearest integers. The same procedure is applied to the other dataset with having different number of features. In optimization stage, for each of classification application, the optimum values of constants of Gaussian function are determined by using genetic algorithm. For all used classification dataset, a part of the set is used during the optimization phase, and then the proposed model is validated with the remainder of the dataset. Furthermore, the optimal valuesof each of the attributes in tested classification application are determined by optimization algorithm. It is a valuable property of the proposed method that the accuracy of high classification can be achieved with a low number of reference data by the stage of determination of optimal feature set. Simulation results show that proposed classification approach with optimum values of constants and optimal feature set based on curve fitting has high accuracy rate. The proposed approach can be used for different classification problems.  相似文献   

14.
One of the main characteristics of Internet era is the free and online availability of extremely large collections of images located on distributed and heterogeneous platforms over the web. The proliferation of millions of shared photographs spurred the emergence of new image retrieval techniques based not only on images’ visual information, but on geo-location tags and camera exif data. These huge visual collections provide a unique opportunity for cultural heritage documentation and 3D reconstruction. The main difficulty, however, is that the internet image datasets are unstructured containing many outliers. For this reason, in this paper a new content-based image filtering is proposed to discard image outliers that either confuse or significantly delay the followed e-documentation tools, such as 3D reconstruction of a cultural heritage object. The presented approach exploits and fuses two unsupervised clustering techniques: DBSCAN and spectral clustering. DBSCAN algorithm is used to remove outliers from the initially retrieved dataset and spectral clustering discriminate the noise free image dataset into different categories each representing characteristic geometric views of cultural heritage objects. To discard the image outliers, we consider images as points onto a multi-dimensional manifold and the multi-dimensional scaling algorithm is adopted to relate the space of the image distances with the space of Gram matrices through which we are able to compute the image coordinates. Finally, structure from motion is utilized for 3D reconstruction of cultural heritage landmarks. Evaluation on a dataset of about 31,000 cultural heritage images being retrieved from internet collections with many outliers indicate the robustness and cost effectiveness of the proposed method towards a reliable and just-in-time 3D reconstruction than existing state-of-the-art techniques.  相似文献   

15.
Community detection plays an important role in creation and transfer of information. Active learning has been employed recently to improve the performance of community detection techniques. Active learning provides a semi-automatic approach in a selective sampling of data. Based on this, a community trolling approach for topic based community detection in big data is proposed. Community trolling selectively samples the data relevant to the current context from polluted big data using active learning. Fine-tuned data is then used to study community and its sub-communities. Community trolling as a precursor to community detection leads to a reduction of the huge unreliable dataset into a reliable dataset and results in the better prediction of community elements such as important topics and important entities. Finally, the effectiveness of approach was evaluated by implementing it on a real world Tumbler dataset. The results illustrate that community trolling provides a richer dataset resulting in more appropriate communities.  相似文献   

16.
This paper presents an effective framework for the reconstruction of volumetric data from a sequence of 2D images. The 2D images are first aligned to generate an initial 3D volume, followed by the creation of a tetrahedral domain using the Carver algorithm. The resulting tetrahedralization preserves both the geometry and topology of the original dataset. Then a solid model is reconstructed using simplex splines with fitting and faring procedures. The reconstructed heterogenous volumetric model can be quantitatively analyzed and easily visualized. Our experiments demonstrated that our approach can achieve high accuracy in the data reconstruction. The novel techniques and algorithms proposed in this paper can be applied to reconstruct a heterogeneous solid model with complex geometry and topology from other visual data.  相似文献   

17.
目的 从影像中快速精准地分割出肺部解剖结构可以清晰直观地分辨各解剖结构间的关系,提供有效、客观的辅助诊断信息,大大提高医生的阅片效率并降低医生的工作量。随着影像分割算法的发展,越来越多的方法应用于分割肺部影像中感兴趣的解剖结构区域,但目前尚缺乏包含多种肺部精细解剖结构的影像数据集。本文创建了一个带标签的肺部CT/CTA (computer tomography/computer tomography angiography)影像数据集,以促进肺部解剖结构分割算法的发展。方法 该数据集共标记了67组肺部CT/CTA影像,包括CT影像24组、CTA影像43组,共计切片图像26 157幅。每组CT/CTA有4个不同的目标区域类别,标记对应支气管、肺实质、肺叶、肺动脉和肺静脉。结果 本文利用该数据集,用于肺部CT解剖结构分割医学影像挑战赛——2020年第四届国际图像计算与数字医学研讨会,该挑战赛提供了一个肺血管、支气管和肺实质的评估平台,通过Dice系数、过分割率、欠分割率、医学和算法行业专家对分割和3维重建效果进行了评估,目的是比较各种算法分割肺部解剖结构的性能。结论 本文详细描述了包括支气管、肺实质、肺叶、肺动脉和肺静脉等解剖结构标签的肺部影像数据集和应用结果,为相关研究人员利用本数据集进行更深入的研究提供参考。  相似文献   

18.
摘要为了解决XML查询的信息过载问题,提出了基于条件偏好的XML多查询结果排序方法。该方法把用户指定的内容查询谓词作为上下文条件,然后在原始XML数据和查询历史上利用概率信息检索模型推测当前用户偏好,评估结果元素中被查询指定的属性单元值与未指定的属性单元值之间的关联关系以及未指定的属性单元值与用户偏好之间的相关程度,进而构建查询结果元素打分函数;在此基础上,利用打分函数计算结果元素的排序分值,并以此对查询结果进行排序。实验结果表明,提出的排序方法具有较高的排序准确性,能够较好地满足用户需求和偏好。  相似文献   

19.
In this paper, we proposed a novel parallel method for extraction of significant information from spectrograms using MapReduce programming model for the audio-based surveillance system, which effectively recognizes critical acoustic events in the surrounding environment. Extraction of reliable information as features from spectrograms of big noisy audio event dataset demands high computational time. Parallelizing the feature extraction using MapReduce programming model on Hadoop improves the efficiency of the overall system. The acoustic events with real-time background noise from Mivia lab audio event data set are used for surveillance applications. The proposed approach is time efficient and achieves high performance of recognizing critical acoustic events with the average recognition rate of 96.5% in different noisy conditions.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号