首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 468 毫秒
1.
传统的多尺度特征计算都是首先构造不同尺度的图像形成图像金字塔,然后在金字塔每一层上通过滑动窗口 的办法提取相应的特征,实验表明在目标检测时特征提取消耗大量时间,改善特征提取的速度是提升目标检测速度的关键。 本文使用FFC(Fast Feature Computation)计算方法对多尺度图像特征进行快速提取,同时结合Adaboost 算法和多特征融合方法 用于行人目标检测,实验结果表明效果较好。  相似文献   

2.
针对通用目标检测算法在检测航空影像目标所表现的性能缺陷,提出一种改进Mask R-CNN算法用于航空影像的目标检测。该算法增加图像融合网络,将可见光图像与红外图像进行融合,消除目标被阴影遮蔽对检测造成的影响;同时改进了特征金字塔结构,使特征提取过程中的高层语义特征和低层定位信息得到充分融合,各尺度目标的检测精度得到提升;为解决小目标检测精度低和定位难度高的问题,该算法采用新型区域建议网络SD-RPN,在不同深度的卷积层设置合理大小的滑动窗口,用以检测不同尺度类型目标,使建议区域更加精准。实验结果表明,相比较主流检测算法,该算法在VEDAI数据集上表现出色,检测精度提升较大,尤其是小目标检测的精度提升显著。  相似文献   

3.
顾会建  陈俊周 《计算机应用》2014,34(7):2033-2035
近年来多尺度行人检测在计算机视觉领域受到广泛关注。传统方法需对图像缩放,在不同尺度计算特征,大大降低了行人检测的速度。颜色自相似特征(CSSF)被提出以克服此不足。针对颜色自相似度特征具有维度高和分类器训练时间长等问题,提出一种改进的颜色自相似度特征。改进的颜色自相似度特征结合行人结构相似度,首先定义了固定尺寸的窗口,然后在不同的颜色空间滑动固定大小的窗口进行特征提取,最后结合自适应增强(AdaBoost)算法构建行人检测分类器。实验结果显示:相对于传统颜色自相似度特征的千万级维度,新的特征只有几千维,特征提取速度和分类器训练速度显著提高,检测效果略有下降;与梯度方向直方图特征(HOG)相比,特征提取速度提高5倍,检测效果基本不变,新的方法在实时行人检测和监控系统中有很好的应用价值。  相似文献   

4.
针对安检X光图像检测中的违禁品尺度差异问题,对Faster RCNN网络进行改进,提出一种基于多通道区域建议网络(muiti-channel region proposal network,MCRPN)。考虑到不同层卷积特征在视觉语义上的互补性,进行多层特征提取,融合VGG16高层较丰富的语义特征和低层较浅的边缘特征;修改多通道RPN中的锚框参数,将生成的多尺度候选目标区域分别映射到对应的特征图上,构建多尺度违禁品检测网络;在多通道上引入膨胀卷积,设计一种多分支膨胀卷积模块(dilated convolutions module,DCM),增大感受野,增强不同尺度的特征。将改进的算法在自制数据集SIXray_OD上进行实验,检测的平均精度达到84.69%,测性能较原网络提高了6.28%。实验结果表明,改进算法的识别精度有一定提高。  相似文献   

5.
目的 目标语义特征提取效果直接影响图像语义分割的精度,传统的单尺度特征提取方法对目标的语义分割精度较低,为此,提出一种基于多尺度特征融合的工件目标语义分割方法,利用卷积神经网络提取目标的多尺度局部特征语义信息,并将不同尺度的语义信息进行像素融合,使神经网络充分捕获图像中的上下文信息,获得更好的特征表示,有效实现工件目标的语义分割。方法 使用常用的多类工件图像定义视觉任务,利用残差网络模块获得目标的单尺度语义特征图,再结合本文提出的多尺度特征提取方式获得不同尺度的局部特征语义信息,通过信息融合获得目标分割图。使用上述方法经多次迭代训练后得到与视觉任务相关的工件目标分割模型,并对训练权重与超参数进行保存。结果 将本文方法和传统的单尺度特征提取方法做定性和定量的测试实验,结果表明,获得的分割网络模型对测试集中的目标都具有较精确的分割能力,与单尺度特征提取方法相比,本文方法的平均交并比mIOU(mean intersection over union)指标在验证集上训练精度提高了4.52%,在测试集上分割精度提高了4.84%。当测试样本中包含的目标种类较少且目标边缘清晰时,本文方法能够得到更精准的分割结果。结论 本文提出的语义分割方法,通过多尺度特征融合的方式增强了神经网络模型对目标特征的提取能力,使训练得到的分割网络模型比传统的单尺度特征提取方式在测试集上具有更优秀的性能,从而验证了所提出方法的有效性。  相似文献   

6.
李林  张丽红 《计算机应用》2012,32(Z2):168-170,202
行人检测是计算机视觉中重要而有挑战的研究方向。为了提高识别精度,提出了一种更有效的特征提取方法,这个方法的特点是提取梯度方向直方图(HOG)特征时能够获得更多的梯度信息,从而更好地生成表征在更大范围内的图像中或者检测窗口中人体细节的特征描述算子;利用线性核函数(LINEAR)的支持向量机(SVM)和HOG训练得到的行人检测分类器,再采取多尺度检测技术和非极大值抑制能够精确定位行人在图像中的位置。实验结果表明,该行人检测系统检测精度较高。  相似文献   

7.
针对车道检测的准确性和实时性之间不平衡的问题,构建一个基于Lanenet算法和图像增强技术的多车道线检测网络,旨在更全面地利用图像中的特征信息,提高检测精度和速度。使用多尺度Retinex算法对输入图像进行色彩增强、降噪等;设计采用一种双边多尺度融合网络实现浅层特征与深层特征之间的信息交互,获取上下文语义。提出一个新的非对称卷积金字塔模块,将非对称卷积融合到不同扩张率的空洞卷积层中,提高网络的特征提取能力,减少计算量。实验结果表明,该方法与现有的深度学习算法相比,能够在遮挡和阴影条件下更有效地检测车道线,具有更高的精度,更低的误检率和漏检率。  相似文献   

8.
现有图像去雾方法在网络训练时没有考虑去雾后的图像是否满足人类视觉感知;其次以编解码结构为主要结构的去雾网络,不可避免丢失细节信息,去雾后的图像存在纹理模糊、颜色失真等问题。针对上述问题,提出了一个基于感知监督和多层次特征融合的图像去雾网络。在网络结构中设计了不同层次的特征融合模块。在编码阶段设计分辨率层次特征复用与融合模块,更好地提取不同尺度下表达能力更强的特征,为重建高质量图像提供更多细节信息;特征转换阶段设计空间上下文层次特征提取与融合模块,提取与融合不同感受野的空间上下文的特征,以提供更加精准的图像结构信息;解码阶段设计自适应特征融合模块,自适应地融合下采样阶段生成的不同分辨率层次的特征及特征转换阶段输出的不同空间上下文层次的特征;其次在训练阶段的损失函数中引入感知损失和多尺度结构相似度损失,引导网络学习更多的视觉感知属性。与当前主流方法相比较,该方法在定量和定性指标得到明显提升的同时提高了对去雾图像的视觉效果。实验结果表明在RESIDE合成数据集以及真实有雾图像上取得显著的去雾效果。  相似文献   

9.
针对地理空间遥感图像中检测目标存在多尺度特性、形态多变以及小目标判别特征过少等造成检测识别精度不高的问题,提出了基于多尺度下遥感小目标多头注意力检测算法YOLO-StrVB。对网络结构进行重构,搭建多尺度网络模型,增加目标检测层,提高特征提取网络下遥感小目标模型不同尺度下的检测能力;加入双向特征金字塔网络(Bi-FPN)进行多尺度特征融合,提高双向跨尺度连接和加权特征融合;在YOLOv5网络末端融合Swin Transformer多头注意力机制块,提升感受野适应目标识别任务的多尺度融合关系,优化主干网络;使用Varifocal loss对网络进行训练,提升遥感密集检测小目标的存在置信度和定位精度,并选用CIoU作为边界框回归的损失函数,提高感知分类得分(IACS)的边框回归精度。通过在遥感目标数据集NWPU VHR-10上的实验验证,对比YOLOv5原模型的mAP提高了3.05个百分点,能有效提高小目标的检测精度,达到了对地理空间遥感图像中小目标检测的鲁棒性。  相似文献   

10.
针对遥感图像目标检测任务中存在的目标尺度差异大、检测精度低等问题,提出了一种基于加权策略的改进YOLOv3遥感图像目标检测模型。为提高对遥感图像中小目标的检测精度,增加具有较小感受野的特征图像的检测分支。设计了一种多尺度特征图像自适应加权融合方法,通过挖掘特征提取网络的表征能力,综合利用多尺度特征提高了目标检测精度。采用DIOR数据集的4类目标构建了一个新的遥感图像目标检测数据集,并进行了改进模型的训练与测试。实验结果表明,改进后的模型取得了80.25%的平均精度均值(mean Average Precision,mAP),相比于改进前提高了8.2%。将训练模型对RSOD、UCAS-AOD、NWPU VHR-10数据集进行测试,验证了改进模型具有较好的适应性。  相似文献   

11.
We describe a method for player detection in field sports with a fixed camera setup based on a new player feature extraction strategy. The proposed method detects players in static images with a sliding window technique. First, we compute a binary edge image and then the detector window is shifted over the edge regions. Given a set of binary edges in a sliding window, we introduce and solve a particular diffusion equation to generate a shape information image. The proposed diffusion to generate a shape information image is the key stage and the main theoretical contribution in our new algorithm. It removes the appearance variations of an object while preserving the shape information. It also enables the use of polar and Fourier transforms in the next stage to achieve scale- and rotation-invariant feature extraction. A support vector machine classifier is used to assign either player or non-player class inside a detector window. We evaluate our approach on three different field hockey datasets. In general, results show that the proposed feature extraction is effective and performs competitive results compared to the state-of-the-art methods.  相似文献   

12.
针对现有疲劳监测方法仅根据单帧图像嘴巴形态进行哈欠识别准确率低,采用阈值法分析眨眼参数适应性较差,无法对疲劳状态的过渡进行实时监测等问题,提出一种新的进行精神疲劳实时监测的多面部特征时序分类模型.首先,通过面部视觉特征提取张口度曲线与虹膜似圆比曲线;然后,采用滑动窗口分段、隐马尔可夫模型(HMM)建模等方法在张口度曲线的基础上构建哈欠特征时序并进行类别标记,在虹膜似圆比曲线的基础上构建眨眼持续时间时序并进行类别标记;最后,在HMM的基础上增加时间戳,以便自适应地选取时序初始时刻点并进行多个特征时序的同步与标记结果的融合.实验结果表明,本文模型可降低哈欠误判率,对不同年龄的人群眨眼具有很好的适应性,并可实现对精神疲劳过渡状态的实时监测.  相似文献   

13.
针对HOG特征本身不具有尺度不变性,在实际应用中仅能检测出与样本图片大小相差不大的目标对象这一弊端,提出多尺度窗口融合的头部检测的方法;利用线性支持向量机在分类决策方面的优势,与提取的HOG特征结合作分类器的离线训练;在实时的目标检测阶段,采用高斯金字塔式缩放对输入的视频序列作多尺度处理,得到对应的不同分辨率下的待检测帧,在不同的尺度空间作人头的扫描检测并存储结果;之后融合各尺度的检测结果并在相应位置决策标定;实验对某监控视频作检测分析,结果表明,该方法在检出率、召回率、准确度等方面均有较大提升。  相似文献   

14.
针对大多数基于深度卷积网络的人脸检测方法存在因模型参数和计算量大造成的检测速度慢,以及复杂场景下人脸检测准确率低的问题,提出一种基于多特征融合的轻量化无锚人脸检测方法。构造轻量化卷积神经网络作为特征提取的骨干网络,以加速网络计算过程;引入三种模块处理并融合特征层,包括:感受野增强模块强化图片信息提取、权重特征融合模块提升检测准确性以及通道混洗融合模块简化计算过程;使用中心点定位的无锚检测方法对融合后的特征进行预测。实验结果显示,该方法模型参数量仅为5.1?MB,对比该基准方法,在WIDERFACE验证集中的简单、中等和困难难度的检测准确率分别提升1.4、2.2和4.8个百分点,表明该方法在保证模型轻量化的同时对复杂场景人脸有着较高的检测精度,验证了所提方法的有效性。  相似文献   

15.
为提升人体姿态估计在移动终端设备上的运行速度与实时性,提出一种改进的人体关键点检测算法。通过将MobileNetV2轻量级主干网络与深度可分离卷积模块相结合加速特征提取过程,使用精炼网络进行多尺度人体关键点预测,并利用融合网络整合多个尺度的预测结果得到最终人体关键点检测结果。实验结果表明,与传统CPM算法相比,该算法在网络模型参数量和浮点运算量明显减少的情况下PCKh@0.5仅下降0.1个百分点,具有较高的检测精度和较好的实时性。  相似文献   

16.
A novel methodology based on multiscale spectral and spatial information fusion using wavelet transform is proposed in order to classify very high resolution (VHR) satellite imagery. Conventional wavelet‐based feature extraction methods employ single windows of a fixed size, which are not satisfactory as the VHR imagery contains complex and multiscale objects. In this paper, spectral and spatial features are extracted based on a set of concentric windows around a central pixel in order to integrate the information across different windows/scales. The proposed method is made up of three blocks: (1) the conventional wavelet‐based feature extraction methods are extended from single band processing to multispectral bands, and from single window to multi‐windows, (2) two multiscale fusion algorithms are proposed to exploit the multiscale spectral and spatial information and (3) a support vector machine (SVM), a relatively new method of machine learning, is used to classify the multiscale spectral–spatial feature sets. The proposed classification method is evaluated on two VHR datasets and the results show that the multiscale approach can improve the classification accuracy in homogeneous areas while simultaneously preserving accuracy in edge regions.  相似文献   

17.
为解决自动织物瑕疵检测算法中,未知花色织物瑕疵检测困难的问题,提出了一种基于特征残差的色织物瑕疵检测方法.首先使用瑕疵织物图像与模板织物图像的瑕疵残差和正常无标注织物图像进行融合,生成新花色瑕疵织物样本;然后改进特征提取网络采用共享权值方法,对瑕疵织物和模板织物提取特征后计算得到特征残差;最后使用ROIAlign方法将全局上下文信息缩放到和感兴趣区域统一大小后进行特征融合,对融合特征进行瑕疵分类和位置回归.实验针对不包含未知花色和包含未知花色的不同测试集分别进行算法测试实验,结果表明改进后的算法能够较好地消除织物花色对检测结果的影响,在不包含未知花色的测试集中精度得到了较大的提升,在包含未知花色的测试集中,瑕疵检测效果依旧保持不错的精度,相较于改进前的通用算法,最终score分别提升了15.4%和16.2%.  相似文献   

18.
SSD (Single Shot multi-box Detector)算法是在不同层的特征图上,进行多尺度对象的检测,具有速度快和精度高的特点.但是,传统SSD算法的特征金字塔检测方法很难融合不同尺度的特征,并且由于底层的卷积神经网络层具有较弱的语义信息,也不利于小物体的识别,因此本论文提出了以SSD算法的网络结构为基础的一种新颖的目标检测算法RF_SSD,该算法将不同层及不同尺度的特征图以轻量级的方式相融合,下采样层生成新的特征图,通过引入感受野模块,提高网络的特征提取能力,增强特征的表征能力和鲁棒性.和传统SSD算法相比,本文算法在精度上有明显提升,同时充分保证了目标检测的实时性.实验结果表明,在PASCAL VOC测试集上测试,准确率为80.2%,检测速度为44.5 FPS.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号