首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
李水平  彭晓明 《计算机应用》2014,34(5):1453-1457
为了实现场景中三维目标与模型之间的匹配,提出了一种结合三维几何形状信息和二维纹理的三维目标匹配方法。首先提取场景中深度图像的尺度不变特征变换(SIFT)特征,用SIFT算法与三维模型重建时所用到的一系列2.5维深度图像进行一一匹配,找到与场景中目标姿态最为相似的深度图像,提取此深度图像的三维几何形状特征与模型进行匹配,实现模型的初始化,即将模型重置到与场景目标相接近的姿态。最后用融合二维纹理信息的迭代就近点(ICP)算法实现场景中目标与模型之间的匹配,从而得到场景中三维目标的准确姿态。实验结果验证了方法的可行性与精确性。  相似文献   

2.
针对目前基于深度学习的显著目标检测算法存在的目标完整性和区域平滑度的不足,基于非局部深度特征提出一种多尺度上下文信息增强的全卷积网络算法,包含多级别特征提取、多尺度上下文特征增强、对比度特征提取和局部-全局信息融合预测4个模块.首先从VGG16模型提取多级别局部特征,利用多尺度上下文实现特征信息增强;然后设计组合的损失函数进行网络训练以学习对比度特征;最后用局部-全局融合的方式实现显著图的预测.与已有算法在ECSSD,HKU-IS和DUT-OMRON数据集上进行实验的结果表明,该算法在复杂场景图像上的鲁棒性更好,对背景噪声具有更有效的抑制作用,得到的显著目标区域更加连续和完整.  相似文献   

3.
针对复杂场景下传统的视频抠像算法对目标物体与背景纹理相似或边界不清晰的图像分割困难的问题,提出了一种基于视觉传感器和激光雷达信息相融合的视频实时抠像算法。该算法从原始激光雷达点云数据中获取感兴趣区域深度信息,并作为先验知识融合到改进的谱抠图算法,创建感兴趣区域深度抠图拉普拉斯矩阵,通过聚类算法最优迭代得出抠像结果,并运用导向滤波器对抠像结果进行后处理。实验证明,对比于融合深度信息的传统算法和没有融合其他信息的算法,该算法降低了欠分割率、提高了运行效率,抠像目标的边缘信息也更加饱满、清晰、平滑。  相似文献   

4.
由于视觉注意预测能够快速、准确地定位图像中的显著区域,因此将视觉注意中的频域信息融入显著性目标检测中,从而有效地在复杂场景中检测显著性目标。首先,采用改进的频域检测方法对图像进行视觉注意预测,将该频域信息融入Focusness特征中计算得到频域信息聚焦特征,并将此特征与颜色特征进行融合得到前景显著图。然后,对RBD背景进行优化,得到背景显著图。最后,对前景显著图、背景显著图进行融合。在ESSCD,DUT-OMON两个具有挑战性的数据集上进行了大量实验,并采用PR_Curve,F-Measure,MAE对结果进行了评估,结果表明,所提出的方法要优于6种对比方法(HFT,PQFT,HDCT,UFO,DSR和RBD),并且能够处理复杂场景的图像。  相似文献   

5.
面对动态目标种类繁多的城市道路复杂场景,单一传感器无法获取准确全面的目标状态信息,针对上述问题,提出了一种基于多传感器信息融合的城市道路目标检测方法。首先,基于中心点图像检测网络获取目标尺寸大小、估计深度等信息,构建3D感兴趣区域截锥,获取目标初始状态信息,利用体素网格滤波法进行激光雷达点云预处理,减少点云冗余信息,并提出一种F-PointPillars方法融合激光雷达与毫米波雷达点云特征信息,获取目标位置和速度信息。然后,在截锥区域内,依据最近相邻原则匹配目标图像对应的点云信息,数据关联后将融合结果输入归一化头网络,获取目标准确全面的目标状态信息,为下一步决策控制提供精准数据。最后,在标准数据集Nuscenes上进行评估,与单相机检测方法和激光雷达融合毫米波雷达检测方法相比,NDS得分分别增加了9.4%和15.6%,平均尺度误差和平均角度误差分别降低了4.9%和2.9%,验证了上述方法的有效性。  相似文献   

6.
本文以开发一套应用于无人驾驶的三维目标检测系统为目标,利用光学成像生成的图像纹理的丰富性、易于辨识场景、点云数据准确的距离信息和深度信息等优点,选择激光雷达和光学相机作为硬件平台,提取有效的场景信息。通过在汽车指定位置安装激光雷达和光学相机,固定其位姿,将激光雷达和相机统一在同一个坐标系中,融合单帧的点云和图像数据重建场景,更好地认知车辆周边的环境,再对融合的数据通过深度学习方法与传统方法识别三维场景地图中物体的位置和种类。  相似文献   

7.
何埜  李光耀  肖莽  谢力  彭磊  唐可 《计算机应用》2015,35(10):2955-2958
针对图像修复结果中存在物体结构上的不连续性和不完整性的问题,提出一种基于深度信息的图像修复算法。首先,通过建立平面参数马尔可夫模型来推测图像中像素点所在场景空间中的深度信息,从而划分出图像中的共面区域,定位匹配块的目标位置;其次,根据透视投影原理推导出相应的变换矩阵,指导对匹配块的几何变换;最后,设计含义深度项的目标代价函数,通过全局优化选择最优修复效果。实验的主观效果对比和峰值信噪比(PSNR)数据都表明该方法更为优越。  相似文献   

8.
复杂场景中的目标定位是目标检测和识别的重要过程,为了更好地对复杂场景中的目标进行定位,基于视觉的概率模型,提出了一种目标定位的新方法。区别于一般的区域分割和边缘检测方法,该方法首先通过建立平滑、纹理、阴影和杂乱等4种不同类型区域特性的概率模型,对场景中的前景和背景进行了概率分析;然后结合不同的尺度大小,标记出图像中显著度较高的目标区域;最后经过边缘轮廓的概率建模和连通性分析来提取完整目标区域。实验结果表明,该方法具有较好的鲁棒性和通用性,不仅符合人的视觉注意特性,而且具有一定的抗背景干扰能力。  相似文献   

9.
对传统增强现实系统中虚拟物体与真实物体难以进行碰撞交互的问题,提出一种对深度图像中的场景进行分割,并基于分割结果构建代理几何体的方法来实现虚、实物体的碰撞交互。采用Kinect等深度获取设备获取当前真实场景的彩色图像信息和深度图像信息;通过深度图像的法向聚类及平面拟合技术来识别出场景中的主平面区域;对除去主平面区域的其他聚类点云区域进行融合处理,得到场景中的其他主要物体区域;为识别出的主平面构建虚拟平面作为该平面的代理几何体,为分割出的物体构建包围盒来作为其代理几何体。将这些代理几何体叠加到真实物体上,并对之赋予物理属性,即可模拟实现虚拟物体与真实物体的碰撞交互。实验结果表明,该方法可有效分割简单场景,从而实现虚实交互。  相似文献   

10.
为提高弱纹理图像关键目标点的检测识别能力,提出基于深度学习的弱纹理图像关键目标点识别定位方法;构建低光照强度弱纹理图像关键目标点的拓扑特征分布模型,采用透射率作为检测系数,结合亮通道的先验知识,建立像素大数据分布集,采用暗原色融合和RGB像素分解方法实现对低光照强度弱纹理图像的信息自适应增强处理;根据透射区域噪点融合匹配结果,采用交叉组合滤波检测和深度学习算法,实现对低光照强度弱纹理图像降噪和信息增强,据此实现对低光照强度弱纹理图像关键目标点检测识别;仿真结果表明,采用该方法定位识别的精度较高,平均为0.93,图像输出质量较好,峰值信噪比平均为32.87,通过准确率-召回率曲线的对比也表明性能较为优越。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号