排序方式: 共有17条查询结果,搜索用时 0 毫秒
11.
12.
13.
在实时视频图像车辆目标检测时,为了克服行进中车辆背景噪声和阴影带来的准确率低、漏检率高等问题,提出一种时空融合和内外标记的分水岭车辆检测算法。通过相邻视频三帧差法得到的时域运动变化信息结合Canny算子得到的边缘图像相结合,得到时域掩模图像。利用文中提出的基于二次重构、内外区域标记、梯度修正的分水岭空域算法对运动区域及其周围区域进行分割,解决了一般分水岭算法的过分割现象。将得到的结果进行投影,以提高运动状态下车辆的检测精度。实验结果表明,在车辆背景噪声和阴影的影响下,该算法的检测效果仍然较好,车辆漏检率降低到4.90%,算法的准确性、鲁棒性和适应性较好。 相似文献
14.
针对公路隧道初期火灾烟火混淆且检测实时性要求高的问题,提出改进YOLOv5s的隧道烟火视觉检测方法.该方法通过在YOLOv5s中引入卷积注意力模块(CBAM),提高对轮廓特征不明显的隧道烟雾及初期火焰重要特征检测的准确率.替换骨干网络中的Focus模块,降低BottleneckCSP的卷积层数目,提升烟火特征提取网络效率.用CIoU替换原有的GIoU损失函数,加快模型的收敛速度.实验以10 000张隧道烟火数据集为训练样本,用YOLOv5s和改进后的YOLOv5s-PRO进行对比试验分析,用2021年3月6日重庆真武山隧道火灾视频数据验证模型.实验结果表明,该算法的检测精度达到91.53%,比YOLOv5s提高了3.21%,检测速度达到6.12 ms,比YOLOv5s提高了0.42 ms,检测精度较高,速度较快,可以应用于实际公路隧道的烟火检测. 相似文献
15.
针对自动驾驶三维建图中存在的建图不准确以及位姿飘移的问题,利用激光雷达里程计消除惯性测量单元(Inertial Measurement Unit, nIMU)累计误差并通过IMU预积分去除激光雷达点云畸变,形成激光雷达与IMU的紧耦合建图系统;通过增加回环检测因子、激光雷达里程计因子以及IMU预积分因子进行后端图优化,旨在提升定位建图的全局一致性,减小位姿估计误差,降低累计漂移误差。最后,在学校园区实地场景以及利用开源数据集KITTI进行实验验证,实验表明,在选取的学校园区实地场景下,改进算法APE误差均值相较于原算法降低了11.04%,APE均方根误差较于原算法降低了17.35%;改进算法在KITTI数据集场景下平均APE误差下降了10.04%,均方误差方面相较于原算法平均下降了12.04%。研究结果表明,改进的建图方法能够有效提高建图的位姿估计精度与地图构建精度。 相似文献
16.
针对多目标识别过程中点云分类和分割精度不高的问题,提出了一种基于改进Transformer模型的点云分类与分割方法DRPT(Double randomness Point Transformer),该方法在Transformer模型卷积投影层创建新的点嵌入,利用局部邻域的动态处理在数据特征向量中持续增加全局特征属性,从而提高多目标识别中点云分类和分割的精度。实验中采用了标准基准数据集(ModelNet40、ShapeNet部分分割和SemanticKITTI场景语义分割数据集)以验证模型的性能,实验结果表明:DRPT模型的pIoU值为859,比其他模型平均高出35,有效提高了多目标识别检测时点云分类与分割精度,是对智能网联技术发展的有效支撑。 相似文献
17.
针对红外非可见光与可见光视觉在成像过程中不同的感光特性,面向隧道典型的“黑洞”和“白洞”问题,从自动驾驶车辆视角研究光照环境突变条件下的视觉辨识以及融合感知技术。分别选取低照度车辆进入隧道以及弱光线条件下车辆驶离隧道两种情形,利用局部能量、卷积稀疏表示算法(CSR)对两种图像进行融合实验,结合MI、SF、AG、QAB/F、SSIM、PSNR六种评价指标进行评价。实验结果表明,在隧道入口处图像CSR-E算法对比Curvelet、NSCT、NSCT-T、SR-C&L、SF-Energy-Q五种算法,边缘信息传递因子(QAB/F)提高了14.14%,隧道出口处图像运行平均时间减少1.17 ms,结构相似性(SSIM)提高了3.38%,所提出的红外非可见光与可见光视觉融合成像方法弥补单一传感器针对特定场景表达的不全面,实现对场景全面清晰准确的表达,有效解决了源图像的边缘信息丢失,增强图像的光谱信息。 相似文献