排序方式: 共有67条查询结果,搜索用时 31 毫秒
31.
在无人驾驶应用场景中,现有无锚框实例分割方法存在大目标特征覆盖小目标特征、缺少两阶段检测器中的感兴趣区域对齐操作、忽略类别分支对掩膜分支提供的位置和空间信息等问题,导致特征提取不充分且无法准确获取目标区域。提出一种改进的无锚框实例分割方法。结合可变形卷积,设计编码-解码特征提取网络提取高分辨率特征,以增强对小目标特征的提取能力,并采用空洞卷积和合并连接的方式,在不增加计算量的前提下有效融合多种分辨率的特征。在此基础上,将注意力机制引入到类别分支中,同时设计结合空间信息和通道信息的信息增强模块,以提高目标检测能力。实验结果表明,该方法在COCO 2017和Cityscapes数据集上平均精度和平均交并比分别为41.1%和83.3%,相比Mask R-CNN、SOLO、Yolact等方法,能够有效改进实例分割效果并具有较优的鲁棒性。 相似文献
32.
33.
视觉环境感知在自动驾驶汽车发展中起着关键作用,在智能后视镜、倒车雷达、360°全景、行车记录仪、碰撞预警、红绿灯识别、车道偏移、并线辅助和自动泊车等领域也有着广泛运用。传统的环境信息获取方式是窄角针孔摄像头,视野有限有盲区,解决这个问题的方法是环境信息感知使用鱼眼镜头,广角视图能够提供整个180°的半球视图,理论上仅需两个摄像头即可覆盖360°,为视觉感知提供更多信息。处理环视图像目前主要有两种途径:一是对图像先纠正,去失真,缺点是图像去失真会损害图像质量,并导致信息丢失;二是直接对形变的鱼眼图像进行建模,但目前还没有效果比较好的建模方法。此外,环视鱼眼图像数据集的缺乏也是制约相关研究的一大难题。针对上述挑战,本文总结了环视鱼眼图像的相关研究,包括环视鱼眼图像的校正处理、环视鱼眼图像中的目标检测、环视鱼眼图像中的语义分割、伪环视鱼眼图像数据集生成方法和其他鱼眼图像建模方法等,结合自动驾驶汽车的环境感知应用背景,分析了这些模型的效率和这些处理方法的优劣,并对目前公开的环视鱼眼图像通用数据集进行了详细介绍,对环视鱼眼图像中待解决的问题与未来研究方向做出预测和展望。 相似文献
34.
35.
36.
提出了一种基于目标识别与显著性检测的图像场景多对象分割方法。该方法的步骤包括:在图像训练集上训练语义对象的检测器,用来检测输入图像中对象的位置,标定对象的包围盒;对输入的图像进行过分割处理,得到超像素集合,根据包围盒的位置和超像素的语义概率值计算兴趣区域;在3种稠密尺度上进行场景显著性检测,得到输入图像的显著图;在兴趣区域内计算超像素的邻接关系,形成邻接矩阵,构建条件随机场模型,将多对象分割问题转化成多类别标记问题,每一个对象是一种类别;以每个超像素作为场模型的节点,超像素的邻接关系对应场模型中节点之间的连接关系,将显著性和图像特征转化为节点和边的权重值;利用图割算法,在条件随机场模型上进行优化,迭代终止时得到像素的对象标记结果,从而实现对多个对象的分割。实验结果表明该方法效果较好。 相似文献
37.
针对真实场景中由于互相遮挡导致的场景语义不能完全被理解的问题,提出了一种基于前馈上下文和形状先验的方法来对前景区域和被遮挡的背景区域进行语义标注。首先,将原始图像分割成超像素并提取像素点特征,采用加速决策树方法标注前景,同时采用改进的基于多尺度可形变的部件模型方法进行目标检测。其次,将可见对象信息与前馈上下文预测相结合来推测背景区域的被遮挡部分。然后,根据与当前标签置信度相匹配的多边形为每个标签提供形状先验知识。最后,结合像素预测与可视平面预测和多边形知识,以形成完整的场景标注图像。与现有方法相比,该方法能够得到与街道场景更相符的结果,并在人行道和公路较接近时的标注效果更好。 相似文献
38.
39.
目前拷贝检测中的图像哈希方法由于手工设计特征和线性映射带来的限制,检测精度不高。为了解决这一难题,提出一种端到端的深度哈希拷贝检测算法——DHCD。构建多尺度孪生卷积神经网络,以空间金字塔分层池化的方式来获得图像对的显著性特征;在新设计的哈希损失函数作用下,既保持了特征在语义结构上的相关性,又使得特征输出接近于目标哈希码;通过挖掘难分样本,[JP2]对难分样本再训练,提升了模型的识别效果。在拷贝数据集上的实验结果表明,该算法与当前主流的图像哈希算法相比,准确率提升了10%左右,且效率没有降低。 相似文献
40.