一种基于去模糊网络的模糊鲁棒的视觉里程计算法的制作方法

    专利查询2026-05-11  7


    本发明属于实时定位和重建(slam),尤其涉及一种基于去模糊网络的模糊鲁棒的视觉里程计算法。


    背景技术:

    1、同步定位与地图构建(slam)是近年来计算机视觉和机器人领域的一个研究热点。vslam技术通过视觉传感器使得机器人构建和更新未知环境下的地图,实现实时的跟踪和定位,定位方法主要包括图像帧之间的直接法和特征点法,其中以特征点法的应用较为广泛,如ptam和orb-slam2。以特征点为基础的vslam算法在图像较为清晰的场景下,可以实现良好的定位精度。但是实际情况中,由于相机的快速运动和低亮度下的曝光影响,视觉传感器经常会采集生成模糊图像,这使得定位的精度出现明显降低,甚至跟踪丢失。

    2、针对上述问题,目前也出现了将去模糊网络直接嵌入到slam系统的相关技术,虽然相关技术解决了一定程度的模糊问题,但是该方法没有考虑到相邻图像帧之间的联系,需要对大量参数的计算,这使得跟踪定位的实时性严重下降。此外,由于需要对图像全局进行参数计算来实现模糊处理,所以在一些局部特征区域去模糊效果并不理想。

    3、综上所述,如何提供一种针对模糊图像的快速有效的位姿跟踪算法,以解决vslam算法无法对图像序列中模糊片段进行相机定位和跟踪丢失的问题,也就成为了行业内技术人员所关注的问题之一。


    技术实现思路

    1、本发明目的在于提供一种基于去模糊网络的模糊鲁棒的视觉里程计算法,以解决上述的技术问题。

    2、为解决上述技术问题,本发明的一种基于去模糊网络的模糊鲁棒的视觉里程计算法的具体技术方案如下:

    3、一种基于去模糊网络的模糊鲁棒的视觉里程计算法,包括如下步骤:

    4、s1、对输入的图像进行模糊检测,若图像模糊程度低于设定阈值则标记为清晰图像,反之标记为模糊图像,根据判断结果进行s2或s3步骤;

    5、s2、若为清晰图像,则利用2d-2d或者3d-2d的位姿跟踪算法计算相机位姿。

    6、s3、若为模糊图像,则首先基于上一帧与当前帧计算估计位姿t0,然后将上一帧图像划分网格并删除特征点数量较少的网格,使用位姿t0将上一帧图像划分的网格投影至当前模糊帧并建立对应的位置索引,取每个网格对应的图像内容,按网格序号拼接为新图像,将该图像输入去模糊网络进行去模糊处理,去模糊处理后的拼接图像按索引映射回当前模糊帧,由2d-2d或者3d-2d位姿计算算法得到精确的相机位姿。

    7、进一步的,所述s1的图像模糊检测使用拉普拉斯算子计算图像的梯度,若梯度小于阈值则为模糊图像。

    8、进一步的,所述s3包括如下步骤:

    9、s3.1、基于上一帧与当前帧计算位姿t0,使用lk光流法来获取两帧图像间的特征点的对应关系,然后根据匹配结果使用本质矩阵来计算初始位姿;

    10、s3.2、对上一帧图像划分网格并删除特征点数量较少的网格,使用位姿t0将上一帧图像划分的网格区域投影至当前模糊帧并建立对应的位置索引;s3.3、取网格区域对应的图像内容,按网格序号拼接为新的图像,将该图像输入去模糊网络进行去模糊处理;

    11、s3.4、去模糊处理后的图像按索引重新映射回当前模糊帧,由2d-2d或者3d-2d位姿计算算法得到相机的精确位姿。

    12、进一步的,所述s3.1的光流计算公式为:

    13、i(x+dx,y+dy,t+dt)=i(x,y,t)。

    14、进一步的,所述s3.2首先对上一帧图像使用正方形网格划分,计算图像总特征点与图像总面积的比值,得到阈值其中λ为常数系数,npoint为总特征点数,s为图像总面积;然后遍历每个网格块,对比网格块内的特征点数量与阈值α,删除特征点数量较少的网格块,使用估计位姿t0将剩余网格块投影至当前模糊帧并建立索引。

    15、进一步的,所述s3.3拼接生成图像由网格块顺序排列生成,若网格块数量为奇数,则删除一个特征点数量最少的网格,拼接生成后的图像作为去模糊网络的输入进行去模糊计算。

    16、进一步的,所述s3.4拼接的模糊图像输入去模糊网络后,输出清晰图像,然后将该图像按索引重新映射回当前帧并覆盖原图像内容,最后使用本质矩阵、单应矩阵或pnp计算相机的精确位姿。

    17、本发明的一种基于去模糊网络的模糊鲁棒的视觉里程计算法具有以下优点:

    18、本发明针对slam系统面对模糊图像场景出现的跟踪丢失的问题,提出了一种充分利用模糊帧与上一帧间的联系,删除冗余和无效的信息区域进行去模糊和位姿估计的算法。该算法对于以cnn为去模糊结构的slam系统提升了局部去模糊效果,对于以transformer为去模糊结构的slam系统提升了系统的实时性。



    技术特征:

    1.一种基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,包括如下步骤:

    2.根据权利要求1所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s1的图像模糊检测使用拉普拉斯算子计算图像的梯度,若梯度小于阈值则为模糊图像。

    3.根据权利要求1所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s3包括如下步骤:

    4.根据权利要求3所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s3.1的光流计算公式为:

    5.根据权利要求3所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s3.2首先对上一帧图像使用正方形网格划分,计算图像总特征点与图像总面积的比值,得到阈值其中λ为常数系数,npoint为总特征点数,s为图像总面积;然后遍历每个网格块,对比网格块内的特征点数量与阈值α,删除特征点数量较少的网格块,使用估计位姿t0将剩余网格块投影至当前模糊帧并建立索引。

    6.根据权利要求3所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s3.3拼接生成图像由网格块顺序排列生成,若网格块数量为奇数,则删除一个特征点数量最少的网格,拼接生成后的图像作为去模糊网络的输入进行去模糊计算。

    7.根据权利要求3所述的基于去模糊网络的模糊鲁棒的视觉里程计算法,其特征在于,所述s3.4拼接的模糊图像输入去模糊网络后,输出清晰图像,然后将该图像按索引重新映射回当前帧并覆盖原图像内容,最后使用本质矩阵、单应矩阵或pnp计算相机的精确位姿。


    技术总结
    本发明公开了一种基于去模糊网络的模糊鲁棒的视觉里程计算法,包括S1、对输入的图像进行模糊检测;S2、若为清晰图像,则利用位姿估计算法计算相机位姿。S3、若为模糊图像,则首先基于上一帧与当前帧计算位姿T<subgt;0</subgt;,然后将上一帧图像划分网格并删除特征点数量较少的网格。S3.1、使用估计的位姿T<subgt;0</subgt;将上一帧图像的剩余网格投影至当前模糊帧并建立对应的位置索引。S3.2、取每个网格对应的图像内容,按序号拼接为新图像。S3.3、将该图像输入去模糊网络进行去模糊处理,去模糊后的图像按索引重新映射至当前模糊帧。S3.4、基于上一帧和去模糊后的当前帧重新计算相机位姿。本发明提高了视觉里程计在模糊场景下的准确性。

    技术研发人员:李基拓,张佳路,李嘉奇,陆国栋
    受保护的技术使用者:余姚市机器人研究中心
    技术研发日:
    技术公布日:2024/11/26
    转载请注明原文地址:https://tc.8miu.com/read-35556.html

    最新回复(0)