一种融合图像和点云的共面目标位姿测量方法

    专利查询2025-04-05  12


    本发明属于视觉领域目标定位系统设计领域,特别涉及一种融合图像和点云的共面目标位姿测量方法。


    背景技术:

    1、目前,基于视觉的相对测量包括对目标的姿态和位置进行确定。考虑视觉位姿测量技术在很多机器人、航天器导航等领域的应用,很多位姿解算方法被提出。通常,共面目标上面会存在很多特征点,而不同测量传感器可以获取图像和点云等不同的数据。目前已有基于点云的位姿测量通常假设目标点云数据非共面特性,这样基于点云的迭代位姿测量方法可以实现高精度位姿测量,但是对于共面目标点云的位姿测量方易陷入局部最优,导致测量精度下降,因此如何利用不同类型数据提高共面目标位姿测量精度、从而服务于导航领域,是当前视觉相对测量工程领域中亟待解决的问题。


    技术实现思路

    1、针对在实际视觉目标定位任务中,由于不同类型传感数据会带来算法的复杂度,本发明提供了一种融合图像和点云的共面目标位姿测量方法,包括如下步骤:

    2、s1:接收深度相机同时获取的共面目标灰度图像和特征点云数据,定义图像和点云数据从三维世界坐标到二维图像坐标的非线性投影模型,并定义灰度图像特征点误差函数和点云误差函数;

    3、s2:根据特征点云数据求取点云误差函数,求解欧拉角;根据灰度图像特征点求取灰度图像特征点误差函数,得到目标耦合位置;

    4、s3:根据两个欧拉角和目标耦合位置,求取目标最终位姿。

    5、本发明与现有技术相比的有益效果在于:

    6、(1)本发明考虑了图像特征和点云特征不同类型的数据,设计了一种融合两种特征的位姿测量框架。

    7、(2)本发明设定的融合部分点云数据和图像数据,提高了目标位姿估计精度。



    技术特征:

    1.一种融合图像和点云的共面目标位姿测量方法,其特征在于,包括如下步骤:

    2.根据权利要求1所述的融合图像和点云的共面目标位姿测量方法,其中,步骤s1中所述的非线性投影模型如下式所示:

    3.根据权利要求2所述的融合图像和点云的共面目标位姿测量方法,其中,步骤s2中所述根据特征点云数据求取点云误差函数包括如下推导点云误差函数:

    4.根据权利要求3所述的融合图像和点云的共面目标位姿测量方法,其中,步骤s3中所述的根据欧拉角和目标耦合位置,求取目标最终位姿包括:定义如下误差函数:


    技术总结
    本发明涉及一种融合图像和点云的共面目标位姿测量方法,包括以下步骤:接收深度相机同时获取的共面目标灰度图像和特征点云数据,定义图像和点云数据从三维世界坐标到二维图像坐标的非线性投影模型,并定义灰度图像特征点误差函数和点云误差函数;根据两个特征点云数据求取点云误差函数,得到共面目标所在平面法向量,并从其得到欧拉角;根据图像特征点求取图像误差函数,得到目标耦合位置;根据欧拉角和目标耦合位置,求取目标最终位姿。本方法通过融合图像和点云数据,提高了共面目标的位姿测量精度。

    技术研发人员:胡庆雷,蒋催催,郭鹏宇,邵小东,李东禹
    受保护的技术使用者:北京航空航天大学
    技术研发日:
    技术公布日:2024/11/26
    转载请注明原文地址:https://tc.8miu.com/read-27203.html

    最新回复(0)