留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

智能割草机RTK-VIO融合定位算法

上一篇

下一篇

李嘉诚, 冀杰, 王世霁, 等. 智能割草机RTK-VIO融合定位算法[J]. 西南大学学报(自然科学版), 2025, 47(11): 152-162. doi: 10.13718/j.cnki.xdzk.2025.11.012
引用本文: 李嘉诚, 冀杰, 王世霁, 等. 智能割草机RTK-VIO融合定位算法[J]. 西南大学学报(自然科学版), 2025, 47(11): 152-162. doi: 10.13718/j.cnki.xdzk.2025.11.012
LI Jiacheng, JI Jie, WANG Shiji, et al. RTK-VIO Integrated Localization Algorithm for Intelligent Lawn Mower[J]. Journal of Southwest University Natural Science Edition, 2025, 47(11): 152-162. doi: 10.13718/j.cnki.xdzk.2025.11.012
Citation: LI Jiacheng, JI Jie, WANG Shiji, et al. RTK-VIO Integrated Localization Algorithm for Intelligent Lawn Mower[J]. Journal of Southwest University Natural Science Edition, 2025, 47(11): 152-162. doi: 10.13718/j.cnki.xdzk.2025.11.012

智能割草机RTK-VIO融合定位算法

  • 基金项目: 重庆市科学技术局农业农村领域重点研发项目(cstc2021jscx-gksbX0003);智能农业动力装备全国重点实验室开放课题(SKLIAPE2023013)
详细信息
    作者简介:

    李嘉诚,硕士研究生,主要从事农机与智能网联车辆环境感知研究 .

    通信作者: 冀杰,博士,副教授,硕士研究生导师; 
  • 中图分类号: TP242.6

RTK-VIO Integrated Localization Algorithm for Intelligent Lawn Mower

  • 摘要:

    智能割草机作业过程振动噪声大、缺乏闭环路径,且作业环境图像纹理高度重复,导致单一的视觉-惯性里程计(Visual-Inertial Odometry,VIO)方法易出现定位漂移甚至丢失的情况。针对此问题提出一种融合实时动态定位(Real-Time Kinematic,RTK)和VIO的紧耦合定位方法,通过构建RTK残差项的计算方法和RTK-VIO联合初始化方法,在低频、高精度工况下实现RTK定位与VIO定位的紧耦合,同时保证系统运行的实时性。以智能割草机为研究对象,搭载频率为1 Hz的RTK接收机、每秒15帧的双目视觉传感器以及频率为200 Hz的IMU(Inertial Measurement Unit)传感器,并在简单、一般、困难3种不同难度工况的作业路径中进行实地实验验证。实验结果表明:融合定位方法优于单一的VIO定位方法,其绝对位姿误差均值分别降低了0.288 m、1.015 m、0.128 m,均方根误差分别降低了0.221 m、0.926 m、0.137 m,且在实时性方面引入的额外处理延迟小于10 ms。

  • 加载中
  • 图 1  智能割草机实验平台

    图 2  RTK-VIO融合定位算法系统架构

    图 3  局部BA过程优化问题的因子图

    图 4  割草机实验场地

    图 5  实验中智能割草机的作业路径

    图 6  简单工况下的实验结果

    图 7  一般工况下的实验结果

    图 8  困难工况下的实验结果

    图 9  本文方法与对照方法的绝对位姿误差分布对比

    表 1  传感器主要参数

    传感器 型号 参数
    双目视觉传感器 ZED 2 分辨率 672×376
    帧率 15 fps
    基线 120 mm
    IMU传感器 ZED 2(集成) 频率 200 Hz
    RTK接收机 WTRTK-M 频率 1 Hz
    精度 RTK 0.01 m + 1×10-6 CEP
    下载: 导出CSV

    表 2  不同工况下本文方法与对照方法的绝对位姿误差对比 m

    工况 本文方法 ORB-SLAM3 VIO
    均值 均方根误差 均值 均方根误差
    简单工况 0.931 (23.6%) 1.016 (17.9%) 1.219 1.237
    一般工况 1.403 (42.0%) 1.691 (35.4%) 2.418 2.617
    困难工况 0.857 (13.0%) 0.932 (12.8%) 0.985 1.069
    注:括号内数值为相对于对照方法提升的百分比。
    下载: 导出CSV

    表 3  本文方法与对照方法的实时性能对比 ms

    项目 本文方法 ORB-SLAM3 VIO
    平均值 标准差 平均值 标准差
    局部BA过程耗时 86.711 23.005 83.049 27.470
    局部建图总耗时 118.262 36.460 112.137 41.062
    下载: 导出CSV
  • [1] 陈军. 农机智能化是实现智慧农业之关键[J]. 中国农业资源与区划, 2023, 44(8): 170, 178.
    [2] 刘洋, 冀杰, 赵立军, 等. 基于激光雷达与相机融合的树干检测方法[J]. 西南大学学报(自然科学版), 2024, 46(2): 183-196. doi: 10.13718/j.cnki.xdzk.2024.02.018
    [3] 刘欣, 陈武. 基于视觉分析的机器人最优避障路径识别方法[J]. 西南大学学报(自然科学版), 2017, 39(2): 128-134.
    [4] 董胜, 袁朝辉, 谷超, 等. 基于多学科技术融合的智能农机控制平台研究综述[J]. 农业工程学报, 2017, 33(8): 1-11.
    [5] 万欢, 欧媛珍, 管宪鲁, 等. 无人农机作业环境感知技术综述[J]. 农业工程学报, 2024, 40(8): 1-18.
    [6] 裴凌, 李涛, 花彤, 等. 多源融合定位算法综述[J]. 南京信息工程大学学报(自然科学版), 2022, 14(6): 635-648.
    [7] 马志艳, 邵长松, 杨光友, 等. 同步定位与建图技术研究进展[J]. 电光与控制, 2023, 30(3): 78-85, 106.
    [8] 刘洋, 冀杰, 潘登, 等. 基于激光雷达与IMU融合的农业机器人定位方法[J]. 智慧农业(中英文), 2024, 6(3): 94-106.
    [9] 薛秀云, 马肇泳, 杨钟杰, 等. 基于3D激光SLAM的果园导航感知系统[J/OL]. 河南农业大学学报, (2024-04-30)[2024-05-22]. https://doi.org/10.16445/j.cnki.1000-2340.20240429.001.
    [10] 郭成洋, 范雨杭, 张硕, 等. 果园车辆自动导航技术研究进展[J]. 东北农业大学学报, 2019, 50(8): 87-96.
    [11] 曾庆化, 罗怡雪, 孙克诚, 等. 视觉及其融合惯性的SLAM技术发展综述[J]. 南京航空航天大学学报, 2022, 54(6): 1007-1020.
    [12] CHENG J, ZHANG L Y, CHEN Q H, et al. A Review of Visual SLAM Methods for Autonomous Driving Vehicles[J]. Engineering Applications of Artificial Intelligence, 2022, 114: 104992. doi: 10.1016/j.engappai.2022.104992
    [13] BLOESCH M, OMARI S, HUTTER M, et al. Robust Visual Inertial Odometry Using a Direct EKF-Based Approach[C] //2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), September 28 - October 2, 2015, Hamburg, Germany. IEEE, 2015: 298-304.
    [14] PAUL M K, WU K J, HESCH J A, et al. A Comparative Analysis of Tightly-Coupled Monocular, Binocular, and Stereo VINS[C] //2017 IEEE International Conference on Robotics and Automation (ICRA), May 29 - June 3, 2017, Singapore. IEEE, 2017: 165-172.
    [15] QIN T, PAN J, CAO S Z, et al. A General Optimization-Based Framework for Local Odometry Estimation with Multiple Sensors[EB/OL]. (2019-01-11)[2024-05-28]. https://arxiv.org/abs/1901.03638.
    [16] CAMPOS C, ELVIRA R, RODRÍGUEZ J J G, et al. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial, and Multimap SLAM[J]. IEEE Transactions on Robotics, 2021, 37(6): 1874-1890. doi: 10.1109/TRO.2021.3075644
    [17] CREMONA J, COMELLI R, PIRE T. Experimental Evaluation of Visual-Inertial Odometry Systems for Arable Farming[J]. Journal of Field Robotics, 2022, 39(7): 1121-1135. doi: 10.1002/rob.22099
    [18] 何璇, 潘树国, 谭涌, 等. 室外环境下基于点线特征的视觉-惯性里程计和全球卫星导航系统定位算法[J]. 激光与光电子学进展, 2022, 59(18): 242-250.
    [19] 崔晓珍, 周琪, 武东杰, 等. GNSS/IMU与里程计紧-松耦合的因子图融合定位方法[J]. 武汉大学学报(信息科学版), 2024, 49(10): 1911-1921.
    [20] 廖健驰, 李星星, 冯绍权, 等. GVIL: 基于图优化的GNSS PPP/视觉/惯性/激光雷达紧组合算法[J]. 武汉大学学报(信息科学版), 2023, 48(7): 1204-1215.
    [21] 夏琳琳, 宋梓维, 方亮, 等. 基于图优化的GNSS/双目视觉/惯性SLAM系统开发及应用[J]. 中国惯性技术学报, 2024, 32(5): 475-483.
    [22] MUR-ARTAL R, TARDÓS J D. Visual-Inertial Monocular SLAM with Map Reuse[J]. IEEE Robotics and Automation Letters, 2017, 2(2): 796-803. doi: 10.1109/LRA.2017.2653359
    [23] UMEYAMA S. Least-Squares Estimation of Transformation Parameters between Two Point Patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1991, 13(4): 376-380. doi: 10.1109/34.88573
    [24] FORSTER C, CARLONE L, DELLAERT F, et al. On-Manifold Preintegration for Real-Time Visual-Inertial Odometry[J]. IEEE Transactions on Robotics, 2017, 33(1): 1-21. doi: 10.1109/TRO.2016.2597321
    [25] GRUPP M. EVO[CP/OL]. (2023-03-08)[2024-02-22]. https://github.com/MichaelGrupp/evo.
  • 加载中
图( 9) 表( 3)
计量
  • 文章访问数:  1443
  • HTML全文浏览数:  1443
  • PDF下载数:  326
  • 施引文献:  0
出版历程
  • 收稿日期:  2024-07-10
  • 刊出日期:  2025-11-20

智能割草机RTK-VIO融合定位算法

    通信作者: 冀杰,博士,副教授,硕士研究生导师; 
    作者简介: 李嘉诚,硕士研究生,主要从事农机与智能网联车辆环境感知研究
  • 1. 西南大学 工程技术学院,重庆 400715
  • 2. 重庆文理学院 智能制造工程学院,重庆 永川 402160
基金项目:  重庆市科学技术局农业农村领域重点研发项目(cstc2021jscx-gksbX0003);智能农业动力装备全国重点实验室开放课题(SKLIAPE2023013)

摘要: 

智能割草机作业过程振动噪声大、缺乏闭环路径,且作业环境图像纹理高度重复,导致单一的视觉-惯性里程计(Visual-Inertial Odometry,VIO)方法易出现定位漂移甚至丢失的情况。针对此问题提出一种融合实时动态定位(Real-Time Kinematic,RTK)和VIO的紧耦合定位方法,通过构建RTK残差项的计算方法和RTK-VIO联合初始化方法,在低频、高精度工况下实现RTK定位与VIO定位的紧耦合,同时保证系统运行的实时性。以智能割草机为研究对象,搭载频率为1 Hz的RTK接收机、每秒15帧的双目视觉传感器以及频率为200 Hz的IMU(Inertial Measurement Unit)传感器,并在简单、一般、困难3种不同难度工况的作业路径中进行实地实验验证。实验结果表明:融合定位方法优于单一的VIO定位方法,其绝对位姿误差均值分别降低了0.288 m、1.015 m、0.128 m,均方根误差分别降低了0.221 m、0.926 m、0.137 m,且在实时性方面引入的额外处理延迟小于10 ms。

English Abstract

  • 开放科学(资源服务)标识码(OSID):

  • 随着农业农村现代化进程持续推进,以智能割草机为代表的现代化农业机械已成为实现智慧农业的关键技术装备[1]。目前,我国学者利用视觉、激光雷达等传感器,在智能割草机上实现了树干等障碍物检测[2]、避障路径规划[3]等功能。其中,定位系统是智能割草机实现自动化作业的先决条件,能够为割草机行走、作业及避障等动作提供必要的位置和姿态信息[4-5]。目前基于激光雷达的多源融合定位是农业机器人导航领域的重点研究方向之一[6-7]。例如,刘洋等[8]、薛秀云等[9]分别提出了割草机场景和果园场景下融合激光雷达与IMU的定位方法。然而,由于激光雷达成本较高,难以在智能割草机上广泛应用。依靠成本优势,基于全球导航卫星系统实时动态定位(GNSS-RTK)或视觉-惯性里程计(VIO)的定位方法,可能成为农业机器人导航领域更经济的替代方案。

    目前,在割草机作业等农业非结构化场景中,单一的GNSS-RTK或VIO定位方法很难为农业智能化作业提供高精度的定位信息。GNSS-RTK能够提供全球范围内的位置信息,具有较好的覆盖性和抗干扰能力,但其定位精度通常在米级,难以满足高精度作业需求,并且在遮挡环境下表现不佳[10]。VIO方法的研究在非农业领域已有诸多进展[11-12],比较有代表性的算法包括ROVIO[13]、MSCKF[14]、VINS-Fusion[15]和ORB-SLAM3[16]等。上述算法在室内或城市等视觉特征丰富的环境中都实现了厘米级精度的高精度定位,并表现出较高的鲁棒性[12]。然而,对于割草机作业场景,平整且缺少标志物的草地使视觉纹理高度重复,风吹或作业后的特征变化导致视觉特征点难以捕捉;振动噪声使IMU信号不稳定,进一步降低了定位精度;作业路线缺乏闭环检测也使得系统累计误差难以消除。因此,VIO的定位精度和稳定性会显著下降,容易造成定位漂移和误差积累[17]

    在GNSS/RTK-VIO融合方法上,针对农业场景的研究仍相对较少。何璇等[18]提出了一种基于点线特征的单目VIO和RTK松耦合定位算法,通过几何约束改进特征匹配,解决了隧道和城市道路环境中特征信息不足和累计误差的问题。崔晓珍等[19]进一步探讨了基于因子图优化的GNSS与VIO紧-松耦合融合方法,通过实验验证了地下车库和室内外一体环境的表现。随后,廖健驰等[20]、夏琳琳等[21]都基于图优化方法提出了GNSS-VIO紧耦合算法,验证了车辆在学校内部道路和封闭园区的表现。上述研究展示了GNSS-VIO紧耦合方法在非农业场景中的优秀表现,为农业智能割草机场景的定位研究奠定了基础。基于此,本文提出一种面向智能割草机的RTK-VIO融合定位算法,将RTK定位测量通过紧耦合方法与VIO融合,并在实地实验中验证定位效果。

  • 本文以自主研发的智能割草机作为实验平台,整体结构与传感器布置如图 1a所示。该智能割草机底盘采用后轮驱动,前轮(惰轮)转向,最大行走速度为2 m/s。根据实验需求,在智能割草机上安装内部集成IMU的ZED 2双目相机传感器和RTK接收机,搭载了英特尔i7-10875H型CPU和英伟达RTX 2060型GPU的笔记本电脑作为运算单元。传感器主要参数如表 1所示。

    图 1b展示了实验中的坐标系及相关符号定义。W代表世界坐标系;B代表割草机机身坐标系,以IMU安装位置确定;C代表相机坐标系;D代表RTK测量坐标系;ENU代表(东北天)站心坐标系;下标B代表某实体在B系中的位置;B系到D系的刚性变换TBD∈SE(3)由RBDtBD组合得到;RBD∈SO(3)代表D系相对于B系的旋转;$ \boldsymbol{t}_B^D \in \mathbb{R}^3$代表D系相对于B系的位移。

  • 智能割草机RTK-VIO融合定位算法架构如图 2所示,该算法基于ORB-SLAM3[16]框架实现。系统主要包括跟踪线程、局部建图线程、闭环和地图融合线程。跟踪线程接收割草机双目视觉帧和IMU数据帧,实时进行ORB特征提取和IMU积分,计算当前帧相对于活动地图的姿态,并进行关键帧的选取。关键帧和RTK测量帧在局部建图线程中加入活动地图,通过局部窗口进行视觉惯性局部BA(Bundle Adjustment)优化。在闭环和地图融合线程中,系统以关键帧频率进行共同区域检测,根据共同区域是否属于当前活动地图进行闭环矫正或地图融合,同时以独立线程完成全局BA工作。

    软件系统基于ROS(Robot Operating System)实现。系统输入主要包含3个节点,分别是ZED 2传感器节点、RTK接收机节点和SLAM节点。ZED 2传感器节点发布消息类型为sensor_msgs/Image的双目相机视频信号话题,以及消息类型为sensor_msgs/Imu的IMU信号话题;RTK接收机节点发布消息类型为sensor_msgs/NavSatFix的RTK定位信号话题;SLAM节点订阅上述3个话题并完成SLAM工作;系统输出TUM格式的定位结果。

  • 系统运行前需要进行RTK-VIO初始化,该初始化问题可以描述为一个MAP估计问题,系统通过初始化来获得割草机速度、重力方向和IMU偏差初始值。在ORB-SLAM3的框架中,系统需要进行纯视觉优化、纯IMU优化,以及视觉和IMU联合优化3个步骤[22]

    首先,需要将RTK测量信息加入第一步纯视觉优化中。在系统运行的前2 s内,使用纯视觉BA进行优化,此时将RTK与纯视觉优化位姿进行对齐。系统以4~10 Hz频率插入关键帧,通过视觉里程计得到km=10个关键帧相机位姿和由数百个地图点组成的地图。此时的地图不在真实尺度下,它和现实大小之间存在一个比例因子s,用符号“-”表示尺度未知的参数。这些相机位姿表示为B系下的$ \boldsymbol{T}_{B_k}^{B_0}=[\boldsymbol{R}_{B_k}^{B_0}, s \overline{\boldsymbol{t}}_{B_k}^{B_0}]$。通过式(1)将相机位姿与RTK位置对齐到同一坐标系:

    式中:tDB由RTK接收机安装位置决定;$ \boldsymbol{R}_{B_k}^{B_0} $$ \overline{\boldsymbol{t}}_{B_k}^{B_0}$来自相机位姿$ \boldsymbol{T}_{B_k}^{B_0}=\left[\boldsymbol{R}_{B_k}^{B_0}, s \overline{\boldsymbol{t}}_{B_k}^{B_0}\right]$

    通过RTK测量得到ENU坐标系下的位置,然后通过插值获得与相机位姿对应的$ \boldsymbol{t}_{D_k}^{E N U}$。此时,通过Umeyama方法[23]解决最小二乘估计问题,用于求解$ \boldsymbol{T}_{B_0}^{E N U}=\left[\boldsymbol{R}_{B_0}^{E N U}, \boldsymbol{t}_{B_0}^{E N U}\right]$和比例因子s

    用包含RTK测量的TB0ENU来代替VIO初始化中纯视觉优化的结果,接着再使用TB0ENU和这些关键帧之间的IMU测量值,继续完成包含IMU数据的初始化。

  • 对于智能割草机的定位问题,用于优化分析的状态变量包括:智能割草机机身姿态TBW=[RBWtBW],割草机速度ν,陀螺仪偏差bg和加速度计偏差ba,得到i时刻的状态向量为:

    采用基于关键帧的非线性优化状态估计问题来描述RTK-VIO的融合过程。这个过程发生在局部建图线程的局部BA优化中,每当一个新的关键帧插入,就进行一次局部BA优化,用这个新的关键帧和最后k个关键帧,以及这些关键帧所观察到的l个3D地图点进行优化。该过程的因子图如图 3所示,当关键帧插入时,最新的k个关键帧构成蓝色虚线框所示的局部窗口,系统将优化这些关键帧以及它们所能观察到的所有特征点。而与这k个关键帧具有共视关系但不在局部窗口中的关键帧构成红色虚线框所示的固定窗口,固定窗口中的关键帧提供残差用于优化,但关键帧本身不参与优化。特别的是,第k+1个关键帧总是被添加到固定窗口中,提供IMU约束。设这一组k+1个关键帧对应的状态为$ \overline{\boldsymbol{S}}_k=\left[\boldsymbol{S}_0, \cdots, \boldsymbol{S}_k\right]$l个3D地图点对应的状态为X=[x0,…,xl-1],那么优化问题可以表示为:

    式中:Kj为能够观察到3D点j的关键帧集合;K*为与RTK测量关联的关键帧集合;rGi为在RTK-VIO方法中加入的RTK残差项;rIi-1,irνij分别为IMU的惯性残差和视觉的重投影残差,这2项根据ORB-SLAM3的建议按照Forster等[24]提出的方法给出。

    给定一个时间间隔[ti-1ti],惯性残差rIi-1,i由式(5)计算:

    式中:ΔRi-1,i、Δνi-1,i、Δpi-1,ii-1和i帧之间的IMU预积分得到。

    i帧和3D点j的位置xj之间,重投影残差由式(6)计算得到:

    式中:uij为图像i中空间3D点j的观测位置;Π:$ \mathbb{R}^3 \rightarrow \mathbb{R}^n$为相机的投影函数,将3D点投影到图像平面中;TBC由双目相机在智能割草机的安装位置决定;TBWB系到W系的刚性变换;⊕为SE(3)群对$ \mathbb{R}^3 $元素的变换。

  • 当智能割草机通过接收机接收到RTK定位信息时,首先进行RTK帧与关键帧的关联,具体方法是在每个关键帧所在的一个时间邻域内寻找RTK帧。如果时间差小于规定的阈值,则认为RTK帧与关键帧关联。对于关联到关键帧时刻ti的RTK帧,将测量值转换为ENU坐标系表示,记作$ {\mathop {{{\boldsymbol{t}}}}\limits^ \wedge }_i^{E N U}$。在局部BA滑动窗口中的第1个与RTK测量关联的关键帧时刻记为t0。RTK残差项表示为:

    式中:RWENU由滑动窗口中的前20个关联的RTK测量值通过Umeyama方法与相机位姿对齐确定;tDB由RTK接收机在智能割草机的安装位置确定;TBiW=[RBiWtBiW]为i时刻由B系到W系的刚性变换;tB0WνB0W为第1个与RTK测量关联的关键帧时刻,B系与W系之间的平移和速度,且在滑动窗口的优化过程中保持固定;gW为当地重力加速度。协方差矩阵ΣGi可根据RTK接收机技术文档给出,或根据返回的HDOP值确定:

    关于位姿误差状态的雅可比行列式定义为:

    式中:δ为扰动模型,本文选择对B系进行扰动,即右扰动;[tDB]×表示tDB的反对称矩阵。

  • 本文实验在2个真实的割草作业环境中开展。图 4a所示的场地1为一处校园绿化草地区域,草地区域大小约为28 m×40 m,草地中有景观灌木、乔木若干。场地1局部特征如图 4c所示,草地已进行了一定程度的修剪,整体比较平整。场地1中间有一条宽约2.5 m的人行道将草地一分为二,实验将在图 4a中左侧区域进行。由于场地1存在形态各异的景观灌木、乔木,能够为视觉特征点的识别提供更多有效信息,并且地面相对平整,振动噪声较小,可作为定位难度较小的作业环境。图 4b所示的场地2为一处人工草场,草场大小约为40 m×40 m,草场四周有零星分布的乔木。场地2局部特征如图 4d所示,草高约为10~15 cm。由于场地2比较空旷,能够提供有限的视觉信息,并且地面相对于场地1更加起伏不平,割草机作业时会产生更多振动噪声,因而场地2作为定位难度较大的作业环境。

    在2个实验场地中设计3条不同的作业路径,用于模拟简单、一般、困难3种不同难度的工况来验证算法,如图 5所示。路径1的实验在场地1中进行,而路径2和路径3的实验在场地2中进行。路径1和路径2均为环形路径,在路径的始端和末端采用方向错位或位置错位的方法避免闭环,以模拟真实作业路径中缺少闭环信息的情况。路径3采用折返路线,更加符合智能割草机实际工作中遍历草地的工作路径。同时,场景中存在多个转向,而转向操作对SLAM效果影响最大,因此路径3代表了最为困难的工况。

    为获得运动路径真值,在实验过程中使用1台无人机在实验场地上空定点悬停,并以90°俯视角同步拍摄视频。然后抽取视频帧,通过与RTK定位点的时间戳进行帧对齐和多帧合成得到路径真值,用于与实验结果进行对照。使用基于Python的SLAM评估工具EVO[25],对本文方法与对照方法的定位轨迹进行定量分析,计算本文方法与对照方法的估计位姿相对于真值位姿的绝对位姿误差(Absolute Pose Error,APE),并计算误差均值和均方根误差。

  • 图 6展示了简单工况下的实验结果。蓝色轨迹是利用本文提出的RTK融合VIO方法得到的结果,橙色轨迹是使用ORB-SLAM3 VIO方法得到的结果。本文方法的估计位姿相对于真值位姿的绝对位姿误差均值为0.931 m,均方根误差为1.016 m;对照方法的绝对位姿误差均值为1.219 m,均方根误差为1.237 m。可以看到,由于简单工况下环境视觉信息充足,作业过程振动较弱,2种定位方法都体现了较高的定位精度。然而,缺少闭环检测会导致误差累积产生一定的漂移,在轨迹末端(图 6中放大区域)仍然可以观察到ORB-SLAM3 VIO方法得到的定位结果偏离了实际轨迹,而本文方法避免了这种漂移。

    图 7展示了一般工况下的实验结果。可以看到,在场地2开展的一般工况下的实验,由于严重缺乏环境视觉信息,且作业过程振动较强,相比简单工况,2种方法的定位效果都有一定程度降低。本文方法的估计位姿相对于真值位姿的绝对位姿误差均值为1.403 m,均方根误差为1.691 m;对照方法的绝对位姿误差均值为2.418 m,均方根误差为2.617 m。在开始的直线运动中,2种方法都能保持较高的精度,而从第1个转弯(图 7中右上方放大区域)开始,定位轨迹就产生了漂移。ORB-SLAM3 VIO方法在漂移的同时还发生了明显的抖动,而本文方法虽然也发生了一定程度的漂移,但避免了这种抖动,获得了和真实轨迹一致的光滑曲线。在轨迹末端(图 7中左下方放大区域),由于误差累积,2种方法都在一定程度上偏移了真实轨迹,本文定位方法更加接近真实轨迹。

    图 8展示了困难工况下的实验结果。由于困难工况下包含较多的转弯,基于视觉的SLAM方法在转弯处会发生明显的漂移。从路径的第1个转弯开始,2种方法都发生了不同程度的漂移,导致定位计算的转角和实际转角不一致。随着经过的转弯增多,该误差不断累积。本文方法的估计位姿相对于真值位姿的绝对位姿误差均值为0.857 m,均方根误差为0.932 m;对照方法的绝对位姿误差均值为0.985 m,均方根误差为1.069 m。因此,本文提出的RTK-VIO融合定位方法更加接近真实轨迹。

    2种方法的误差分布对比如图 9所示,统计结果如表 2所示。本文方法与对照方法相比,简单、一般、困难3种工况下的绝对位姿误差均值分别降低了0.288 m、1.015 m、0.128 m,均方根误差分别降低了0.221 m、0.926 m、0.137 m。综上可知,本文提出的RTK-VIO融合定位方法相对于ORB-SLAM3 VIO方法具有明显提升。

    在实时性方面,将本文方法与对照方法实验的局部BA过程耗时和局部建图总耗时平均值和标准差进行对比,如表 3所示。由表 3可知,本文方法在加入RTK耦合后,虽然耗时增加在毫秒级,但标准差表现更加稳定,可以认为基本不影响算法的实时性能。

  • 1) 提出一种智能割草机的RTK-VIO融合定位算法,以缓解割草机场景下定位漂移和丢失的情况。将RTK定位测量通过紧耦合方法融合进ORB-SLAM3的VIO框架中,提出了该问题下RTK残差的计算方法和RTK-VIO初始化方法,并通过设计简单、一般、困难3种难度工况的实验验证其效果。

    2) RTK-VIO融合定位算法与对照方法ORB-SLAM3 VIO相比,在简单、一般、困难3种难度工况的实验中,绝对位姿误差均值和均方根误差均有明显降低,且通过实时性分析得出本文方法相比对照方法无明显的实时性负面影响。

    3) 本文方法得到的定位结果在困难场景中的表现可能受限于RTK接收机信号频率仅为1 Hz的条件,尽管相对于对照方法有明显提升,但误差绝对值仍然偏大,不能很好地满足智能割草机自动化作业需求。未来将考虑针对更新频率更高的RTK接收机进行紧耦合优化方法设计,以期对定位精度和鲁棒性有进一步提升。

参考文献 (25)

目录

/

返回文章
返回