留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

半直接法与IMU融合的双目视觉里程计

上一篇

下一篇

种一帆, 冀杰, 宫铭钱, 等. 半直接法与IMU融合的双目视觉里程计[J]. 西南师范大学学报(自然科学版), 2021, 46(2): 112-120. doi: 10.13718/j.cnki.xsxb.2021.02.019
引用本文: 种一帆, 冀杰, 宫铭钱, 等. 半直接法与IMU融合的双目视觉里程计[J]. 西南师范大学学报(自然科学版), 2021, 46(2): 112-120. doi: 10.13718/j.cnki.xsxb.2021.02.019
CHONG Yi-fan, JI Jie, GONG Ming-qian, et al. A Stereo Visual Odometry Aided by IMU based on Semi-direct Method[J]. Journal of Southwest China Normal University(Natural Science Edition), 2021, 46(2): 112-120. doi: 10.13718/j.cnki.xsxb.2021.02.019
Citation: CHONG Yi-fan, JI Jie, GONG Ming-qian, et al. A Stereo Visual Odometry Aided by IMU based on Semi-direct Method[J]. Journal of Southwest China Normal University(Natural Science Edition), 2021, 46(2): 112-120. doi: 10.13718/j.cnki.xsxb.2021.02.019

半直接法与IMU融合的双目视觉里程计

  • 基金项目: 国家自然科学基金(61304189); 中央高校基本业务费专项资金重点项目(XDJK2019B053); 汽车主动安全测试技术重庆市工业和信息化重点实验室2019年度开放课题(19AKC8)
详细信息
    作者简介:

    种一帆,硕士研究生,主要从事计算机视觉和视觉里程计的研究 .

    通讯作者: 冀杰,副教授,硕士生导师; 
  • 中图分类号: TP242

A Stereo Visual Odometry Aided by IMU based on Semi-direct Method

  • 摘要: 针对基于特征点法的视觉里程计实时性和鲁棒性较差的问题,提出一种基于半直接法的双目视觉惯性里程计算法. 在跟踪线程中将惯性测量数据作为先验,并使用逆光流法跟踪均匀化的特征关键点,以提高特征匹配的速度和鲁棒性,构建高精度的初始化地图,为后续的运动估计提供良好的初值. 使用简化的双目视觉模型构造重投影误差,结合IMU误差项构建联合优化模型,并在滑动窗口中进行非线性优化求解. 实验结果显示,该算法在数据集上的定位精度达到主流算法的水平,与VINS-Fusion算法相比,此算法拥有更低的CPU负载和更高的运行帧率.
  • 加载中
  • 图 1  本文算法流程图

    图 2  特征提取结果

    图 3  逆光流跟踪算法原理

    图 4  MH_01数据集中里程计定位效果

    图 5  MH_04数据集中里程计定位效果

    图 6  V2_01数据集中里程计定位效果

    图 7  V2_03数据集中算法的定位误差

    图 8  MH_03数据集中里程计定位效果

    图 9  V1_02数据集中里程计定位效果

    表 1  角点检测耗时(ms)

    检测算法 角点数量 总耗时 平均耗时
    传统FAST 1 989 73.18 0.037
    FAST角点均匀化处理 237 68.52 0.289
    下载: 导出CSV

    表 2  各算法的RMSE对比

    数据集 MH_01 MH_03 MH_05 V1_01 V1_02 V1_03 V2_01 V2_02 V2_03
    ORB-SLAM2 0.036 0.071 0.064 0.031 0.065 0.092 0.071 0.161 0.265
    VINS-Fusion 0.251 0.289 0.318 0.152 0.113 0.120 0.120 0.086 0.216
    Ours 0.174 0.167 0.262 0.158 0.084 0.077 0.097 0.093 0.159
    下载: 导出CSV

    表 3  CPU负载和运行帧率的统计

    数据集 CPU负载/% 运行帧率/Hz
    VINS-Fusion 本文算法 VINS-Fusion 本文算法
    MH_01_easy 54.14 47.25 28.62 37.02
    MH_02_easy 47.78 41.72 28.13 36.83
    MH_03_medium 45.84 42.52 27.14 35.31
    MH_04_difficult 50.45 49.87 27.98 36.47
    MH_05_difficult 53.27 50.84 26.85 35.96
    V1_01_easy 55.76 48.76 26.71 34.72
    V1_02_medium 49.86 45.25 27.26 34.36
    V1_03_difficult 51.69 49.69 28.46 36.75
    V2_01_easy 52.33 49.78 27.93 35.61
    V2_02_medium 51.09 46.26 26.76 34.63
    V2_03_difficult 49.84 44.65 26.84 41.38
    Average 51.01 49.96 27.52 36.28
    下载: 导出CSV
  • [1] 孙永全, 田红丽. 视觉惯性SLAM综述[J]. 计算机应用研究, 2019, 36(12): 3530-3533, 3552. doi: https://www.cnki.com.cn/Article/CJFDTOTAL-JSYJ201912002.htm
    [2] DAVISON A J, REID I D, MOLTON N D, et al. MonoSLAM: Real-Time Single Camera SLAM[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1052-1067. doi: 10.1109/TPAMI.2007.1049
    [3] KLEIN G, MURRAY D. Parallel Tracking and Mapping for Small AR Workspaces[C]//2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. November 13-16, 2007, Nara, Japan. IEEE, 2007: 225-234.
    [4] MUR-ARTAL R, MONTIEL J M M, TARDOS J D. ORB-SLAM: A Versatile and Accurate Monocular SLAM System[J]. IEEE Transactions on Robotics, 2015, 31(5): 1147-1163. doi: 10.1109/TRO.2015.2463671
    [5] ENGLE J, SCHöPS T, CREMERS D. LSD-SLAM: Large-Scale Direct Monocular SLAM[C]//European Conference on Computer Vision. Springer, Cham, 2014: 834-849.
    [6] ENGEL J, KOLTUN V, CREMERS D. Direct Sparse Odometry[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(3): 611-625. doi: 10.1109/TPAMI.2017.2658577
    [7] FORSTER C, PIZZOLI M, SCARAMUZZA D. SVO: Fast Semi-direct Monocular Visual Odometry[C]//2014 IEEE International Conference on Robotics and Automation (ICRA). May 31-June 7, 2014, Hongkong, China. IEEE, 2014: 15-22.
    [8] QIN T, LI P L, SHEN S J. Vins-Mono: A Robust and Versatile Monocular Visual-inertial State Estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004-1020. doi: 10.1109/TRO.2018.2853729
    [9] SUN K, MOHTA K, PFROMMER B, et al. Robust Stereo Visual Inertial Odometry for Fast Autonomous Flight[J]. IEEE Robotics and Automation Letters, 2018, 3(2): 965-972. doi: 10.1109/LRA.2018.2793349
    [10] BLOESCH M, BURRI M, OMARI S, et al. Iterated Extended Kalman Filter based Visual-Inertial Odometry using Direct Photometric Feedback[J]. The International Journal of Robotics Research, 2017, 36(10): 1053-1072. doi: 10.1177/0278364917728574
    [11] MOURIKIS A I, ROUMELIOTIS S I. A Multi-State Constraint Kalman Filter for Vision-aided Inertial Navigation[C]//Proceedings 2007 IEEE International Conference on Robotics and Automation. April 10-14, 2007, Roma, Italy. IEEE, 2007: 3565-3572.
    [12] LEUTENEGGER S, FURGALE P, RABAUD V, et al. Keyframe-based Visual-inertial SLAM Using Nonlinear Optimization[J]. Proceedings of Robotis Science and Systems (RSS) 2013, 2013.
    [13] WANG G, SUN X, SHANG Y, et al. Two-View Geometry Estimation Using RANSAC With Locality Preserving Constraint[J]. IEEE Access, 2020, 8: 7267-7279. doi: 10.1109/ACCESS.2020.2964425
    [14] VOGIATZIS G, HERNáNDEZ C. Video-Based, Real-Time Multi-View Stereo[J]. Image and Vision Computing, 2011, 29(7): 434-441. doi: 10.1016/j.imavis.2011.01.006
    [15] 李勇, 刘鹤飞, 王坤, 等. 隐马尔科夫多元线性回归模型中未知隐状态个数的贝叶斯模型选择[J]. 西南师范大学学报(自然科学版), 2020, 45(7): 11-17. doi: http://xbgjxt.swu.edu.cn/article/doi/10.13718/j.cnki.xsxb.2020.07.002
    [16] 许翊, 刘学军. 计算机双目视觉中的动态规划立体匹配算法研究[J]. 西南师范大学学报(自然科学版), 2020, 45(9): 118-123. doi: http://xbgjxt.swu.edu.cn/article/doi/10.13718/j.cnki.xsxb.2020.09.018
  • 加载中
图( 9) 表( 3)
计量
  • 文章访问数:  2054
  • HTML全文浏览数:  2054
  • PDF下载数:  98
  • 施引文献:  0
出版历程
  • 收稿日期:  2020-06-08
  • 刊出日期:  2021-02-20

半直接法与IMU融合的双目视觉里程计

    通讯作者: 冀杰,副教授,硕士生导师; 
    作者简介: 种一帆,硕士研究生,主要从事计算机视觉和视觉里程计的研究
  • 西南大学 工程技术学院,重庆 400715
基金项目:  国家自然科学基金(61304189); 中央高校基本业务费专项资金重点项目(XDJK2019B053); 汽车主动安全测试技术重庆市工业和信息化重点实验室2019年度开放课题(19AKC8)

摘要: 针对基于特征点法的视觉里程计实时性和鲁棒性较差的问题,提出一种基于半直接法的双目视觉惯性里程计算法. 在跟踪线程中将惯性测量数据作为先验,并使用逆光流法跟踪均匀化的特征关键点,以提高特征匹配的速度和鲁棒性,构建高精度的初始化地图,为后续的运动估计提供良好的初值. 使用简化的双目视觉模型构造重投影误差,结合IMU误差项构建联合优化模型,并在滑动窗口中进行非线性优化求解. 实验结果显示,该算法在数据集上的定位精度达到主流算法的水平,与VINS-Fusion算法相比,此算法拥有更低的CPU负载和更高的运行帧率.

English Abstract

  • 随着计算机和传感器技术的不断发展,视觉SLAM(即时定位与地图构建)逐渐成为智能驾驶、自主机器人和无人机等新兴领域的核心技术. 视觉里程计根据相机采集到的图像信息计算运动载体的位姿,并选取关键帧用于建图和后端优化,是视觉SLAM的核心部分. 图像特征是视觉里程计最重要的定位信息之一,对其提取和跟踪的结果将直接影响整个系统的稳定性. 根据图像信息处理方法的不同,视觉里程计主要分为特征点法和直接法两类[1]. 很多经典的算法通过计算描述子来实现对特征关键点的跟踪和匹配[2-4],但这种组合方式仍存在一些的问题:特征描述子的计算会给CPU带来很大压力,算法在特征纹理不明显的场景下无法工作等. LSD-SLAM以及DSO等一系列的直接法算法的提出给研究者提供了解决这些问题的另一种思路[5-6]:基于图像的灰度变化对图像帧中的特征像素进行匹配,这种方式节省了特征提取以及描述子计算的时间,只要图像中存在像素的明暗变化,直接法就可以通过最小化光度误差完成相机运动的估计,然而,直接法对光照变化极其敏感,而且无法应对较大幅度的快速运动. 近年来,研究者的目光逐渐集中到基于半直接法的视觉里程计[7-10],这类算法通过特征对齐和稀疏图像对齐避免了显式的特征匹配过程,节约了描述子计算和匹配的时间,拥有极高的计算效率,同时也避免了像直接法一样需要较高的采样帧率,为在定位精度和计算效率之间找到合理的平衡提供了有效的途径.

    图像信息可以提供丰富的运动约束,但当相机镜头被遮挡或是遇到纹理不明显的场景时,纯视觉里程计难以实现精准定位,而惯性测量单元可以在短期内提供可靠的运动估计,但由于IMU的测量特性,随着里程的增加累积误差也会变大. 作为目前主流的实时定位技术,视觉惯性里程计能够融合相机的图像信息和IMU的运动信息,兼具两种里程计的优势,从而获得较高的定位精度和鲁棒性. 然而,不同传感器的数据融合会增加算法的复杂性,因此需要进一步提升算法的鲁棒性和计算效率.

    视觉惯性里程计根据融合框架的不同可以分为松耦合和紧耦合两类. 松耦合的框架中两种传感器信息分别单独处理,其中IMU模块仅用于辅助视觉模块的位姿估计,这类框架的信息融合通常由扩展卡尔曼滤波完成. 紧耦合的框架则是将IMU和视觉约束信息放在同一个非线性优化函数中进行状态估计. 目前的研究结果表明,基于松耦合的算法在计算效率上有一定优势,但在紧耦合框架中,IMU数据可以对视觉模块进行补充,同时视觉信息也可以矫正IMU的零偏,因此一般认为紧耦合算法的定位精度更高. 另外,根据求解思路的不同又可以将视觉惯性里程计分为基于滤波和基于优化的两种方法. MSCKF是一个经典的基于滤波的紧耦合方案,它在一个滑动的窗口中按时序排列邻近帧的相机状态量,共同建立约束处理位姿优化[11]. 近年来,随着研究的深入和计算机性能的提高,基于优化的算法逐渐占据VIO研究的主体地位. 这类算法通过求解一个非线性优化问题,实现对历史位姿更为平滑的估计.

  • 本文定义了3个坐标系:世界坐标系FW、相机坐标系FC以及IMU坐标系FS. 其中FW的原点设置为IMU的初始位置,z轴的方向与重力相同. 两图像帧之间的变换用齐次矩阵T表示,如TWS代表IMU坐标系到世界坐标系的位姿转换,其中旋转部分记作RWS,也可以用四元数表示为qWS.

  • 本文提出了一种基于视觉惯性融合的双目视觉里程计,该算法的主要框架如图 1所示. 前端的跟踪线程中,将IMU先验位姿作为初值,使用半直接法进行相邻图像帧之间的运动估计. 系统初始化模块主要用于对齐视觉和惯性信息,并构建高精度初始地图. 后端进行局部优化,结合视觉和惯性信息构建联合优化模型,在滑动窗口中对关键帧位姿以及地图点进行优化. 本文的主要贡献如下:

    1) 提出了一种半直接法和IMU融合的双目视觉惯性里程计算法框架;

    2) 使用逆光流法跟踪均匀化的FAST关键点,提高图像处理的计算效率;

    3) 基于双目相机的特点,提出一种简化的双目视觉模型以减少图 1右半部图像中的多余测量值的计算;

    4) 结合视觉和惯性测量信息,构建高精度的初始化地图,为之后的运动估计和位姿优化提供基础.

  • 通常情况下,IMU的采样频率远高于相机,因此在两相邻图像帧之间存在多个IMU测量数据,文献[12]中给出了IMU预积分的详细推导过程. 参考预积分理论,通过对两相邻图像帧ii+1之间的多个IMU测量值积分,可以得到Δt时间段内IMU的状态增量,包括位移p,速度v以及旋转矩阵对应的四元数q

    其中,RSW表示从世界坐标系到IMU坐标系的变换矩阵,gW是世界坐标系下的重力分量.

    需要注意的是,传感器零偏bgba在两图像帧之间也在缓慢地发生变化. 为了保持较快的处理速度,在下个时刻对其求一阶泰勒展开得到一个近似偏差值,则传感器偏差改变时测量值的更新式为

    其中,$ \partial \alpha_{i}$qi对应的欧拉角,$\left\{\frac{\partial p}{\partial b}, \frac{\partial v}{\partial b}, \frac{\partial \alpha}{\partial b}\right\} $是相关状态量的变化梯度,可由Δt之间的IMU测量值计算求出.

  • 本文使用FAST角点快速检测算法对左右相机采集到的图像提取关键点,为了避免提取的关键点过于集中,除了非极大值抑制以外,还采用均匀化提取的策略. 首先,设置阈值Td对视觉帧图像粗提取一批角点,然后将该图像分割成固定大小的G个网格,并设置每个网格中的最大角点数量M,使用Harris角点评价准则计算每个网格中角点的评价得分,若某网格中的角点数量大于M,则选取评分高的前M个角点作为特征关键点,若网格内的角点数量极小,则忽略这片特征.

    实验对比结果如图 2所示. 左图是传统FAST特征检测算法提取结果,右图是结合均匀化策略的特征提取结果. 通过对比可以看出,右图中的角点提取数量明显少于传统FAST特征检测算法,且角点分布较为均匀; 左图中门框、三脚架以及桌子上的角点提取过于密集,而在右图中得到了明显改善,地面和墙上的部分零星角点被舍弃. 表 1记录了两种角点检测的耗时情况,从表中数据来看,改进后算法的角点检测数量远低于传统FAST检测算法,虽然平均耗时有所增加,但总耗时与传统FAST算法差距不大,这种策略可以在很大程度上避免由于特征提取过于集中而造成的误匹配,还能减少特征提取的数量,提高特征匹配的计算效率.

    与采用单一传感器的纯视觉里程计不同,本文算法结合了两种传感器的信息来实现对图像特征的跟踪. 针对两相邻图像帧,通过IMU预积分可以为特征跟踪提供一个良好的先验位姿,如下式:

    其中,TWS表示通过IMU预积分求得的相邻图像帧之间的变换矩阵,TSC表示相机与IMU之间的外参矩阵.

    在此基础上,使用逆光流法对相邻图像帧中的关键点进行跟踪,如图 3所示. 假设像素a是上一图像帧中的稳定角点,利用光流跟踪可以获得下一图像帧上对应的像素b,然后再反向追踪像素b在上一帧中的对应像素c,由于噪声的影响,a和c的位置不可能完全重合,通过比较两者之间的像素距离d与设定阈值的大小,判断此次跟踪的正确性. 然而在多数的场景中,载体相机采集的图像无法完全满足光流法的条件,因此会出现像素点跟踪错误甚至跟踪失败的情况,本文使用RANSAC(随机抽样一致)算法对光流跟踪结果进行过滤[13],以消除异常点.

  • 系统初始化是视觉和惯性信息之间松耦合的过程. 首先需要对视觉部分进行初始化,得到三维空间中一系列的相机位姿,同时IMU持续进行预积分,获取图像帧之间的预积分量,之后把视觉初始化得到的相机位姿和预积分结果进行对齐,估计出初始化过程中图像帧速度、陀螺仪的零偏以及重力矢量等.

    本文系统中,IMU与双目相机可以看作一个整体,所以相机从ii+1帧图像的旋转变换应与IMU在对应时间内的旋转增量相同,忽略传感器的观测噪声将两者的结果对齐,通过最小化相对旋转误差得到陀螺仪零偏的初始值:

    其中,N是图像帧数目,ΔRii+1为相邻图像帧之间的陀螺仪积分,RSW为IMU坐标系到世界坐标系的旋转矩阵.

    针对要求解重力矢量以及各图像帧时刻的速度,设目标状态量为$ \chi=\left[v_{1}, \cdots, v_{i} \cdots, v_{n}, g\right]$,其中vi代表第i帧图像对应的速度,g代表重力矢量. 由预积分公式可得:

    其中,vi+1ipi+1i可以通过预积分求出,pipi+1可以由视觉初始化求出.

    根据多帧图像间的上述约束关系联立方程组,通过SVD分解即可得到初始化过程中的速度和重力矢量的估计值. 此外,根据重力矢量相对世界坐标系z轴的旋转,可以将系统初始位姿与世界坐标系对齐,并以此位姿作为参考构建初始地图,为之后的运动估计提供精确的初值. 为了提高初始地图的精度,采用以下3个步骤构造和维护地图点:

    1) 构造地图点

    地图点的位置可以用关键点的归一化坐标z和深度d表示为向量d·z,其计算过程如下所示:

    整理后可得:

    其中,z1z2表示两个相匹配关键点的归一化坐标,R12t12表示两个图像帧之间的旋转矩阵和平移向量.

    此外,为了验证初步构建地图点的有效性,本文使用卡方检验标准来评估其位置向量. 位置向量的偏差定义为:e=dzd1z1,测量的距离定义为:D=dzt12/2,地图点的位置偏差应限制在测量距离的范围之内,其卡方标准可以定义如下:

    其中,σ是对应关键点的标准方差. 如果echi2大于预定阈值,则表示估计偏差很大或该地标点非常接近相机,这两种情况下都会导致初始地图一定程度的失真.

    2) 深度更新

    本文使用多对具有丰富特征的连续图像帧来构造初始地图,因此在初始化的过程中可以得到同一地图点的多个深度值,每个地图点的深度应不断进行更新,使得估计结果的不确定性逐渐变小. 根据文献[14]中的理论,本文使用高斯+均匀混合分布建模,当出现新的深度估计时,使用递归贝叶斯方法更新此混合分布中的参数[15],使得期望值更接近真实深度,如公式(9)所示:

    3) BA优化

    在创建足够多的地图点之后,先对初始地图中的所有图像帧进行一次分类,若某图像帧中的可视地图点数量达到设定阈值,便将其标记为有效图像帧,反之,则标记为无效图像帧. 然后,联合初始地图中所有有效图像帧的位姿及其可见地图点的三维坐标构建重投影误差项,其目标函数可以定义为

    其中,ex=uijh(Tizj)表示相机在位姿Ti处对地图点l的观测误差,h是相机投影模型,Ω是相关地图点的信息矩阵.

    通过最小化此目标函数可以获得优化的图像帧位姿以及地图点坐标,由于先对参与优化的图像帧进行了一次筛选,提高了优化的效率和精度,为后续运动估计提供了良好的初值.

  • 根据相机投影模型可以将任何可见的3D地标点投影到像素坐标系中. 左侧相机的重投影误差可表示为

    其中,ulvl是左图像帧中的观测坐标,fcxcy是相机内参.

    可以看到,如果按照传统的方式构建左右相机的重投影误差,会产生一个四维的误差向量,这无疑增加了计算的复杂度. 本文使用一种简化的视觉模型来解决这个问题:假定双目相机已经严格校正,则左右两幅图像中的投影点的纵坐标是相同的,某一时刻下的左右图像匹配后,可获取右图像中对应特征点横坐标的观测值[16],根据双目相机投影模型的特点,可以计算得到右图像中地标点投影位置的横坐标,然后将其与观测值相比较,便得到右侧相机的重投影误差:

    其中,ur是右图像中的横坐标观测值,b是双目相机的基线. 此时,可将双目重投影误差用一个三维向量表示:

    IMU的测量误差主要分为两部分,包括预积分项的Rvp的误差以及bgba的误差. 根据预积分模型,将各误差分量表示为

    因此,IMU误差项可表示为

    基于上述的视觉重投影误差与IMU传播误差,构建联合优化的模型,以求解更准确的相机位姿和地图点三维信息,构建视觉惯性联合优化的目标函数:

    其中,M是当前窗口中的关键帧集合,L(i)是两个相机在第i帧中同时观察到的地图点集合,ΩCΩS分别代表视觉信息矩阵和惯性信息矩阵, $ e_{C}^{T} \mathit{\Omega}_{C} e_{C}$$e_{S}^{T} \mathit{\Omega}_{S} e_{S} $表示窗口中对应时刻的视觉误差和IMU误差的二次形式.

  • 在不改变一致性的前提下,对滑动窗口内最旧的关键帧状态边缘化处理,可以避免丢失该关键帧包含的关联信息,有效地保留历史信息对窗口内的其他状态的影响,该过程的本质是一个最小二乘问题,本文用高斯牛顿迭代法求解,定义如下:

    在边缘化过程中,不直接删除被边缘化的状态量以及与其相关的地标点,否则会减少优化过程中的约束. 假定δxa是要被边缘化的状态量,δxb是需要被保留的约束,根据舒尔补公式对优化量进行边缘化操作,该过程可简化为

    整理得:

    其中,$H_{b b}-H_{b a} H_{a a}^{-1} H_{a b} $$ b_{b}-H_{b a} H_{a a}^{-1} b_{a} $表示被边缘化的H矩阵,状态量δxa被边缘化.

  • 本文通过以下实验来评估所提出双目视觉惯性里程计的性能. 首先,使用EuRoC MAV数据集对算法性能进行评估,然后将所提出算法与ORB-SLAM2以及VINS-Fusion算法进行比较分析. 实验所用笔记本配置为六核i5-8400处理器,满载频率为3.8 GHz.

    EuRoC MAV数据集由安装在微型飞行器上的各种传感器收集而得到,该数据集分为3个系列的飞行场景,包含一系列由简单到复杂的运动序列. 选取EuRoC MAV数据集中较有代表性的MH_01,MH_04,V2_01以及V2_03运动序列作为实验场景,本文算法的运行结果如图 4-图 7所示:

    图中显示了本文算法在所选数据集中的运动轨迹和定位误差. 其中,MH_01序列中的定位误差保持在0.361 m内,V2_01序列中的定位误差保持在0.262 m内,这表明本文算法在运动相对平稳,光照变化较小的场景中具有较高的定位精度. 在无人机运动较快,光照条件较差的MH_04序列与V2_03序列中,本文算法的定位误差分别保持在0.699 m和0.527 m内,且保持在一个相对平稳的状态,表明本文提出双目惯性里程计算法在恶劣场景下的鲁棒性较好.

    为了进一步验证算法性能,选择ORB-SLAM2和VINS-Fusion算法同本文算法作比较,对应的均方根误差(RMSE)如表 2所示,需要注意的是,实验时关闭了VINS-Fusion算法中的回环检测功能. 从表中数据对比可以看出,ORB-SLAM2在M系列以及V1_01,V1_02和V2_01数据集中的RMSE值是最小的,这是基于特征法的纯视觉里程计的优势:适用于光照条件较好的大场景运动估计; 而在光照条件差、运动较快的场景中,另外两种视觉惯性里程计的算法表现更好,这也是两种传感器互补的优势. 与VINS-Fusion算法对比,本文算法在MH_03和V1_02两个数据集中的表现更好,其运动轨迹对比如图 8-图 9所示,其中,虚线代表该运动序列的真实参考轨迹,橘色的线代表VINS-Fusion算法在该序列下的运动轨迹,而蓝色的线代表本文算法在该序列下的运动轨迹,对比两者的运动轨迹可以看出,本文算法在两个运动序列中定位精度的表现都优于VINS-Fusion算法,尤其是在V1_02这种较为复杂的场景中. 在V1_03,V2_03的数据集中,本文算法获得的RMSE值最小,这是由于本文算法提供了更精确的先验信息并改进了光流匹配过程,为之后的位姿优化过程提供了可靠的基础,而且以强约束关键帧作为滑动窗口的优化项,进一步提高了位姿估计的精度.

    为了验证算法的实时性,表 3记录了本文算法和VINS-Fusion算法在数据集上的CPU负载和运行帧率. EuRoC MAV数据集中所使用相机的帧率为20 Hz,所以若某算法的运行帧率低于20 Hz,整个系统的数据处理会出现明显的延迟. 从表中数据对比可以看出,相比于VINS-Fusion,本文的算法降低了约8%CPU负载,且运行帧率更高.

  • 本文提出了一种基于半直接法的双目视觉惯性里程计算法,在系统初始化阶段,结合惯性测量数据和双目相机的图像信息构建高精度的初始化地图,为后端的位姿优化提供良好的初值; 使用简化的双目视觉模型构建重投影误差,减少了对右相机图像中多余的测量值的计算; 在滑动窗口边优化的过程中选择性地剔除部分图像帧信息,确保在优化过程中拥有足够参考信息的同时尽可能地减少优化计算量; 与ORB-SLAM2和VINS-Fusion算法的实验对比表明,本文算法在定位精度上已达到主流的视觉里程计的水平,并且在计算效率方面有一定程度的提高.

参考文献 (16)

目录

/

返回文章
返回