每天一分钟,带你读遍机器人顶级会议文章
标题:A GPS-aided Omnidirectional Visual-Inertial State Estimator in Ubiquitous Environments
作者:Yang Yu, Wenliang Gao, Chengju Liu, Shaojie Shen, and Ming Liu
来源:IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS),2019
编译:杨光
审核:黄思宇,孙钦
这是泡泡一分钟推送的第 552 篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权
摘要
视觉惯性导航系统是近年来一种实用的状态估计方法。本文中,作者提出一种通用的GPS辅助全向视觉惯导状态估计器。系统主要包括两部分:(1)全向相机,IMU以及GPS测量值的预处理;(2)基于滑动窗口的非线性优化精确状态估计。在不同的条件下进行测试包括室内办公室,校园道路以及具有挑战的开放水面。实验结果表明,我们的方法在所有的场景中都比最先进的VINSs系统具有更高的准确性。在1200米长的室外校园道路上,与厘米精度的GPS基准相比,在过度曝光条件下,该方法的漂移率小于0.5%,在开放水面上,在没有环路闭合的情况下,该方法的漂移率为0.65%。
主要贡献
1.一个精确和鲁棒的全向视觉惯性系统,具有灵活数量的针孔相机配置,在线相机- imu标定以及从非平稳状态快速初始化。
2.一种紧耦合的非线性优化对于视觉和惯导测量与GPS松耦合细化精确里程计生成。
3.在室内各种各样的跨平台实验,挑战性的室外地面和开放的水面环境具有新颖的性能。
图1 户外实验的混合视图。红色的曲线是估计的轨迹,彩色的点表示高度的3D特征点。
(a)混合视图的地面实验在UGV平台上
(b)混合视图的开放水面实验在USV平台上
图2 带有IMU的全向相机的硬件结构。10个相机被分布在一个用塑料外壳包裹的圆柱体上。提出了一种GPS辅助的全向视惯导状态估计器。
图3.对于GPS辅助的全向VIO系统滑动窗口解释。由于频率较低,GPS信号在窗口内最多只能使用一帧。对于全双目,相机指示一对双目相机。
表2:室内实验结果;表3:地面实验结果
表4:开放水面实验结果
图4:(a)估计的轨道与卫星对齐,黄色和蓝色的点分别表示起始和结束。(b)与估计的轨迹对比
图5:GPS轨迹在谷歌地图显示。红色的指针是终点。双目框架漂移转向轨迹。(c)估计轨迹的比较。
Abstract
The visual-inertial navigation system (VINS) has been a practical approach for state estimation in recent years.In this paper, we propose a general GPS-aided omnidirectional visual-inertial state estimator capable of operating in ubiquitous environments and platforms. Our system consists of two parts:1) the pre-processing of omnidirectional cameras, IMU, and GPS measurements, and 2) the sliding window based nonlinear optimization for accurate state estimation. We test our system in different conditions including an indoor office, campus roads, and challenging open water surface. Experiment results demonstrate the high accuracy of our approach than state-ofthe-art VINSs in all scenarios. The proposed odometry achieves drift ratio less than 0.5% in 1200 m length outdoors campus road in overexposure conditions and 0.65% in open water surface, without a loop closure, compared with a centimeter accuracy GPS reference.