本文的设计思路是一个典型问题。作者选择的运动是为了最大化状态估计的精度,使无人机在运行过程中不会丢失定位。而且,他们并没有放弃在全局地图中优化运动轨迹的方法,而是使用滚动的方法来解决主动SLAM问题,有效地减少了计算资源。
图片说明:上面是他们算法的示意图。这种方法遵循图中蓝色轨迹,可以避开障碍物,到达指定目的地,使状态估计的不确定性最小化。相比之下,纯反应式导航方案(红线)更接近,但会进入无纹理区域,导致状态估计误差较大,最终无法到达指定目的地。该系统包括单目状态估计与映射系统和运动规划系统。单目状态估计和映射系统:首先,使用SVO估计摄像机的6自由度姿态。利用多传感器融合(MSF)软件进一步融合姿态估计和IMU测量,得到正确的尺度和附加速度估计。然后, 通过结合状态估计值和图像输入的变化来获得前视图的密集三维图。在稠密地图被用于运动规划之前,它被用于减少地图中的噪声。运动规划系统:由轨迹生成模块和轨迹评估模块组成。采用有效的轨迹生成方法,根据当前状态估计生成候选轨迹库。然后,我们根据感知质量、碰撞概率和到目标的距离这三个指标来评估每个轨迹。3单目状态估计与映射单目状态估计与映射采用SVO+MSF进行状态估计,通过生成密集的点云来避开障碍物。SVO是一种非常有效的VO算法,适用于资源有限的系统(无人机)。首先,为了评估感知质量, 他们还从SVO提取了一张活动地图。在内部SVO中,保持着一组稀疏点,这些稀疏点可以分为两类:标志和种子。标记是从不同的帧中多次观察到的三维点,它们的位置已经被很好地估计了。对帧姿态估计的精度贡献最大的种子是三维点,但是它们的位置还没有被精确估计。然后,从与当前帧重叠的关键帧中提取可见标志,我们将这些标志记录为活动图(图3)。其次,用于进一步降低输出中的噪声。如果密集点云包含过多离群点,轨迹评估模块会误判碰撞概率,导致不必要的避碰机动。图4示出了活动图和密集图, 它们分别由MA和MD表示。4轨迹生成轨迹生成函数:p0和v0是轨迹在世界坐标系中的初始位置和速度,由当前状态估计。Pf是轨迹的预期目的地,tf是四旋翼飞行器沿着轨迹到达pf所需的时间。输出是函数f(t)。对于t∈[0,tf],f(t)给出了t时刻轨道上的状态(位置,方向,速度)因为使用了前视相机,我们要向前方可见的方向移动,所以我们通过选择四旋翼前方一条圆弧上的端点来规划轨迹,如下图所示。这样,我们只需要知道圆弧的半径r和角度θ。当半径r为设计参数(定值)时,θ的计算公式为:其中kθ为常数。直觉上, θ随着速度的增加而增加,直到达到最大值θmax。然后使用θ和l,可以对圆弧上的端点进行均匀采样。在生成n个候选轨迹之后,以固定的时间间隔从每个轨迹中采样J个手势。然后根据以下公式选择得分最高的轨迹驱动无人机移动:其中pcol为与障碍物碰撞的概率(即密图)。Rcol,并分别给予与碰撞风险、感知质量和目标进度相关的奖励。感知质量是用D-opt标准的模拟形式计算出来的,其他具体扣除在此不展开。有兴趣可以阅读原文。下图显示了碰撞概率的计算。左栏显示模拟轨迹(黑色箭头)和障碍物(水平白带), 右栏显示用不同方法计算的碰撞概率。轨迹索引从左到右递增。5实验5.1模拟实验作者用模拟器搭建了一个模拟环境。在每个场景中,四旋翼飞行器从略有不同的起始位置启动,并被命令飞往指定目的地10次。在每次操作中,一旦状态估计偏离地面真实值超过5米,就终止执行,测试失败。一旦从状态估计到给定目的地的距离小于3米,就报告测试成功。贴图如下图所示:下图为实验结果,显示了所提方法的优势:第一个场景L形状由纹理强的区域(草和石头)和纹理弱的区域(左下角的黑色区域)组成。可以观察到,纯反应式导航方法指令四旋翼飞行器直接飞向目标,但轨迹经过视觉退化部分,导致状态估计误差较大。相比之下,本文的方法避免了四旋翼进入纹理较少的区域,能够保持合理的状态估计。第二个场景过渡在中间包含一个视觉退化区域,它位于起点和终点之间。虽然本文的方法可以使无人机走得更远到达目的地,但是反应式导航并不能成功完成任务。在第三个场景的障碍物中,地面几乎没有纹理,大部分视觉信息来自障碍物。在这种场景中,本文的轨迹方法和反应式导航与前两种场景没有太大的不同, 但本文方法的状态估计误差仍明显小于纹理完整、视觉无明显退化的第四场景。在这种场景下,反应式导航和本文的方法都有很好的表现,本文的方法也有更好的表现。5.2真实实验下图是真实实验环境和结果。从实验结果可以看出,无人机并没有直奔目标,而是选择了一条距离稍长但纹理信息更丰富的路线。6摘要本文来自苏黎世大学。我觉得这篇文章的内容,插图,公式推导都很清楚。当时看这篇文章的时候刚接触SLAM, 但是我看了这篇文章就不会觉得迷茫和无聊了。笔者提出的无人机解决方案也是非常创新高效的。通过本文的实验结果,我们可以清楚地看到他们提出的方法的优势!目前,该工作室已经建立了多个3D视觉方向的社区。包括SLAM、工业3D视觉、自动驾驶方向,子组包括【工业方向】3D点云、结构光、机械臂、缺陷检测、3D测量、TOF、摄像机标定、综合组;【SLAM方向】多传感器融合,ORB-SLAM,激光SLAM,机器人导航,RTK|GPS|UWB等传感器通信群,SLAM综合讨论组;【自动驾驶方向】深度估计、毫米波|激光雷达|视觉相机传感器讨论组、多传感器标定、自动驾驶综合组等。【3D重建方向】NeRF等除了这些, 有求职、硬件选型、视觉产品落地等交流群。可以加个小助手,备注:加群+方向+学校|公司助理会拉你入群。