同城58网 科技 停车场自主代客泊车视觉SLAM框架

停车场自主代客泊车视觉SLAM框架

来源 |刘贵涛@知乎

知圈 | 进“底盘社群”请加微yanzhi-6,备注底盘

先快速浏览下AVP-SLAM代码复现版本的建图及定位效果吧。建图效果如下图所示:

基于先验地图的定位效果如下图所示:

建图及定位的详细效果可访问下面的视频链接:

https://www.bilibili.com/video/BV11R4y137xb/

接下来将从AVP-SLAM-PLUS原理、仿真环境搭建、实验结果、致谢等四部分进行介绍。

AVP-SLAM的pipeline如下图所示,摘自AVP-SLAM论文。

复现版本AVP-SLAM-PLUS的pipeline如图所示

AVP-SLAM-PLUS是一款同时支持RGB相机和RGBD相机的自主泊车环视视觉SLAM系统。

除了提供SLAM功能,该系统还支持基于先验地图的定位(这点AVP-SLAM也有)。

下面以环视RGB相机为例,介绍下AVP-SLAM-PLUS系统的工作流程:

当系统接收到环视相机发送的图像(预先进行图像时间同步)后,依据IPM原理,转化为鸟瞰图点云。IPM原理可参考AVP-SLAM原论文。

将多个相机的鸟瞰图点云拼接成一张点云后,将该点云与地图进行配准,求解当前帧机器人的位姿。配准方式可灵活选用NDT或ICP。

当较上一个关键帧运动距离超过阈值时,创建新的关键帧,并将新关键帧的点云加入地图中。

当系统执行完毕后,保存地图到指定pcd文件中。利用保存的地图,即可进行基于先验地图的重定位。

环视RGBD相机原理与RGB相机原理相似,仅在点云拼接原理上有所不同。

环视RGBD相机利用相机外参,将其他相机的点云转到同一个相机的坐标上,组成一帧环视的点云。

为了检验AVP-SLAM-PLUS系统的性能,使用gazebo仿真环境进行实验。仿真环境主要包括两部分,小车模型和带停车位的路面环境。

仿真小车借鉴了ros_exploring的开源小车仿真模型。

https://github.com/huchunxu/ros_exploring

路面模型借鉴了AVP-SLAM-SIM的开源道路环境仿真模型。

https://github.com/TurtleZhong/AVP-SLAM-SIM

环视RGB相机建图实验效果如下

环视RGB相机基于先验地图重定位,实验效果如下

感谢秦通等大佬的研究工作,感谢ros_exploring和AVP-SLAM-SIM的开源仿真环境。

最后,希望这项工作能抛砖引玉,SLAM领域越来越欣欣向荣。

本文来自网络,不代表本站立场,转载请注明出处:https:

进行,视觉,地图,实验,效果,仿真,环境,系统,相机,原理,地图,ros,https,刘贵涛,相机

同城58网后续将为您提供丰富、全面的关于进行,视觉,地图,实验,效果,仿真,环境,系统,相机,原理,地图,ros,https,刘贵涛,相机内容,让您第一时间了解到关于进行,视觉,地图,实验,效果,仿真,环境,系统,相机,原理,地图,ros,https,刘贵涛,相机的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。