全5684文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 SLAMは移動体がオンラインでセンシングを行いながら自己位置推定および環境地図の作成を行うタスクであり、ロボットやドローン、自動車の自動運転などで重要なタスクである。センサとしてLIDARや車輪のエンコーダ(オドメトリ)を使う場合が多いが、カメラを利用したVisual SLAMも増えつつある。

著者の岡野原大輔氏
著者の岡野原大輔氏

 このSLAMタスクにおいて2021年8月に発表されたDROID-SLAM1)は従来のVisual SLAMの精度、成功確率(通常のSLAMは自己位置を見失うなど失敗する場合も多い)を大きく改善した(図1)。具体的にはECCV 2020 SLAM Competitionの優勝チームと比べて自己位置推定精度で62%誤差を小さくしたほか、EuRoC、TUM-RGBD、ETH3D-SLAMなど、他のデータセットでも従来手法の誤差を60~80%近く改善している。また成功確率もETH3D-SLAMで従来手法が19/32回成功だったのに対し、DROID-SLAMは30/32回成功した。

図1 DROID-SLAMにより作成した3次元地図の例
図1 DROID-SLAMにより作成した3次元地図の例
(図:文献1のZ. Teed et al., “DROID-SLAM: Deep Visual SLAM for Monocular, Stereo, and RGB-D Cameras,”より)
[画像のクリックで拡大表示]