News

2D-Lidar SLAMを用いたロボットへのKudan Visual SLAM搭載による自律走行ロボ性能強化デモ

12.10.2020

Share on

2D-Lidarとそれを用いたRobot Operating System (ROS)上でのSLAMは、以前から屋内での移動ロボットには導入されてきました。このアプローチは、安全上の観点で多くのケースにおいて導入するセーフティースキャナーをセンサとして利用可能なうえ、オープンソースのソフトウェアを通じて導入が容易で、環境変化・動く物体・スロープがないといった環境においても、多くの事例で必要な性能を出せるという点がメリットとしてありました。

一方で、この2D-Lidar SLAMを用いたロボットの改善点として、一度「ロストする」(ロボットが自己位置を見失う)と、人が介入して初期位置に戻す、もしくは、所定の場所まで運ばなければならず、非常に生産性向上の妨げになっているという点が挙げられます。また、同時に、周囲に動く物体や作業員がいたり、荷物の場所が変わってしまうと、頻繁にロストするという点も課題として多く聞かれます。

Kudan Visual SLAM(V-SLAM)を既存の2D-Lidar SLAMに追加することで、これらの課題を克服することができます。たとえロボットがロストしても、Kudan Visual SLAMによって、すぐに自己位置を再認識し(リローカライゼーション)、手動で初期位置に戻すことなどなく、再びオペレーションが可能になります。

Kudanでは、Kudan V-SLAMを搭載した自律走行ロボットのプロトタイプを作成し、Kudan V-SLAMが上記の課題をどのように解決できるかを下記のデモ動画で示しています。ぜひご覧下さい。

Kudan SLAM: Supercharge your 2D LiDAR ROS robot with Kudan Visual SLAM


今回は、TurtlebotのKobukiモデルをロボットのベースとして用い、処理用のノートPC、2D-Lidar、ステレオカメラを載せて、ROS NavigationスタックとKudan V-SLAMを組み合わせて自律走行ロボットを作成しました。

動画の前半では、V-SLAMを用いず2D-Lidar SLAMだけでロボットを移動させることでロストさせ、再び自己位置を認識させて定めたゴール位置まで動かそうとしますが、ロボットは自己位置を再認識できず、誤った位置認識のまま動き続けてしまいます。

それに対し後半では、Kudan V-SLAMを追加したセットアップで同様のテストを行っています。ここでは、ロボットを動かしても即座に自己位置を再認識し、パスを更新し、障害物を回避しながら所定のゴール位置に向かって移動することができています。

既に2D-Lidar SLAMを導入している場合、単純に既存のセットアップを変えることなく、ステレオカメラを追加し、Kudan V-SLAMを搭載するだけで、自律走行ロボットの自己位置認識機能を強化し、ロボットの生産性の更なる向上が期待できます。


詳細や他のKudanの取り組みについては、YoutubeのKudanチャンネルや弊社ウェブサイトをご覧ください。

Share on

Recent Posts