動的に変化する環境の中で自己位置を推定する自律走行ロボット

西村 真衣NISHIMURA Mai
オムロン サイニックエックス株式会社
リサーチアドミニストレイティブディビジョン
専門:コンピュータビジョン、GPGPU
所属学会:IEEE

移動ロボットの自律移動システムは搭載センサによる環境認識と地図構築、その地図上での自己位置認識に基づく経路計画によって構成される。静的な環境においては事前に地図構築を行い、環境センサ情報を登録地図と照合することにより比較的安定して移動システムを動作させることができるが、人が介在するなど動的な環境においては地図構築の観点からはノイズとなる移動体を如何に処理するかが課題となる。本稿では自律移動システムのうち特に動的環境を対象とした自己位置推定に焦点をあて、移動体が存在する環境下における主なアプローチを俯瞰すると共に、我々が提案する移動体のみを利用する新たな移動軌跡復元手法の枠組みについて述べる。

1. まえがき

移動ロボット(モバイルロボット)、またその土台となる自律移動システムは工場内や公共施設における運搬、警備、物流、清掃など多様なシーン、用途で活用されている。一方で工場内のように経路、障害物を固定できる環境と比較して、人が介在するなど特に動的に大きく変化する環境へのモバイルロボットの導入は未だ課題が多い。自律移動システムは搭載センサによる周辺環境の認識と地図構築、構築した地図上での自己位置認識と経路計画によって構成されるが、その全てのプロセスにおいて移動体の存在を考慮する必要がある。第一に地図構築において、静的な環境では事前に地図構築を行うことが可能であるが、移動体を含む環境地図は刻一刻と変化するため、固定の静的な背景と移動体による動的な前景を分離可能にした環境地図を逐次更新しながら構築し、走行可能領域を算出する必要がある。更に、その構築した地図上で自律走行を行うには、変化する環境地図上での自己位置及び障害物となる移動体の認識が不可欠となる。本稿では、このような動的環境下を対象とした自律移動システムの中で特に自己位置推定に着目し、既存のアプローチを俯瞰すると共に、移動体のみを利用した新たな自己軌跡復元の枠組みについて述べる。

移動ロボットでは、IMU(Internal Measurement Unit)、LiDAR等多様なセンサが利用されているが、本稿では特に単眼RGB画像センサで構成される自律移動システムについて解説する。RGBカメラを用いた地図構築及び自己位置推定は静的なランドマークを複数の視点から観測し、多視点幾何による幾何学的な拘束式を解くことによりカメラの位置パラメータを逐次算出することが基本となる。そのため、環境地図及び自己位置推定は静的なシーンの観測が前提とされ、歩行者や自転車、自動車など移動体が含まれる環境ではそれらを外れ値として、又は意味レベルで障害物として認識し、除外する方法が取られてきた1,2)。更に、移動体が多く存在するシーンでは安定した自己位置推定を実現するため、移動体であるオブジェクトも同時にランドマークとして複合的に最適化対象とするアプローチも提案されている3,4)。しかしながら、これらはいずれも静的なランドマークの観測をベースとした従来の手法の拡張として提案されており、静的なランドマークが安定してトラッキングし続けられることが前提となる。

以上で述べた通り、従来の自律移動システムは周辺環境が静的で変化しないことが前提であり、動的な環境の変化に対応するための拡張手法群もシーン全体の中で静的なランドマークが支配的である環境を対象としている。では、雑踏など移動体の存在がシーンの内で支配的であり、遮蔽により静的なランドマークの安定した追跡が不可能な状況下でも尚自律走行ロボットを運用し続けるにはどのような方法が取れるだろうか。本稿の後半では更に、そのような従来のアプローチが機能しない“超”動的な環境における自己位置推定の新しい枠組みについて紹介する。

2. 多視点幾何の基礎

2.1 多視点撮影による幾何パラメータの推定

移動ロボットでは以下ⅰ)~ⅳ)のプロセスの反復によって移動しながら環境地図と自己位置を逐次更新していく。

ⅰ)
2視点でのランドマークの検出・マッチング
ⅱ)
ランドマークの3次元位置及びカメラ位置姿勢の復元
ⅲ)
復元したランドマークを環境地図へ登録
ⅳ)
新たな観測点において再度ランドマークを検出、登録されたランドマークとの対応関係から、カメラ位置姿勢を推定
ⅴ)
新規に観測されたランドマークの3次元位置を復元し、環境地図へ登録

このように地図構築(Mapping)と自己位置推定(Localization)は相互に依存しているため、自律走行におけるロボットの自己位置推定技術はSimultaneous Localization and Mapping(SLAM)と呼称される。従来のSLAMシステムでは、観測する環境が静的で変化しないランドマーク(特徴点)が存在することを前提とし、複数フレームで共通のランドマークが追跡可能である必要がある。

図1に多視点幾何の概念図を示す。3次元空間中のランドマークPは各視点(View1,View2)において画像平面上の点として投影される。この画像平面上における対応点を用いて、視点間のカメラ位置姿勢を回転行列R , 並進移動ベクトルt を算出する。

図1 共通のランドマークの観測によるカメラ幾何パラメータ推定
図1 共通のランドマークの観測によるカメラ幾何パラメータ推定

2.2 バンドル調整

バンドル調整17)とは、図1におけるランドマークP の3次元位置とカメラを結ぶ光線束(Bundle)を対応する撮影画像上の特徴点p の投影関係を利用して調整し、その背後にある幾何パラメータを推定・最適化するための方法である。実用上、計算過程において画像平面上における特徴点p の検出座標には観測誤差が含まれるため、ランドマークP の3次元位置及びカメラ位置姿勢パラメータの推定結果はその誤差の影響を受けたものとなる。バンドル調整ではこのような観測誤差の混入を前提とし、推定された各カメラ姿勢について元の観測された点pi と3次元点Pi の投影関数による再投影誤差

minRi,ti,∑|Pi-f(Pi|Ri,ti)|22
(1)

を最小二乗法によって最小化することで最適なパラメータを求める。なお、最小二乗法は誤差に対し正規分布のノイズを仮定した場合の最尤推定に相当する。多視点幾何を用いたカメラの位置姿勢推定は観測を増やすごとに各処理の誤差が蓄積していくため、過去に推定された位置姿勢パラメータ群を局所的なグループ毎(local Bundle Adjustment, local BA)またはループが検出されたタイミングで過去に推定された全ての位置姿勢に対して最適化を行う(global Bundle Adjustment, global BA)。

3. 動的な環境下における自己位置推定

3.1 ロバスト推定手法

前章までで述べたように従来の自己位置推定技術は静的なランドマークを多視点で観測することを基本として構成されている。従って、観測された特徴点の一部に動的な点群が含まれた場合、それらをまず外れ値として処理するアプローチが取られてきた。その最も代表的な手法がロバスト推定手法である。ロバスト推定とは与えられた観測値、予測値に外れ値が含まれていることを前提とし、その誤差影響を抑えることを目的とした手法群である。代表的な手法としてRandom Sample Consensus(RANSAC)やLeast Median of Squares(LMedS)、M-estimator等がある。2.2節で触れた最小二乗法では、目的値y に対する予測値f (x )の二乗誤差最小化を行うが、観測に含まれる誤差の分布が正規分布に従うことを仮定していた。

LMS=minΔx ρ(ε)2, ε=|y-f(x)|
(2)

これに対し、M-estimatorは誤差基準に対して誤差重み関数ρを設定し、重み付き誤差を最小化するアプローチである。

M=minΔx ρ(ε)
(3)

重み関数としては外れ値に対してより小さな重みを与えるような偶関数が選ばれることが多く、特徴点ベースで代表的なVisual SLAM手法であるORB-SLAM5,6)ではHuberのコスト関数を使用している。また、一般にはデータに対するノイズの分布は未知であることから、学習データに対して最適なこのロバスト推定手法における誤差関数ρ を学習させる手法7)も近年提案されている。このようなロバスト推定に基づくアプロ―チは主に誤検出や僅かな移動体によって生じる外れ値を対象としており、移動体が多く存在するようなシナリオには適用できない。

3.2 Dynamic SLAM

近年の移動体を含む動的なシーンを対象としたSLAMシステムの研究群(Dynamic SLAM)では、大きく二つの方向性において従来の静的シーンを前提としたSLAMシステムを拡張している。まず1つは、環境マップを離散的な点群として扱うのではなく、Semanticsを考慮してObjectレベルでの処理を行うObject-awareなシステムを構築している点である。最も単純な実装として、Semanticレベルで検出した移動オブジェクトを個別にトラッキングしながらフィルタリング処理によって環境地図を構成するランドマークから取り除く方法が提案されている1,2)。更にもう1つは、静的なランドマークと同時に移動体であるオブジェクトとその動きを外れ値として除外せず、最適化対象として含めるという点である。

移動体を同時に最適化対象に含めるDynamic SLAMでは、静的なランドマークの検出と同時にオブジェクトレベルでの検出・追跡処理が実行される。つまり、静的シーンを扱うSLAMシステムが観測フレーム間でマッチング可能な静的な特徴点のみを対象とするのに対し、Dynamic SLAMでは特徴点及びオブジェクトのフレーム間対応付けを同時に行い、因子グラフとしてバンドル調整のパイプラインに組み込むアプローチをとっている3,4)

4. 移動体のみを利用する自己位置推定

既存の静的なランドマーク観測に基づくSLAMの拡張として記述されるDynamic SLAMでは、移動体を含むシーン全体の復元を実現している一方で、移動体と同時に常に安定して静的なランドマークを追跡し続ける必要があった。従って歩行者で混雑した路上など移動体が非常に多く含まれ、相互遮蔽により静的なランドマークの安定した追跡が不可能な状況下において自己位置推定を行うことは極めて難しい。では見方を変えて、静的なランドマークの観測に依存せず、移動体のみを用いてカメラの自己運動を含めた周辺環境を復元することはできないだろうか。つまり、図2に示すように一人称視点での周辺歩行者の動きの2D観測から、俯瞰視点でのカメラ自己運動及び周辺歩行者の移動軌跡を復元する問題を考える。

図2 一人称観測に基づく自己及び周辺歩行者の軌跡復元
図2 一人称観測に基づく自己及び周辺歩行者の軌跡復元

各タイムステップt において、歩行者1,...,K の一人称映像に基づく相対的な観測が与えられたとき、その俯瞰視点上での位置及び観測カメラの位置を同時復元するとする。移動体が大きさ(身長)

[xkykzk]=fhk/lk Rx(-π/2)A-1[ukvk1]
(4)

が限られる人物であると仮定すると、画像平面上における人物検出位置に対し、観測カメラに対する相対的な3D位置は、カメラ内部行列A , 焦点f を用いて以下に示す逆投影で表現される。ここで、x 軸周りでの角度θ の回転、はそれぞれ人物の3次元空間での身長、画像平面における観測上の身長である。

実環境での人物の身長が平均、分散のガウス分布に従う9)とすると、観測モデルは逆投影線上のガウス分布として記述される。

Ztk~P(Ztk xtk;hk)=N(μh,σ2h)
(5)

また、観測される歩行者が群として共通の移動モデルに沿って移動していると仮定すると、カメラ及び歩行者の移動軌跡は観測モデルである尤度分布及び移動モデルについての事前分布を用い、以下の事後分布を最大化させることによって求められる。

p(Xto:K|Zt1:K,Xt-1 0:K)∝p(Xto:K|Xt-1 0:K)p(Zt1:K|Xt0:K,Xt-10:K)
(6)

ここで、周辺歩行者の推定位置を固定すると、観測カメラの移動量は以下のMAP推定により求められる。

Δxt0=argmaxΔx'0∈R3 p(xt0|xt-τ:t-1) kp(xtk|xt-τ:t-1,Δxt0) p(ztk|xtk,Δxt0)
(7)

ここで、τ フレーム分の観測におけるそれぞれカメラ、周辺歩行者の移動モデルである。周辺歩行者の移動軌跡は上記で推定されたカメラ位置を固定することにより、同様に以下式により求められる。

xt1:K=argmax xtk∈x1:K kp(xtk|xt-τ:t-1k,Δxt0)p(ztk|xtk,Δxt0)
(8)

この観測カメラ移動量の推定と歩行者位置推定は相互に依存しているため、交互に推定量を固定しパラメータの逐次更新を繰り返すことにより、カメラ及び歩行者軌跡の復元を行う。

5. データセット

動的環境での自己位置推定の評価を行うデータセットは3次元シーンをキャプチャしたデータに2次元の動きを含む移動体を撮影画像に2D合成したデータセット8)等が提案されているが、歩行者により混雑した環境を対象とし、その移動軌跡とカメラ自己運動の復元を目的としたデータセットは存在しない。また、リアルな歩行者の軌跡データは俯瞰視点映像で撮影されたものが殆どであり10-12)、一人称視点での群衆の動きを捉えたデータセットは希少である。そこで、今回は人工的に生成又は群衆の俯瞰視点映像から抽出した軌跡データを仮想カメラモデルによって一人称映像に投影し、疑似的に生成した一人称視点の観測と俯瞰視点での軌跡データをペアとしたデータを作成した。

5.1 シミュレーションデータセット

仮定する移動モデルが既知のケースにおける提案法の性能を検証するため、Social Force Model13)によって人工的に生成した軌跡データを10~50人の群衆内に含まれる人数毎に作成した。仮想カメラモデルの内部パラメータは既知とし、歩行者の身長はガウス分布に従ってサンプリングしたデータを生成した。

5.2 リアルな歩行者軌跡を利用したデータセット

Motion Model が未知の軌跡データに対する提案法の有効性を確認するため、公開の群衆データセットである ETH10)、UCY11)から映像中に含まれる群衆人数に応じて軌跡データを抽出し、歩行者の1人に仮想カメラをマウント・その視点における疑似的な投影データを俯瞰視点軌跡とペアとしたデータを作成した。

5.3 写実的なゲーム映像を利用したデータセット

5.1、5.2節で作成したデータはいずれも仮想的なカメラモデルを用いた疑似投影であり、歩行者間の相互遮蔽は考慮されていない。そこで、コンピュータビジョン分野でのCGデータセットとして広く利用されているGrand Theft Auto V(GTAV)14)を用い、人物軌跡データとペアとなる写実的な一人称映像を生成した。GTAVではScript Hook V15)というライブラリを用いてGTAV内のネイティブ関数を呼び出す任意のプラグインを記述することができ、指定のシーンにおいて人物配置や深度画像を逐次取得しながら、各エージェントについてプログラムされた軌跡通りの行動を実行することが可能である。図3にGTAVによって作成した軌跡データのサンプルを示す。

図3 GTAVで作成した軌跡データサンプル
図3 GTAVで作成した軌跡データサンプル

6. 実験

6.1 シミュレーションデータでの評価

5.1節で作成した既知の移動モデルを利用して構築したデータセットにおいて、提案手法の評価を行った。図4にシミュレーション結果を示す。はそれぞれ自己運動による時刻での回転角及び移動量、は周辺歩行者のカメラに対する相対位置、観測カメラの運動を含めた絶対位置の推定結果である。歩行者の身長の分散が大きいほど推定位置のエラー率は上昇するが、群衆の人数が増加するほどカメラの自己運動の推定精度は高くなり、その観測カメラ位置に基づく周辺歩行者の位置推定精度も高くなる傾向が認められた。

図4 シミュレーションデータにおける提案法の推定結果
図4 シミュレーションデータにおける提案法の推定結果

6.2 リアルな移動軌跡データセットでの評価

5.2節で作成した未知の移動モデルによる群衆の軌跡データセットを利用して構築したデータセットにおいて、提案手法の評価を行った。図5に提案法によって推定されたカメラ及び歩行者位置の確率分布の可視化結果を示す。カメラ軌跡は赤、歩行者軌跡はグレーで描画され、上段(GT)が正解データ、下段(estimated)は推定分布に相当する。数値実験結果は割愛するが、のように歩行者数が少人数の際は推定される位置分布の裾が拡がるため曖昧性が高くなり、のように歩行者人数が一定以上のケースでは分布の尖度が向上し、観測する移動体が多くなるに従って位置推定は安定して機能する特性が認められた。

図5 リアルな軌跡データに対するカメラ及び歩行者位置の確率分布推定結果
図5 リアルな軌跡データに対するカメラ及び歩行者位置の確率分布推定結果

6.3 GTAV により生成した一人称映像データによる評価

GTAVにより生成した一人称映像に対し、MOT-16によって事前学習された既存のMulti-Object Tracker(MOT)16)を用いて画像平面上での人物位置に相当するBounding Boxを抽出し、そのトラッキング結果に基づいて俯瞰視点上でのカメラ・歩行者移動軌跡復元を行った。図6に提案法の推定結果を示す。より実用的な場面を意識し、MOTの出力を軌跡復元の入力として用いた場合においても、混雑した環境下において提案法は安定したトラッキング結果を示した。

図6 CGにより生成した一人称映像(上段)に対する俯瞰視点移動軌跡推定結果(下段)
図6 CGにより生成した一人称映像(上段)に対する俯瞰視点移動軌跡推定結果(下段)

7. むすび

本稿では、多視点幾何に基づく移動ロボットの自己位置推定の基礎を俯瞰するとともに、動的な環境を対象とした拡張手法について紹介した。また後半では更に、静的なランドマークの観測を基本とした従来手法では扱うことができなかった混雑環境下において、移動体のみをランドマークとして用いることにより移動ロボット及び歩行者軌跡を復元する取り組みを提案した。移動体のみを利用するアプローチはテクスチャが乏しい背景環境においても適用することが可能であり、これまで従来法の枠組みで扱うことが不可能であった様々なシーンへ応用を広げることが期待される。

参考文献

1)
Bescos, B. et al. DynaSLAM: Tracking, mapping, and inpainting in dynamic scenes. IEEE Robotics and Automation Letters. 2018, Vol. 3, No.4, p.4076-4083.
2)
Yu, C. et al. “DS-SLAM: A semantic visual SLAM towards dynamic environments”. 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). 2018, p.1168-1174.
3)
Henein, M. et al. “Dynamic SLAM: The need for speed”. 2020 IEEE International Conference on Robotics and Automation(ICRA). 2020, p.2123-2129.
4)
Huang, J. et al. “Clustervo: Clustering moving instances and estimating visual odometry for self and surroundings”. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020, p.2168-2177.
5)
Mur-Artal, R.; Jose, M. M. M.; Tardos, J. D. ORB-SLAM: a versatile and accurate monocular SLAM system. IEEE Transactions on Robotics. 2015, Vol.31, No.5, p.1147-1163.
6)
Mur-Artal, R.; Tardós, J. D. Orb-slam2: An open-source slam system for monocular, stereo, and rgb-d cameras. IEEE Transactions on Robotics. 2017, Vol.33, No.5, p.1255-1262.
7)
Lv, Z. et al. “Taking a deeper look at the inverse compositional algorithm”. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019, p.4581-4590.
8)
Lv, Z. et al. “Learning rigidity in dynamic scenes with a moving camera for 3d motion field estimation”. Proceedings of the European Conference on Computer Vision (ECCV). 2018, p.468-484.
9)
Luo, Y. et al. “Where, What, Whether: Multi-modal learning meets pedestrian detection”. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020, p.14065-14073.
10)
Pellegrini, S. et al. “You’ll never walk alone: Modeling social behavior for multi-target tracking”. 2009 IEEE 12th International Conference on Computer Vision. 2009, p.261-268.
11)
Lerner, A.; Chrysanthou, Y.; Lischinski, D. Crowds by example. Computer Graphics Forum. 2007, Vol.26, No.3, p.655-664.
12)
Wen, L. et al. “Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark”. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021, p.7812-7821.
13)
Mehran, R.; Oyama, A.; Shah, M. Abnormal crowd behavior detection using social force model. 2009 IEEE Conference on Computer Vision and Pattern Recognition. 2009, p.935-942.
14)
Rockstar Games. “Rockstar Games”. https://www.rockstargames.com, (参照2021-09-17).
15)
Script Hook V. “Script Hook V”. http://www.dev-c.com/gtav/, (参照2021-09-17).
16)
Wang, Z. et al. “Towards real-time multi-object tracking”. Computer VisionECCV 2020: 16th European Conference. Proceedings, Part XI 16. Springer International Publishing, 2020, p.107-122.
17)
岡谷貴之.バンドルアドジャストメント.情報処理学会研究報告.2009, Vol.2009-CVIM-167, No.37, p.1-16.

本文に掲載の商品の名称は、各社が商標としている場合があります。

冊子版 OMRON TECHNICS