ロボットの内面を視覚化する
鍵となったのは、人間の成長パターンです。
私たち人間は赤ちゃんの状態から、自分の体を視認することで、自分の体に対する認識力を成長させていきます。
そこで研究者たちは多関節のアーム型ロボットをニューラルネットと組み合わせ、ロボットに自分の姿を観察させることからはじめました。
実験ではまず、5台のカメラがロボットの周りに配置され、ロボットのランダムな動きとカメラから採取された位置情報を連動させました。
ロボットは自分の関節の角度や方向などの機械的動きの情報を自分自身の映像と関連付けることで、5台のカメラに映る自分の姿に対応する、機械的な動きにかんする情報が与えられました。
ロボットは約3時間後に停止されましたが、頭脳部分であるニューラルネットは続いてシミュレーション世界にあるロボットに接続され、学習が続けられました。
これまでロボットの行動をニューラルネットで学習させようとする試みが行われてきましたが、多くは関節など限られた場所の座標情報のみが抽出され「点の集合」として扱われていました。
しかし今回の研究では、ロボットの視覚で認識できる全ての表面部分が学習対象となっており、より人間や動物などに近い学習が可能となっています。
ロボットの学習が終了すると、次に研究者たち学習成果を確かめるため、現実世界とシミュレーション世界でのデータを組み合わせて、ロボットに搭載されたニューラルネット(頭脳)に「自己モデル」を作成してもらいました。
自己モデルはロボットの体に被せられた「雲」のような形状をしており、ロボットが動くと「雲」も動き、ロボットのアームがどの場所にあるべきかを「考えて」いました。
この「雲」は人間が目を閉じて腕を伸ばしたり、後ろに1歩踏み出すときの、自分の体のイメージに似ています。
私たち人間の脳のどこかに、空間内での自分の体が占める位置と運動量を知らせてくれる場所があるのと同じく「雲」はロボットの自己モデルを反映した形を形成します。
ニューラルネットがロボットの頭脳とみなされる場合、ロボットが生成する「雲」のイメージはロボットの視覚的な自己認識に相当すると考えられます。
ロボットたちにボールにタッチしたり障害物を避けるなどの課題を行ってもらったところ、自己モデルの「雲」がリアルタイムに生成され、さまざまな状況で運動を計画し、障害物を回避して目的を達成していることが示されました。
「雲」によって表現される自己モデルは人間の身体認識よりもかなり優れており、作業スペースに対して誤差は1%以下に留まっていました。
しかし、より興味深いのは、ロボットの関節部分の動きを鈍らせるなど「損傷」を与えた場合にみられました。
体に損傷が起こりカメラから得られる自分の体の視覚情報とニューラルネットの「脳裏」に描かれる自己モデルがズレを起こした場合、ロボットは現実の体の動きを自己モデルに合わせるために「修正」しようとしてることが判明します。
これらの結果は、ロボットには視覚的な自己認識が芽生えており、自分の体の位置がどこにあるかを認識するだけでなく、自分の体がどこに「あるべきか」を決定する能力もある可能性を示します。
リプソン氏は「自己モデリングは自己認識の原始的な形」であり、将来的により自律性が高いロボットを製造するにあたって、避けては通れない道だと述べています。
ロボットが自分のメンタルモデルを作成し、それに沿って自分の動きを計画・補正できるようになったのは、長いロボット工学の歴史の中ではじめてのことです。