相互適応エージェント

人間の高度な適応能力を利用して,相互適応学習により人間と自然にインタラクションする能力を獲得できるエージェントを実現するための方法論として,人間同士のインタラクションにおける相互適応現象と,人間と遠隔操作されたロボットのインタラクションにおける相互適応現象の観察,計測,分析によって得られる知見に基づいて,相互適応能力を持つエージェントを実現する3段階のアプローチを提案した.
(第1段階)人間同士のインタラクションにおける相互適応現象の計測と分析
相互適応現象の観察と計測を目的とし,正負の報酬に関連づけられた仮想的なオブジェクトが置かれた空間において,仮想的なオブジェクトを知覚できる指示者が,それらを知覚できない行動者に非言語的な指示を与えることにより,指定された経路に沿って移動させるナビゲーションタスク,および,床圧力センサと複数台のビデオカメラを用いて両者の行動を記録する手法を開発した.報酬を最大化しつつ,可能な限り短い時間でタスクを終了するよう指示された行動者,指示者のペアのタスク遂行時の挙動を分析した結果,得点の高いペアでは初期のジェスチャタイプがインタラクションを行っているうちに淘汰され,有効なジェスチャタイプに単調に収束するが,得点の低いペアではいったんジェスチャタイプが増えてから減少するという現象がみられた.これに基づき,合意形成の機能を持つ下位層のプロトコルが形成されてから,それを拡張してタスク遂行のためのより高度な機能を持つ上位層プロトコルが形成されるという仮説が実験データに整合することが示されている.
(第2段階)人間と遠隔操作されたロボットのインタラクションにおける相互適応現象の計測と分析
遠隔操作された小型ロボットを用いた人間・遠隔操作ロボットインタラクション計測環境を実現した.視点や視野やカメラ位置に着目して操作性を向上させている.実験により,人間・遠隔操作ロボットインタラクションにおいて相互適応が起きるための条件を推定し,わかりやすいジェスチャは淘汰されにくいことなどの知見が得られた.さらに遠隔操作ロボットシステムの改良を行い,加速度センサでジェスチャを検出することにより,ジェスチャでロボットを操作できるようにした.また,大きな身体を持つ遠隔操作ロボットを用いた実験も行えるようにした.この結果,ジェスチャインタフェースのほうが相互適応現象を引き起こしやすいこと,大きな身体を持つロボットのほうがジェスチャによって指示をする傾向がより強いこと,停止操作が負の報酬として使用される傾向があり,停止操作の頻度を観察することにより指示者の適応の程度を推定できることなどの知見が得られた.
(第3段階)相互適応ソフトウェアロボットの構成
前2段階の実験で得られた知見に基づく相互適応概念の再定式化を行った.次に,人間と自律エージェントの相互適応現象を評価するために協調タスクと実験評価手法を設計した.協調タスクは,人間も自律エージェントもタスクに関する部分的な情報しか持たず,両者の協調によってよりよくタスクが遂行されるように構成されている.適応アルゴリズムを実装した自律エージェントや遠隔操作による評価実験を行い,時系列マイニングによる変化点検出を用いた分析を行った.その結果,相互適応現象を引き起こすためには,インタラクションのいずれの参加者も相手との主導権の受け渡しができることや,相手のインタラクションパターンの変化に短時間で応じることなどが必要であること,相互適応が起きると,指示の焦点を変化させることによって相手にフィードバックを与えたり,過去のイベントに言及したりすることが適応を強化することなどが明らかになった.相互適応現象が生じるか否かは,自律エージェントに組み込まれた適応学習アルゴリズムの特性にあまり依存しないと推定される.

図1:相互適応ロボット開発のための3段階方法論