身体的なインタラクションの生成 (EICA)

We are developing EICA architecture (Embodied Interactive Control Architecture) to realize a learning robot that can eventually exhibit human-like interactions as a result of autonomous learning (Fig.1). In this theory, the learner watches the external behavior of the partners, learn action and command models and the communication protocol. The learning process in EICA is done in three stages. Firstly, a set of recurrent patterns (motifs) are discovered in the interaction dimensions using Robust Singular Spectrum Transform (RSST) followed by solving the resulting constrained motif discovery problem. Secondly, the hierarchy of dynamical systems is built using the Interaction Structure Learning algorithm. Finally and optionally, the robot starts to engage in human-robot interactions and uses the interaction adaptation algorithm [1]. Navigation behavior and listener behavior are acquired by this architecture. We have also developed a method of evaluating naturalness of the human-robot interaction by interpreting the signals from physiological sensors [2].

Fig.1: EICA (Embodied Interactive Control Architecture).

References

[1] Yasser Mohammad and Toyoaki Nishida: Learning interaction protocols using Augmented Baysian Networks applied to guided navigation, IROS 2010: 4119-4126.
http://dx.doi.org/10.1109/IROS.2010.5651719
[2] Yasser F. O. Mohammad, Toyoaki Nishida, Shogo Okada: Unsupervised simultaneous learning of gestures, actions and their associations for Human-Robot Interaction. IROS 2009: 2537-2544.
http://dx.doi.org/10.1109/IROS.2009.5353987
[3] Yasser F. O. Mohammad, Toyoaki Nishida: Mining Causal Relationships in Multidimensional Time Series. Smart Information and Knowledge Management 2010: 309-338
http://dx.doi.org/10.1007/978-3-642-04584-4_14
[4] Yasser F. O. Mohammad, Toyoaki Nishida: Controlling gaze with an embodied interactive control architecture. Appl. Intell. 32(2): 148-163 (2010)
http://dx.doi.org/10.1007/s10489-009-0180-0
[5] Yasser F. O. Mohammad, Toyoaki Nishida: Using physiological signals to detect natural interactive behavior. Appl. Intell. 33(1): 79-92 (2010)
http://dx.doi.org/10.1007/s10489-010-0241-4
[6] Yasser F. O. Mohammad, Toyoaki Nishida: Constrained Motif Discovery in Time Series. New Generation Comput. 27(4): 319-346 (2009)
http://dx.doi.org/10.1007/s00354-009-0068-xロボットの行動モデルはEICAにより生成する.この手法では,学習エージェントはまずコミュニケーション能力を持つエージェント(ここでは,指示者と行動者)間のインタラクションを観察して,模倣しようとするエージェント(ここでは行動者)がどのような指示が与えられたときどのように行動するかについてのデータを収集する(観察フェーズ).次に,収集された指示系列と行動系列から意味あるセグメントを抽出し,指示系列と行動系列の対応付けを行い,行動者のモデルを推定する(学習フェーズ).最後に,自分が指示者と実際にインタラクションを行うことにより,学習したモデルを洗練する(行動フェーズ).
ここでの中心になるのは学習フェーズであり,モチーフ推定,指示系列と行動系列の対応付け,コントローラ生成から構成される.
モチーフ推定では,CMD (Constrained Motif Discovery)という手法を使って,繰り返し現れる特徴的なパターンを抽出する.パターンの探索箇所を絞り込むために,与えられた時系列においてデータ生成メカニズムに変化があったと推定される点を検出して,パターンの切れ目がありそうな場所とする.時系列中の挙動の変化点の検出には,特異スペクトル変換(singular spectrum transformation)を改良したRSST(robust singular spectrum transform)を用いる.基本的には,各時刻においてその直前・直後の時系列の特徴抽出を行い,抽出された特徴ベクトルのちがいの大きなところを変化点とする.
指示系列と行動系列の対応付けでは,離散化された2つの系列をもとに,指示系列のセグメントと行動系列のセグメントの対応付けを行い,指示と行動の対応付けを規定するベイジアンネットワークを生成する.
コントローラ生成では,指示と行動の対応付けモデルに従う動作を生成するためのモータ制御のパラメータの組み合わせを推定し,与えられた指示に対してロボットが所定の行動をとれるようにする.遺伝アルゴリズムを拡張した手法を用いて,最適なパラメータを探し出す.
現在,追加学習機能,言語との統合学習機能を加えてこの枠組みの拡張を進めている.

図1: EICAの枠組み