身体的なインタラクションの生成 (EICA)

ロボットの行動モデルはEICAにより生成する.この手法では,学習エージェントはまずコミュニケーション能力を持つエージェント(ここでは,指示者と行動者)間のインタラクションを観察して,模倣しようとするエージェント(ここでは行動者)がどのような指示が与えられたときどのように行動するかについてのデータを収集する(観察フェーズ).次に,収集された指示系列と行動系列から意味あるセグメントを抽出し,指示系列と行動系列の対応付けを行い,行動者のモデルを推定する(学習フェーズ).最後に,自分が指示者と実際にインタラクションを行うことにより,学習したモデルを洗練する(行動フェーズ).
ここでの中心になるのは学習フェーズであり,モチーフ推定,指示系列と行動系列の対応付け,コントローラ生成から構成される.
モチーフ推定では,CMD (Constrained Motif Discovery)という手法を使って,繰り返し現れる特徴的なパターンを抽出する.パターンの探索箇所を絞り込むために,与えられた時系列においてデータ生成メカニズムに変化があったと推定される点を検出して,パターンの切れ目がありそうな場所とする.時系列中の挙動の変化点の検出には,特異スペクトル変換(singular spectrum transformation)を改良したRSST(robust singular spectrum transform)を用いる.基本的には,各時刻においてその直前・直後の時系列の特徴抽出を行い,抽出された特徴ベクトルのちがいの大きなところを変化点とする.
指示系列と行動系列の対応付けでは,離散化された2つの系列をもとに,指示系列のセグメントと行動系列のセグメントの対応付けを行い,指示と行動の対応付けを規定するベイジアンネットワークを生成する.
コントローラ生成では,指示と行動の対応付けモデルに従う動作を生成するためのモータ制御のパラメータの組み合わせを推定し,与えられた指示に対してロボットが所定の行動をとれるようにする.遺伝アルゴリズムを拡張した手法を用いて,最適なパラメータを探し出す.
現在,追加学習機能,言語との統合学習機能を加えてこの枠組みの拡張を進めている.

図1: EICAの枠組み