大本義正

Yoshimasa Ohmoto is Assistant Professor at Department of Intelligence Science and Technology, Graduate School of Informatics, Kyoto University.
He received the B.E., the M.E., and the Doctor of Philosophy degrees from University of Tokyo in 2001, 2003, and 2008, respectively.
He focuses on small multi-party interactions from a cognitive perspective for aiming at understanding social activities of humans at the micro-level. He places emphasis on estimating human’s intention to machine-readablely comprehend interaction behavior which is intrinsically and extrinsically influenced by social activities and to apply them to real products.
Publication
Journal

  1. Yoshimasa Ohmoto, Divesh Lala, Hiroyasu Saiga, Hiroki Ohashi, Shingo Mori, Kae Sakamoto, Kazumi Kinoshita, Toyoaki Nishida. (2013). Design of Immersive Environment for Social Interaction Based on Socio-Spatial Information and the Applications. J. Inf. Sci. Eng. 29(4), pp. 663-679.
  2. 大本義正・戸田泰史・植田一博・西田豊明. (2011) 議論への参加態度と非言語情報に基づくファシリテーションの分析. 『情報処理学会論文誌』, Vol. 52, No. 12, pp. 1234-1245.
  3. Xu, Y., Ohmoto, Y., Okada, S., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Sumi, Y. & Nishida, T. (2011). Active Adaptation in Human-Agent Collaborative Interaction. Journal of Intelligent Information Systems, vol.37(1), pp23-38.
  4. Xu, Y., Ohmoto, Y., Okada, S., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Sumi, Y. & Nishida, T. (2010). Formation Conditions of Mutual Adaptation in Human-Agent Collaborative Interaction. Applied Intelligence. pp 1-21.
  5. 大本義正・三宅峰・西田豊明.(2010) 複数ユーザインタラクションにおける外発的な盛り上がりの雰囲気の判定方法と影響の検討.『電子情報通信学会誌』, Vol. 93, No. 6, pp 870-878.
  6. 大本義正・植田一博・大野健彦. (2010) 複数の非言語情報による自由なコミュニケーション中の嘘の自動判別の可能性の検討.『電子情報通信学会誌』, Vol. 93, No. 6, pp 848-856.
  7. Ohmoto,Y., Ueda,K. & Ohno,T. (2009) “Real-time system for measuring gaze direction and facial features: Towards automatic discrimination of lies using diverse nonverbal information.” AI & Society. Vol. 23, Num. 2, pp187-200.
  8. 大本義正・植田一博・大野健彦・小松孝徳 (2006).複数の非言語情報を利用した嘘の読み取りとその自動化.『ヒューマンインタフェース学会誌』,vol.8(4),p555-564.
  9. 植田 一博・吉川 左紀子・伝 康晴・長岡 千賀・大本 義正・榎本 美香(2006).会話の分析とモデル化.『人工知能学会誌』,vol.21(2), pp169-175.

International conference

  1. Ohmoto, Y., Kataoka, M. & Nishida, T. (2013) Extended Methods to Dynamically Estimate Emphasizing Points for Group Decision-making and their Evaluation. The 9th International Conference on Cognitive Science, (accepted).
  2. Ohmoto, Y., Miyake, T. & Nishida, T. (2012) Dynamic estimation of emphasizing points for user satisfaction evaluations. Proceedings of the 34th Annual Conference of the Cognitive Science Society, pp. 2115-2120.
  3. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) G-SteX: Greedy Stem Extension for Free-Length Constrained Motif Discovery. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  4. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) Common Sensorimotor Representation for Self-Initiated Imitation Learning. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  5. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) CPMD: A Matlab Toolbox for Change Point and Constrained Motif Discovery. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  6. Ohmoto, Y., Ohashi, H., Lala, D., Mori, S., Sakamoto, K., Kinoshita, K. & Nishida, T. (2011) ICIE: immersive environment for social interaction based on socio-spacial information. The 2011 Conference on Technologies and Applications of Artificial Intelligence (TAAI 2011), pp 119-125.
  7. Ohmoto, Y., Kataoka, M., Miyake, T. & Nishida, T. (2011) A method to dynamically estimate emphasizing points and degree by using verbal and nonverbal information and physiological indices. The 2011 IEEE International Conference on Granular Computing 2011 (GrC2011), pp 508-514.
  8. Mori, S., Ohmoto, Y. and Nishida, T. (2011) Constructing immersive virtual space for HAI with photos. The 2011 IEEE International Conference on Granular Computing 2011 (GrC2011), pp 479-484.
  9. Thovuttikul, S., Lala, D., Ohashi, H., Okada, S., Ohmoto, Y. & Nishida, T. (2011) : Simulated Crowd: Towards a Synthetic Culture for Engaging a Learner in Culture-dependent Nonverbal Interaction. Presented at: 2nd Workshop on Eye Gaze in Intelligent Human Machine Interaction.
  10. Ohmoto, Y., Toda, Y., Ueda, K. & Nishida, T. (2010) Analyses of the facilitating behavior by using discussion conditions, participant stances and nonverbal behavior. Proceedings of Social Intelligence Design 2010 (SID2010), (CD-ROM).
  11. Ohmoto, Y., Takahashi, A., Ohashi, H., & Nishida, T. (2010) Capture and Express Behavior Environment (CEBE) as WOZ system to realize effective human-agent interaction. In Proceedings of International Workshop on Interacting with ECAs as Virtual Characters In conjunction with AAMAS 2010, pp 63-69.
  12. Ohmoto, Y., Takahashi, A., Ohashi, H., & Nishida, T. (2010) Capture and Express Behavior Environment (CEBE) for Realizing Enculturating Human-Agent Interaction. Postproceedings of the International Conference on Culture and Computing, pp41-54.
  13. Ohmoto, Y., Ueda, K., Ohno, T. (2009) A Method to Detect Lies in Free Communication using Diverse Nonverbal Information: Towards an Attentive Agent, In the Proceedings of Active Media Technology, pp 42-53.
  14. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T.(2009) Actively Adaptive Agent for Human-Agent Collaborative Task. In the Proceedings of Active Media Technology, pp 19-30.
  15. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T. (2009) A platform system for developing a collaborative mutually adaptive agent. In International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems (IEA/AIE 2009), Lecture Notes in Computer Science:Next-Generation Applied Intelligence, volume 5579, pages 576-585.
  16. Ohmoto, Y., Miyake, T. & Nishida, T. (2009) “A Method to Detect an Atmosphere of “Involvement, Enjoyment, and/or Excitement” in Multi-user Interaction.” In the Proceedings of Intelligent Virtual Agents, Vol. 5773, pp 537-538.
  17. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T. (2008) Twolayered communicative protocol model in a cooperative directional guidance task. Proceedings of Social Intelligence Design (SID2008), (CD-ROM).
  18. Ohmoto,Y. Ueda,K. & Ohno,T. (2008). Enhancement of people’s lie detection ability by showing the mechanically measured nonverbal information. Proceedings of Social Intelligence Design 2008 (SID2008), (CD-ROM).
  19. Komatsu, T., Ohmoto, Y., Ueda, K., Okadome, T., Sumi, Y. & Nishida, T. (2008). Definition of Mutual Adaptation Processes Based on Akaike’s Information Criterion. Proceedings of Social Intelligence Design 2008 (SID2008), (CD-ROM).
  20. Ohmoto,Y., Ueda,K. & Ohno,T. (2006). Discrimination of Lies in Communication by using Automatic Measuring System of Nonverbal Information. Proceedings of the Ninth International Conference on Control, Automation, Robotics and Vision (ICARCV 2006),pp1643-1648.
  21. Ohmoto,Y., Ueda,K. & Ohno,T. (2006). The real-time system of measuring gaze direction and facial features, and applying the system to discriminating lies by diverse nonverbal information. Proceedings of Social Intelligence Design 2006 (SID2006), pp23-30.
  22. Ohmoto,Y., Ueda,K. & Ohno,T. (2005). The method of automatic discrimination of lies by synthetically using multimodal nonverbal information. Proceedings of the Third Conference on Computational Intelligence, Robotics and Autonomous Systems (CD-ROM).
  23. Ohmoto,Y., Ueda,K. & Komatsu,T. (2005). Reading of intentions that appear as diverse nonverbal information in face-to-face communication. Proceedings of the Symposium on Conversational Informatics for Supporting Social Intelligence and Interactions, pp52-57.

Japanese conference

  1. 伊豆蔵 拓也・大本 義正・西田 豊明. (2013) 指導者が注目する身体部位のトラッキングに基づく社交ダンス動作指標抽出システム. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  2. 大本義正・齊賀弘泰・西田豊明. (2012) 操作者の振る舞いと実世界情報の統合による半自律型テレプレゼンスシステムの構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  3. 大本義正・三宅峰・箭内亮太・西田豊明. (2011) ヒューマンエージェントインタラクションを通じた人間の選好構造の推定. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  4. 大本義正・戸田泰史・植田一博・岡田将吾・西田豊明 (2010) 議論の発散収束と非言語情報に基づくファシリテーション行動の分析. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  5. 大本義正・三宅峰・西田豊明.(2010) 交渉時のエージェントの性格パラメータの影響の検討. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  6. 大本義正・植田一博・大野健彦 (2009). 非接触計測可能な複数の非言語情報による嘘の自動判別. 『日本認知科学会第26回大会発表論文集』(CD-ROM).
  7. 大本義正・植田一博・大野健彦 (2009). コミュニケーション中の非言語情報に基づく嘘の自動判別. 『人工知能学会全国大会(第23回)論文集』(CD-ROM).
  8. 大本義正・植田一博・大野健彦 (2006). 複数の非言語情報を利用したコミュニケーション時の嘘の判別. 『日本認知科学会第23回大会発表論文集』. pp136-137.
  9. 大本義正・植田一博 (2004). コミュニケーションにおける隠された情報の読み取り. 『ヒューマンインターフェースシンポジウム2004論文集』. pp 1015-1020.

Student presentation

  1. 片岡 操・周藤 沙月・大本 義正・西田 豊明. (2013) テーマ表現提示による目標明確化機能を持つ対話型提案システムの実現. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  2. 丹下 雄太・大本 義正・西田 豊明. (2013) 話題展開構造を用いる擬似会話生成システムの提案と実装. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  3. 矢野 正治・大本 義正・西田 豊明. (2012) RGB・深度センサを用いた複数人数会話の三次元記録環境の構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  4. 片岡 操・大本 義正・西田 豊明. (2012) コンサルエージェント実現のためのコンフリクト多寡をふまえた合意形成支援手法の提案.『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  5. 神田 賢一・山形 佳祐・大本 義正・西田 豊明. (2012) 熟練者の知識構造の構築と可視化による動作習得支援システムの構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  6. 秋友 伸也・大本 義正・西田 豊明. (2012) 言語・非言語情報の統合による直感的な仮想物体操作が可能な没入型インタラクションシステム. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  7. 古谷 純・大本 義正・西田 豊明. (2012) 提示情報制御によるHAIにおける能動性の誘発. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  8. 大橋洋輝・大本義正・西田豊明. (2011) 直感的ロボットWOZ システムの構築とそれを利用したHRIとHHI の比較. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  9. 神田 賢一・大本義正・西田豊明. (2011) 継続的な知識構築を支援する知識構造化システムの開発とその利用. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  10. 森 槙悟・大本 義正・西田 豊明. (2011) 多地点からの画像に基づくHAI 用没入型仮想空間の構築. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  11. 大橋洋輝・高橋暁弘・岡田将吾・大本義正・西田豊明. (2010) コミュニケーションエッセンスを有する自律ロボットの実現に向けたWOZ 環境の構築. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  12. 岡田将吾・神田賢一・大本義正・西田豊明. (2010) ユーザとの相互作用を通じた画像分類システムの開発. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  13. 大橋洋輝・高橋暁弘・岡田将吾・大本義正・西田豊明 (2010) エージェントを介した遠隔地コミュニケーションの実現に向けたWOZ システムの開発. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  14. 山形佳祐・大本義正・西田豊明. (2010) ロボットの意思表示によるインタラクションの円滑化. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  15. 神田賢一・大本義正・西田豊明. (2010) 知識空間の可視化と共有支援システムの開発とその利用. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  16. 徐涌・大本義正・植田一博・小松孝徳・岡留剛・亀井剛次・岡田将吾・角康之・西田豊明 (2009) HAI における相互適応現象の形成条件, HAI シンポジウム(Human-Agent Interaction Symposium) HAI-2009.

2001年 東京大学 教養学部後期課程 広域科学科 広域システム専攻卒業.
2003年 東京大学 総合文化研究科 広域科学専攻 修士課程卒業.
2008年 東京大学大学院 総合文化研究科 広域科学専攻 にて博士(学術)取得.
2008年より2019年4月まで,京都大学 情報学研究科 知能情報学専攻 助教.
2019年5月より現在まで,静岡大学 情報学部行動情報学科 准教授.
人間と他者のつながりをモデル化することと,その際に必要とされる他者の意図理解に興味を持ち,マンマシンインターフェース,人のコミュニケーション,会話エージェントなどの研究に従事.
日本認知科学会,人工知能学会,ヒューマンインターフェス学会,電子情報通信学会 各会員.

現在の研究テーマ
  意図伝達における認知的プロセスを解明するという科学的な目標と、その成果を人間と自然にインタラクション可能な人工物の実現という形で応用するという実際的な目標の二つを中心的な研究課題としている。特に、人間とのインタラクションを継続し、社会的関係を構築するエージェントをいかにして実現するのかを、実験を通した構成論的なアプローチで取り組んでいる。
  目標実現のために、発展していく様々な基礎技術の理解と利用、実際の問題を解明するための人間の活動の実験的検討、専門外分野の発展を見越した人工物の実装等、広範囲にわたる問題を分野横断的に取り組んできた。その対象は、大きく分けて、下記のような3つの分野にわたる。
(1) 画像処理・センサ情報処理を含む行動計測に関する研究開発
(2) 人間とインタラクションを行うエージェントの作成を通じたモデル検証
(3) 心理実験を通した人間の認知活動の分析による高次の知的処理の理解
これらを融合させて、人間と長期的な社会的関係を築くことができるインタラクション可能な人工物を実現することを目指す。

行動計測・解釈
  特にバーチャルエージェントを用いたインタラクションの実験をするときに、人間が自然にインタラクションすることができる環境が必要になることがある。また、エージェントのような、多くの要素が複合的に実装されるようなシステムの場合、複数のシステムを統合的に利用したり、あるいは、未だに存在しないシステムを人間が肩代わりできる環境(Wizard of OZ: Wozと呼ぶ)が必要となる。そういった環境として、Immersive Collaborative Interaction Environment (ICIE)という環境を整備している。

  この環境は、8枚の大型ディスプレイで囲まれた没入型提示システムが主要なハードウェアであるが、この環境全体を制御するプラットフォーム Distributed Elemental Application Linker(DEAL)が環境の重要な役割を持っている。このプラットフォームは、実行場所・動作条件・実行主体が異なるモジュールを統合して利用することができる(システムは内部のみ公開)特徴は下記の通り。
・プラグインによって機能を拡張することが可能。
・アプリケーションもプラグインの形で実装。
・BlackBoardを介したTriggerを、他のアプリケーションが参照・改変可能。
・すでに完成しているアプリケーションの内容を変えずに、内部データを利用可能。
・非同期ネットワーク通信機能をDEALシステム自体が持つ。

  このようなインタラクション実験や実証の環境を用いて、人間とエージェントのインタラクションにおける問題や、新たなインタラクションの形を探る研究を行う。時には、実験に必要な情報を取得するために、新たな計測システムを開発することもある。

エージェント開発
  人間とエージェントがインタラクションを行う際に、最も重要なのはエージェントが持っている情報処理能力・タスク遂行能力であることは間違いない。その一方で、エージェントが特定のタスクに対して非常に高い問題解決能力を持っていたとしても、インタラクションする人間がエージェントのことを「機械だ」と思ってしまうと、人間同士の場合であれば起こるようなインタラクションが実現しなくなる。例えば、対戦ゲームでCPUと対戦しているときと人間と対戦しているときとで、明らかに戦略が異なる場合がよく見られる。これは単純にCPUが弱いだけでなく、人間同士では行わない卑怯な戦略をとったりすることを指す。
  人間が相手のことを意図を持った存在であると認識する心理的な姿勢を「志向姿勢」と呼ぶ。現在は、このような「志向姿勢」を人間がエージェントに対して持つようなエージェントの開発を行っている。
一例として、エージェントが一定の目的志向性を人間に提示すると、対戦ゲームであっても、エージェントに対して卑怯な戦略をとらなくなることが実験的に示されている。

  あるいは、1対1ではなく、1対多のインタラクションを行う際に、エージェント同士のインタラクションを人間に見せることによって、どのようなインタラクションが「自然」なのかを暗黙的に学習し、エージェントに対する好感度が上がったり、エージェントのミスを許してあげたりすることができるようになることを実験的に確かめた。

  これらの場面では、動的に環境が変わっていく中でエージェントが人間の意図を読み取った意思決定をしていかなくてはならないが、それを実現するインタラクションモデルの一つとして「循環的意図更新モデル」を提案し、これによってエージェントに対して意図を感じる割合が高くなったり、実際にエージェントが配慮を要求した際に聞き入れる確率が高くなったりすることを確かめた。

  基本的に、インタラクションにおける重要な要因を、人間同士のインタラクションの観察や先行研究から見つけ出し、それを実装したエージェントと人間を実際にインタラクションさせてみて、その有用性を確かめるというアプローチを取っている。インタラクションさせる場面は、現実にあるようなタスクが本当はよいが、特に言語的なインタラクションを緻密に行うタスクはまだエージェントには難しいため、仮想的なゲーム環境を作成して、その場面において検証することが多い。

認知活動分析
  インタラクションというものは、時系列に沿って動的に変化することが当然のように起きる。また、ほとんどのインタラクションは、実施するたびに異なるプロセスを経て結果にたどり着く。さらに、インタラクションにおける人間の変化は、行動などの目に見えるところに起きるだけではなく、目に見えない心理的な部分にも多くの変化が起きる。
このような変化を純粋な観察のみから捉えるのは困難であるため、人間の生理的な反応や脳の活動を計測し、実験中に起きた人間の行動の変化と対応づけることで、一定の客観性を確保した評価を行おうとしている。
  直接的に生理的な反応を用いて人間の内部状態変化を捉え、人間に起きた目に見えない変化を捉えようとした研究として、人間のスキルの習得過程を評価する手法の開発がある。この研究では、人間がスキルを習得する過程で、スキルの習得が進むにつれて、タスクに対する難易度の感じ方が変わることを利用した。生理指標を計測して人間の受けているストレスを推定し、ストレスが相対的に減っており、タスクのスコアも向上しているときに、スキルの習得が進んだ、と解釈する方法である。

  また、人間がどこに注意を向けているのかを推定することは、インタラクションの状態を推定・評価する上で重要である。注意の状態を一般的な環境で推定するのは困難なので、刺激を与えたときにどのように反応するのかを見て、人間の注意の状態を誘導する手法を開発した。この手法を開発するために、音声、静止画像、動画像、の三つの種類で人間の生理的な反応と実際の視線の動きを計測・分析した上で、ノンパラメトリックベイズの手法を用いて生理反応の時系列をクラスタリングし、そのクラスターに基づいて注意状態を推定・誘導した。

  こうした手法を使って、人間の認知に影響を与える研究もしている。一例として、人間がゲームなどを行うときにアバターと呼ばれる自分の分身キャラクターを操作するが、アバターは自分ではない(自分にはない能力を持ち、自分にはない関係を他のキャラクターと結んでいる)ため、アバターが経験していることを操作している人間も経験していると感じることはまれである、という問題に取り組んだ。簡単に言えば、アバターが悔しがっていても、自分が悔しいとはあまり思わない、という状況を改善しようとした。生理反応から人間が強く心を動かされているかを推定し、心を動かされているときだけアバターがコンテキストに合わせた反応をするようにしたところ、アバターの置かれている状況を正確に理解するようになり、また、ゲームへの集中力が高まっていることが確認された。

  人間の知的活動を、特に時系列に沿って、動的に変化することをいかにして捉えるかを考え、実験を通して実際の反応を分析することで、有用な知見を得ようと試みている。

以下の業績には2014年以降のものは含まれていない。
ジャーナル論文

  1. Yoshimasa Ohmoto, Divesh Lala, Hiroyasu Saiga, Hiroki Ohashi, Shingo Mori, Kae Sakamoto, Kazumi Kinoshita, Toyoaki Nishida. (2013). Design of Immersive Environment for Social Interaction Based on Socio-Spatial Information and the Applications. J. Inf. Sci. Eng. 29(4), pp. 663-679.
  2. 大本義正・戸田泰史・植田一博・西田豊明. (2011) 議論への参加態度と非言語情報に基づくファシリテーションの分析. 『情報処理学会論文誌』, Vol. 52, No. 12, pp. 1234-1245.
  3. Xu, Y., Ohmoto, Y., Okada, S., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Sumi, Y. & Nishida, T. (2011). Active Adaptation in Human-Agent Collaborative Interaction. Journal of Intelligent Information Systems, vol.37(1), pp23-38.
  4. Xu, Y., Ohmoto, Y., Okada, S., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Sumi, Y. & Nishida, T. (2010). Formation Conditions of Mutual Adaptation in Human-Agent Collaborative Interaction. Applied Intelligence. pp 1-21.
  5. 大本義正・三宅峰・西田豊明.(2010) 複数ユーザインタラクションにおける外発的な盛り上がりの雰囲気の判定方法と影響の検討.『電子情報通信学会誌』, Vol. 93, No. 6, pp 870-878.
  6. 大本義正・植田一博・大野健彦. (2010) 複数の非言語情報による自由なコミュニケーション中の嘘の自動判別の可能性の検討.『電子情報通信学会誌』, Vol. 93, No. 6, pp 848-856.
  7. Ohmoto,Y., Ueda,K. & Ohno,T. (2009) “Real-time system for measuring gaze direction and facial features: Towards automatic discrimination of lies using diverse nonverbal information.” AI & Society. Vol. 23, Num. 2, pp187-200.
  8. 大本義正・植田一博・大野健彦・小松孝徳 (2006).複数の非言語情報を利用した嘘の読み取りとその自動化.『ヒューマンインタフェース学会誌』,vol.8(4),p555-564.
  9. 植田 一博・吉川 左紀子・伝 康晴・長岡 千賀・大本 義正・榎本 美香(2006).会話の分析とモデル化.『人工知能学会誌』,vol.21(2), pp169-175.

査読付き国際会議論文

  1. Ohmoto, Y., Kataoka, M. & Nishida, T. (2013) Extended Methods to Dynamically Estimate Emphasizing Points for Group Decision-making and their Evaluation. The 9th International Conference on Cognitive Science, (accepted).
  2. Ohmoto, Y., Miyake, T. & Nishida, T. (2012) Dynamic estimation of emphasizing points for user satisfaction evaluations. Proceedings of the 34th Annual Conference of the Cognitive Science Society, pp. 2115-2120.
  3. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) G-SteX: Greedy Stem Extension for Free-Length Constrained Motif Discovery. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  4. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) Common Sensorimotor Representation for Self-Initiated Imitation Learning. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  5. Mohammad, Y., Ohmoto, Y., & Nishida, T. (2012) CPMD: A Matlab Toolbox for Change Point and Constrained Motif Discovery. The 25th International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems, (accepted).
  6. Ohmoto, Y., Ohashi, H., Lala, D., Mori, S., Sakamoto, K., Kinoshita, K. & Nishida, T. (2011) ICIE: immersive environment for social interaction based on socio-spacial information. The 2011 Conference on Technologies and Applications of Artificial Intelligence (TAAI 2011), pp 119-125.
  7. Ohmoto, Y., Kataoka, M., Miyake, T. & Nishida, T. (2011) A method to dynamically estimate emphasizing points and degree by using verbal and nonverbal information and physiological indices. The 2011 IEEE International Conference on Granular Computing 2011 (GrC2011), pp 508-514.
  8. Mori, S., Ohmoto, Y. and Nishida, T. (2011) Constructing immersive virtual space for HAI with photos. The 2011 IEEE International Conference on Granular Computing 2011 (GrC2011), pp 479-484.
  9. Thovuttikul, S., Lala, D., Ohashi, H., Okada, S., Ohmoto, Y. & Nishida, T. (2011) : Simulated Crowd: Towards a Synthetic Culture for Engaging a Learner in Culture-dependent Nonverbal Interaction. Presented at: 2nd Workshop on Eye Gaze in Intelligent Human Machine Interaction.
  10. Ohmoto, Y., Toda, Y., Ueda, K. & Nishida, T. (2010) Analyses of the facilitating behavior by using discussion conditions, participant stances and nonverbal behavior. Proceedings of Social Intelligence Design 2010 (SID2010), (CD-ROM).
  11. Ohmoto, Y., Takahashi, A., Ohashi, H., & Nishida, T. (2010) Capture and Express Behavior Environment (CEBE) as WOZ system to realize effective human-agent interaction. In Proceedings of International Workshop on Interacting with ECAs as Virtual Characters In conjunction with AAMAS 2010, pp 63-69.
  12. Ohmoto, Y., Takahashi, A., Ohashi, H., & Nishida, T. (2010) Capture and Express Behavior Environment (CEBE) for Realizing Enculturating Human-Agent Interaction. Postproceedings of the International Conference on Culture and Computing, pp41-54.
  13. Ohmoto, Y., Ueda, K., Ohno, T. (2009) A Method to Detect Lies in Free Communication using Diverse Nonverbal Information: Towards an Attentive Agent, In the Proceedings of Active Media Technology, pp 42-53.
  14. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T.(2009) Actively Adaptive Agent for Human-Agent Collaborative Task. In the Proceedings of Active Media Technology, pp 19-30.
  15. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T. (2009) A platform system for developing a collaborative mutually adaptive agent. In International Conference on Industrial, Engineering & Other Applications of Applied Intelligent Systems (IEA/AIE 2009), Lecture Notes in Computer Science:Next-Generation Applied Intelligence, volume 5579, pages 576-585.
  16. Ohmoto, Y., Miyake, T. & Nishida, T. (2009) “A Method to Detect an Atmosphere of “Involvement, Enjoyment, and/or Excitement” in Multi-user Interaction.” In the Proceedings of Intelligent Virtual Agents, Vol. 5773, pp 537-538.
  17. Xu, Y., Ohmoto, Y., Ueda, K., Komatsu, T., Okadome, T., Kamei, K., Okada, S., Sumi, Y., and Nishida, T. (2008) Twolayered communicative protocol model in a cooperative directional guidance task. Proceedings of Social Intelligence Design (SID2008), (CD-ROM).
  18. Ohmoto,Y. Ueda,K. & Ohno,T. (2008). Enhancement of people’s lie detection ability by showing the mechanically measured nonverbal information. Proceedings of Social Intelligence Design 2008 (SID2008), (CD-ROM).
  19. Komatsu, T., Ohmoto, Y., Ueda, K., Okadome, T., Sumi, Y. & Nishida, T. (2008). Definition of Mutual Adaptation Processes Based on Akaike’s Information Criterion. Proceedings of Social Intelligence Design 2008 (SID2008), (CD-ROM).
  20. Ohmoto,Y., Ueda,K. & Ohno,T. (2006). Discrimination of Lies in Communication by using Automatic Measuring System of Nonverbal Information. Proceedings of the Ninth International Conference on Control, Automation, Robotics and Vision (ICARCV 2006),pp1643-1648.
  21. Ohmoto,Y., Ueda,K. & Ohno,T. (2006). The real-time system of measuring gaze direction and facial features, and applying the system to discriminating lies by diverse nonverbal information. Proceedings of Social Intelligence Design 2006 (SID2006), pp23-30.
  22. Ohmoto,Y., Ueda,K. & Ohno,T. (2005). The method of automatic discrimination of lies by synthetically using multimodal nonverbal information. Proceedings of the Third Conference on Computational Intelligence, Robotics and Autonomous Systems (CD-ROM).
  23. Ohmoto,Y., Ueda,K. & Komatsu,T. (2005). Reading of intentions that appear as diverse nonverbal information in face-to-face communication. Proceedings of the Symposium on Conversational Informatics for Supporting Social Intelligence and Interactions, pp52-57.

国内会議発表

  1. 伊豆蔵 拓也・大本 義正・西田 豊明. (2013) 指導者が注目する身体部位のトラッキングに基づく社交ダンス動作指標抽出システム. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  2. 大本義正・齊賀弘泰・西田豊明. (2012) 操作者の振る舞いと実世界情報の統合による半自律型テレプレゼンスシステムの構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  3. 大本義正・三宅峰・箭内亮太・西田豊明. (2011) ヒューマンエージェントインタラクションを通じた人間の選好構造の推定. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  4. 大本義正・戸田泰史・植田一博・岡田将吾・西田豊明 (2010) 議論の発散収束と非言語情報に基づくファシリテーション行動の分析. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  5. 大本義正・三宅峰・西田豊明.(2010) 交渉時のエージェントの性格パラメータの影響の検討. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  6. 大本義正・植田一博・大野健彦 (2009). 非接触計測可能な複数の非言語情報による嘘の自動判別. 『日本認知科学会第26回大会発表論文集』(CD-ROM).
  7. 大本義正・植田一博・大野健彦 (2009). コミュニケーション中の非言語情報に基づく嘘の自動判別. 『人工知能学会全国大会(第23回)論文集』(CD-ROM).
  8. 大本義正・植田一博・大野健彦 (2006). 複数の非言語情報を利用したコミュニケーション時の嘘の判別. 『日本認知科学会第23回大会発表論文集』. pp136-137.
  9. 大本義正・植田一博 (2004). コミュニケーションにおける隠された情報の読み取り. 『ヒューマンインターフェースシンポジウム2004論文集』. pp 1015-1020.

学生国内会議発表

  1. 片岡 操・周藤 沙月・大本 義正・西田 豊明. (2013) テーマ表現提示による目標明確化機能を持つ対話型提案システムの実現. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  2. 丹下 雄太・大本 義正・西田 豊明. (2013) 話題展開構造を用いる擬似会話生成システムの提案と実装. 『人工知能学会全国大会(第27回)論文集』(CD-ROM).
  3. 矢野 正治・大本 義正・西田 豊明. (2012) RGB・深度センサを用いた複数人数会話の三次元記録環境の構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  4. 片岡 操・大本 義正・西田 豊明. (2012) コンサルエージェント実現のためのコンフリクト多寡をふまえた合意形成支援手法の提案.『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  5. 神田 賢一・山形 佳祐・大本 義正・西田 豊明. (2012) 熟練者の知識構造の構築と可視化による動作習得支援システムの構築. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  6. 秋友 伸也・大本 義正・西田 豊明. (2012) 言語・非言語情報の統合による直感的な仮想物体操作が可能な没入型インタラクションシステム. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  7. 古谷 純・大本 義正・西田 豊明. (2012) 提示情報制御によるHAIにおける能動性の誘発. 『人工知能学会全国大会(第26回)論文集』(CD-ROM).
  8. 大橋洋輝・大本義正・西田豊明. (2011) 直感的ロボットWOZ システムの構築とそれを利用したHRIとHHI の比較. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  9. 神田 賢一・大本義正・西田豊明. (2011) 継続的な知識構築を支援する知識構造化システムの開発とその利用. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  10. 森 槙悟・大本 義正・西田 豊明. (2011) 多地点からの画像に基づくHAI 用没入型仮想空間の構築. 『人工知能学会全国大会(第25回)論文集』(CD-ROM).
  11. 大橋洋輝・高橋暁弘・岡田将吾・大本義正・西田豊明. (2010) コミュニケーションエッセンスを有する自律ロボットの実現に向けたWOZ 環境の構築. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  12. 岡田将吾・神田賢一・大本義正・西田豊明. (2010) ユーザとの相互作用を通じた画像分類システムの開発. 『人工知能学会全国大会(第24回)論文集』(CD-ROM).
  13. 大橋洋輝・高橋暁弘・岡田将吾・大本義正・西田豊明 (2010) エージェントを介した遠隔地コミュニケーションの実現に向けたWOZ システムの開発. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  14. 山形佳祐・大本義正・西田豊明. (2010) ロボットの意思表示によるインタラクションの円滑化. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  15. 神田賢一・大本義正・西田豊明. (2010) 知識空間の可視化と共有支援システムの開発とその利用. 『情報処理学会全国大会(第50回)論文集』(CD-ROM).
  16. 徐涌・大本義正・植田一博・小松孝徳・岡留剛・亀井剛次・岡田将吾・角康之・西田豊明 (2009) HAI における相互適応現象の形成条件, HAI シンポジウム(Human-Agent Interaction Symposium) HAI-2009.