ニュース

歩き方でも人の感情を認識可能と証明

2014.07.17

 感情は通常、声や顔、体全体で表現される。歩き方からも人の感情がわかることを、東京農工大学大学院工学研究院のベンチャー・ジェンチャン准教授と筑波大学サイバニクス研究センターの門根秀樹助教、フランスのコレージュ・ド・フランスのアラン・ベルトーズ名誉教授らが証明した。6月25日付の国際科学誌International Journal of Social Roboticsのオンライン版で発表した。

 人の歩行データ(歩き方)から個々の感情特性を抽出・作製したモデルを用いて、数学的に感情認識が可能であることを世界で初めて明らかにした。これによって、歩き方から、定量的に人の感情を予測できる可能性が示された。ベンチャー准教授らは「ロボットに応用できる成果」としている。

 研究グループは、さまざまな歩き方のうち、何に基づいて、感情を認識しているかを、被験者20人で実験した。4人の演者が 5 種類の感情(喜怒哀楽恐)を表現した動作をアバター(アニメーションキャラクター)変換で作製した。そのヒューマンモデルを使って、被験者がどのように感情を認識するかを調べた。速度や姿勢を変えれば、被験者が認識する感情も変化した。

 この結果を基に感情認識アルゴリズムを作製し、パラメータ(速度、頭や胴体の姿勢)の重みづけを変えてバリエーションを加え、感情認識の成功率を検証した。その結果、特定のパラメータが感情認識に大きく影響を与えることがわかった。この研究で、全身の動作が必要ではなく、胴体など一部の動きを見るだけで、感情を認識できることも確かめた。

 ベンチャー准教授は「今後、より複雑で多様な感情認識の可能性を検証していくため、より多くの動作データを蓄積して研究を進めたい。その結果は、例えばロボットが、近づいてきた人の感情を歩き方で認識し、感情を先読みしてコミュニケーションをとることなどに応用できる。従来の感情認識ロボットに比べて飛躍的な機能進化が期待できる。歩き方も感情表現としては、胴体など一部に注目すればよさそうなので、意外に計算しやすく、実用化するのは楽だろう」と話している。

演者による感情表現のデータから作製したアバターのモデル
図. 演者による感情表現のデータから作製したアバターのモデル
(提供:東京農工大学)

ページトップへ