感情を認識する人工ネットワークEMPATH

人間の社会的関係は、社会の構成員同士がコミュニケーションを行う事によって成り立つが、私たちは言葉によるコミュニケーションだけではなく、相手の表情や身振り、態度から相手の感情や気持ちを推測することができ、怒りや悲しみ、歓喜といった激しい感情の表出を読み間違う事は殆どない。

特に、人間固有の認知能力として特筆されるべきは『顔の表情からの感情の読み取り』である。コットレルとメトカルフェという神経科学者は、EMPATHという感情の認識をするコンピューター制御のニューラルネットワークを作って実験を行った。
学生男女を各10人ずつ、合計20人に協力して貰い、『歓喜・愉快・驚愕・くつろぎ・眠気・退屈・苦悩・怒り』の8種類の感情を顔の表情で表現して貰い、それを人間とEMPATHが当てるという実験である。
人工のニューラルネットワークが、果たして人間の顔の表情から感情を読み取ることが出来るのかという興味深い実験だったが、結果は、十分な学習回数を重ねればコンピューターにも表情からの感情識別が出来るというものであった。
勿論、それは機械的で統計的な感情識別であり、人間の内的思惟や内的情緒を伴う感情識別とは似て非なるものであるし、実際の表情からの感情的中率はコンピューターよりも人間のほうが高いという事も事実である。

しかし、人間もコンピューターも、陰性感情(眠気・退屈・苦悩・怒り)よりも陽性感情(歓喜・愉快・驚愕・くつろぎ)のほうが的中率が高い事で類似し、陰性感情の中でも特に表情からだけでは区別することが難しい眠気・退屈・苦悩の区別において間違いが多かった。また、学生による演技の巧拙の問題もあるので、この実験によって実際の現実場面における感情表出のダイナミズムが再現されているわけではない事にも注意が必要である。
そして、コンピューターは人間と違って、与えられたデータの情報以外の面識のない人物へと『感情識別の能力を一般化』させることが苦手である事もその実験から分かった。

人間とコンピューターの最大の認知機能の違いは、コンピューターにとっては静止画(写真)も動画(現実場面)に大きな差異はないが、人間は生活環境の文脈や他者の一連の時間的連続性のある行動(動画的な時間推移)に大きく影響を受けて認知し、感情を区別するという事である。
今まで大笑いしていた相手が急に泣き始めた場合に人間は嘘泣きを疑うが、コンピューターはそういった時間的継起の文脈を意識することがあまり得意ではない。

EMPATHの様な機械的な認知システムは、未だ不完全であるが、最大の障壁は、人間の内面的意識の技術的再現、つまり、相手の感情が認知的・社会的・物理的にどのような結末や行動をもたらすかの洞察や予測が立たないところにあると言えるだろう。