本研究では、ヒアラブル端末を用いて顔の動作 (ここでは顔ジェスチャと呼称しています) を計測・認識し、PCやスマートフォンといったデバイスの操作手段に応用することを目的としています。ここで提案している手法では...
本研究では、ヒアラブル端末を用いて顔の動作 (ここでは顔ジェスチャと呼称しています) を計測・認識し、PCやスマートフォンといったデバイスの操作手段に応用することを目的としています。ここで提案している手法では、ヒアラブル端末に小型カメラと慣性計測ユニット (IMU) を付随させて、ユーザの横顔の撮影画像と頭部の加速度データを収集します。そして、取得した画像・加速度データを時間軸に沿って統合し、機械学習モデルに入力することで、ユーザが行った顔ジェスチャの分類を行います。この手法で分類する顔ジェスチャとしては、下図に示すように、口を開ける (exp/openm)、笑う (exp/smile)、舌を左頬に押し付ける (ton/cheek_l) といった口・舌の動作を設定しています。
HCI分野においては、このように手以外の部位をデバイスの操作手段として応用する研究が数多く行われています。中でも、口や舌は様々な動作が可能で、自由度の高い操作手段が実現できます。一方、そうした先行研究には課題が存在し、例えば計測機器の装着がユーザの身体に対し負荷を伴うことや、公共の場では使いにくいデザインの操作手段であることが挙げられます。そこで、この研究では多くの人が日常的に使用しているヒアラブル端末を計測機器とすることで、これらの課題を解消し、より使いやすいインタフェースの実装を目指しました。