ジェスチャー操作が新たな方法に
先週はコンピューターの新たな「操作方法」がどうなるのか、という話をしました。3次元世界において、「タッチ」や「クリック」といったベーシックな操作の代替になるのは何でしょうか?
そのひとつは、手の形を変えることによるジェスチャー操作でしょう。ジェスチャー中に手の位置がずれてしまう、などの問題点はありますが、手をピストルのようにして、画面に向けて人差し指を「バーン!」という感じに動かすと決定、というようなインターフェースは、わりと簡単に実現できそうです。
実際、海外ではさまざまなベンチャー企業が、投資家やKickstarterから資金を調達して、研究開発を行っています。
先週、紹介した「Leap Motion」は、設置されている場所に手をかざすだけで操作できるという簡単さの一方で、一面からの赤外線照射のみで手の形を判定しているため、どうしても立体的な指の配置を読み取りづらい、という問題があります。
そういった問題点を解決できるかもしれない、ということで注目されているのが、ThalmicLabsによるウェアラブルセンサー「Myo」です。
「Myo」は、二の腕に巻くバンド型のセンサーです。実は、手がさまざまな動きをする時、腕の筋肉にはそれぞれ異なった信号が流れています。その信号を検知すれば、手の細かい動きのデータを得られます。
これは、開発の過程でさまざまなジェスチャーを実際に行って、測定結果を解析して学習させた作業の賜物です。個人差もありますが、デモ映像を見る限り、かなり正確に動いているようです。
無料会員登録はこちら
ログインはこちら