Google Glassはスマホの系譜を継ぐべきか? ウェアラブルの罠

✎ 1〜 ✎ 14 ✎ 15 ✎ 16 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
新世代リーダー予備軍とも言える10代の優秀な若者は、どんな未来を描いているのか。「スーパーIT中学生」「スーパーIT高校生」として早くから独自の道を切り拓いてきたデジタルクリエーターの灘高生が、未来予測を発信。ITや政治、経済、教育、ときにはアイドルや女の子ネタまで、感度の高い移り気なアンテナがキャッチするまま書き連ねる。

 

Tehuの言葉 「Google Glassはスマホの系譜を継ぐべきか?」

ジェスチャー操作が新たな方法に

先週はコンピューターの新たな「操作方法」がどうなるのか、という話をしました。3次元世界において、「タッチ」や「クリック」といったベーシックな操作の代替になるのは何でしょうか?

そのひとつは、手の形を変えることによるジェスチャー操作でしょう。ジェスチャー中に手の位置がずれてしまう、などの問題点はありますが、手をピストルのようにして、画面に向けて人差し指を「バーン!」という感じに動かすと決定、というようなインターフェースは、わりと簡単に実現できそうです。

実際、海外ではさまざまなベンチャー企業が、投資家やKickstarterから資金を調達して、研究開発を行っています。

先週、紹介した「Leap Motion」は、設置されている場所に手をかざすだけで操作できるという簡単さの一方で、一面からの赤外線照射のみで手の形を判定しているため、どうしても立体的な指の配置を読み取りづらい、という問題があります。

そういった問題点を解決できるかもしれない、ということで注目されているのが、ThalmicLabsによるウェアラブルセンサー「Myo」です。

「Myo」は、二の腕に巻くバンド型のセンサーです。実は、手がさまざまな動きをする時、腕の筋肉にはそれぞれ異なった信号が流れています。その信号を検知すれば、手の細かい動きのデータを得られます。

これは、開発の過程でさまざまなジェスチャーを実際に行って、測定結果を解析して学習させた作業の賜物です。個人差もありますが、デモ映像を見る限り、かなり正確に動いているようです。

次ページポケットからスマホ出せばいいじゃん?
関連記事
トピックボードAD
ビジネスの人気記事