「生活イチバン、ITニバン」という視点で、自分なりのITを追及するフリーエンジニアです。ストレスを減らすIT、心身ともにラクチンにしてくれるITとはどんなものかを考えていきます。

ジェダイのごとく

»

■WindowsでKinectを

 今年の6月16日、MicrosoftからKinect for Windows SDK betaが登場した。恥ずかしながら、私がそれを知ったのはつい最近、7月の末になってからだ。どうも私の脳内アンテナは、地デジ化が遅れていたらしい……。

 それはともかく、知ったからには試さずにはいられない。早速amazonで『Kinectセンサー』を購入し、Microsoftのサイトから『Kinect for Windows SDK beta』をダウンロードした。

 このSDKについては、@ITの記事『Kinect for Windows SDK(ベータ版)開発入門』が分かりやすいので参照して頂きたい。私としては、マネージコードでKinectをコントロールできるということで、他のSDKとは違って敷居が低いと感じた。

 そこで、今回はいろいろなサンプルコードを試していて感じたことを書いてみる。といっても、コーディングTIPSのような技術的なことではなく、WindowsにKinectをつなげて何が面白いのか、という話だ。

■Windowsにジェスチャは必要か?

 まず第一に、Windowsをジェスチャで操作する意味などあるだろうか? その答えは、どんなことにも言えることだが、「コンテキストによる」としか言いようがない。

 Wordで文章入力するのにジェスチャが効率的かと聞かれたら「ノー」だし、ジェスチャを使ってVisual Studioでコーディングしろと言われたら「ふざけるな!」と答えるだろう。 マウスカーソルを動かすサンプル『Kinect Mouse Cursor』を5分ほど試してみると、ジェスチャという行為がどれだけ体力を消耗するかがよく分かる。長時間連続して操作する用途にはまったく向いていないのだ。

 しかし、例えばプレゼンでスライドのページをめくるのは? レシピサイトを見ながら料理している時に、ぬれた手でページをスクロールしたいときは? このようなときには、ジェスチャがとても便利な入力形態であることは疑う余地もない。特に、手がぬれたり汚れたりしている際に、デバイスに直接触れずに操作できるメリットは計りしれないモノがある。

■現状の問題点

 しかし、現状ではいろいろと問題がある。前掲の記事でも指摘しているが、ハンドジェスチャを簡単に取得できないのは、最大の問題だろう。ゲームと違って、通常のアプリでは全身の骨格情報は不要だ。その代わりに手の情報をどこまで詳細に取得できるかがポイントとなる。5本の指の骨格情報が欲しいところだ。そして、センサーとの距離も、PCでの利用を考えると1m以内でも認識できることが望ましい。指の認識に関しては、MITの研究者の『デモ』を見ると技術的に可能であることが分かる。

 このレベルまで簡単に認識できるようになれば、間違いなくWindowsアプリの可能性も広がるだろう。

■ジェスチャの時代がやってくる?

 今後の予想と妄想を書こう。おそらく、タイミングとしてWindows8リリースの時点でKinectに正式に対応するだろう。かなり以前から、MSの社内資料が流出したりして噂が広まっているし、そういう方向に進むことは間違いない。UI的にも、今のWindows7のUIをジェスチャで操作する気にはならないが、Windows8のMetro UIなら、ちょっと動かしてみようかという気にもなる。

 そんなわけで、Windows8が登場する来年以降、デバイスに直接触れずに操作することが必要となるような、特定の環境下での利用を想定したアプリなどを、ジェスチャで操作する時代がやってくるに違いない。

 ジェダイマスターのように操作する業務アプリを、是非とも作ってみたいものだ。

Comment(1)

コメントを投稿する