こういった技術がオープンソース化されるのは素晴らしいことだ。コンピュータはキーボードとポインタデバイスを使って操作するのが当たり前になっている。だがこれは今後も続くだろうか。いや、マルチタッチシステムに代表されるようにもっと自由に操作できるようになるはずだ。

Picture 455.png

目線でポインタデバイスを制御する

 

その一つの可能性として視線はじゅうぶん可能性がある。既に体が不自由な人のためにも利用されているが、Opengazerはそれをオープンソースとして提供している。

今回紹介するオープンソース・ソフトウェアはOpengazer、Linux向けの視線認識エンジンだ。

OpengazerはWebCamを使って顔を映し出す。そしてその視線の動きに応じてポインタデバイスを移動させることができる。画面の範囲は決して狭くなく、それでもきちんと認識して移動するのが凄い。

デモ動画はUbuntu上で動作しているようで、現在はLinux向けの提供となる。Mac OSX向けのMakefileも提供されているが、筆者環境ではmakeに失敗してしまった。WindowsやMac OSXでも利用できるとなれば、広い可能性をもったデバイスに成長する可能性がありそうだ。

視線だけでプレゼンテーションを操作したり、Webページを見たりできるようになるかも知れない。そうすればもっと自然にコンピュータを体感できるようになるだろう。

 

**Opengazer: open-source gaze tracker for ordinary webcams

 **
http://www.inference.phy.cam.ac.uk/opengazer/