My Research Theme [2002〜2004]
Japanese / English



AirGrabber: 小型カメラと傾斜センサを用いたバーチャルキーボード
AirGrabber: Virtual Keyboard using a Miniature Camera and a Tilt Sensor




1. 概要

 近年のハードウェア技術の進歩により,コンピュータ本体および周辺機器の小型・軽量化が実現したことで,小型のコンピュータを身体に装着して使用するウェアラブルコンピュータが実用化されつつある. その一方で,ウェアラブルコンピュータを操作するための,従来のキーボードに代わる携帯型文字入力インタフェースも提案されているが,それらは機能や使用環境の制限,操作方法の特殊性等の理由から,使いづらいものが多いのが現状である.

 本研究では,ウェアラブルコンピュータへの適用を考慮に入れた,既存のキーボードを使用する感覚で指を動かすことで文字入力を可能にするバーチャルキーボードAirGrabberを提案,構築した.

 AirGrabberは,何も無い空間での指の動きを,手首に装着した小型カメラを用いて動画像処理により認識し,キーの打ち分けを行う際には傾斜センサを利用する. したがって,動作に必要な機器が手首部分だけでまとまるため,持ち運びに適し,直感的な入力を可能とする新たな文字入力インタフェースであると言える.



2. AirGrabber

2.1 仮想的なタイピングによる文字入力

 文字入力インタフェースをウェアラブルに適応するためには,装着機器による身体の拘束度合いを可能な限り削減し,文字入力以外の他の作業への移行が容易になるよう考慮する必要がある.

 物理的なキーボードを用いずに,タイピング動作による文字入力を実現する ためには,どの入力キーが選択され,タイピングされたか,をシステムが正確に認識しなければならない. そこでこの認識を,以下の二つの判別処理に分けて考える.

i. どのキーがタイピング可能な状態か

ii. タイピングがなされたか

 まず,上記i.について考える. キーボードに配列されているキー上のどこに手が存在しているかによって,その時にタイピング可能なキーの候補は変化する. したがって,上記i.を認識することは,現実の手の動きを仮想キーボード上の手の位置変化へと対応付けることと言える.

 次に,上記ii.の判断は,指先の動作をセンシングすることにより行われるが, 身体を可能な限り拘束せずに指先の動作をセンシング出来ることが望ましい.

AirGrabber装着図

 本研究で提案する手法では,i.とii.の判別処理に必要となるセンサ機器を最小構成にするために,手首に小型カメラと傾斜センサを装着して用いる.
(右図:AirGrabber装着図)

 傾斜センサの出力に応じて手と仮想キーボードとの位置関係を対応付け,カメラで撮影した指先の映像から,時々刻々の指先の動作を捉える. この構成により,中空をタイピングする手と指の動作でキー入力が可能になる. また,装着機器が手首だけでまとまるため,手と指は自由になると同時に,キー入力をしない時に指先を使った他の動作(物を掴む,メモを取る,等)に移行しやすくなる.


2.2 タイピング可能なキーの認識

 腕に装着した三軸の傾斜センサを用いて腕の前後左右への傾きを認識し,その傾きの度合いをホームポジションからの手の移動量として見なすことでキーボード上を移動し,タイピング可能なキーの候補を選択する. 具体的には,下図に示すように,ホームポジションをキーボードの中央とし,手首を前後に傾けるとホームポジションより上もしくは下の段のキーを選択,手首を左右に傾けるとホームポジションよりの左もしくは右の列のキーの選択を行う.

キー候補選択の動き

2.3 タイピング動作の認識

 手首の下に装着した小型カメラから得られた映像を,以下の過程を経て解析することでタイピング動作を認識する.

  1. 手領域抽出
  2. 指先抽出
  3. 各指先位置の検出
  4. タイピング動作の判定

 なお,手領域抽出に関しては,手首の下に装着した小型カメラの位置から指全体をカメラの視野に捉えるために,カメラには魚眼レンズを装着する. また,カメラで撮影した映像から指先の動作を観察するためには,手の像を安定して取得する必要がある.そこで,カメラの下に赤外光を照射する光源を取り付け,カメラ内部には赤外透過フィルタを挿入する. 赤外透過フィルタは可視光を遮断するため,カメラに近接している手が非常に明るく映し出され,カメラで撮影した映像を閾値処理のみで手指領域とそれ以外の領域に二値化することが可能となる. 次に,二値化された画像をラベリングして領域分割を行い,最大領域を占めているものを手領域と判断して抽出する.

 手領域を抽出し指先を検出するための処理の流れを下図に示す.

手領域を抽出し指先を検出するための処理の流れ
指先検出
手領域を抽出し指先を検出するための処理の流れ
指先検出


 指先の動きからタイピング動作を認識するための処理の流れを下図に示す.

指先の動きからタイピング動作を認識するための処理の流れ
人差し指のタイピング動作イメージ
指先の動きからタイピング動作を認識するための処理の流れ
人差し指のタイピング動作イメージ

3. AirGrabber試作システム

 提案手法を用いて作成したAirGrabberの試作システムを,下図に示すようなシステム構成で作成した. カメラを制御するためにPentium Celeron 1GHz, 256MBメモリを搭載したWindowsXP環境のノートPCを用い,キャプチャ画像サイズは180×120画素とした. システムの動作レートは7〜10fpsであった.

試作システム構成


 試作システムを用いた実際の動作画面を下図に示す. 試作システムを用いてwindows環境の任意のテキスト領域への文字入力が可能である.

試作システム動作画面

4. 評価実験および考察

 AirGrabberの試作システムを被験者10名に実際に使用してもらい,以下の3つの評価実験を行った.

  1. 仮想キーボード上のキー選択動作の精度評価
  2. タイピング動作認識の精度評価
  3. 文章入力による評価

 実験から,AirGrabberの基本的な操作方法はユーザが容易に理解できるものであり,実際に試作システムを用いたキー入力は可能であることが分かった. したがって,AirGrabberはウェアラブル環境における文字入力の機能を十分に提供できていることを確認できた.


5. おわりに

 本論文では,中空で手と指をあたかもキーボードを操作しているかのように動作させることで,実際のキーボードを必要とせずにキー入力が可能な,ウェアラブルコンピュータへの適応を考慮に入れた文字入力インタフェースAirGrabberを提案,構築した. そして,試作システムの実装・実験によりその有効性を確認した.




 詳細は修士論文を. 修士論文PDFファイル(注:27MB) ←click


Publication


Topページへ戻る






...