シミュレーション実験の1組目のデータ(オブジェクト変化)を使用した場 合、得られた視点評価値は、表5.1、 図5.1に示すようになった。視点評 価値は視点位置0,18,35付近で高くなっており、視点位置9,27付近では低 い値を示している。これは、視点位置0,18,35付近、つまり、オブジェク トの正面と背後から撮影した場合には、2つの動作の区別が明確であり、 視点位置9,27付近、オブジェクトの横方向から撮影した場合には、認識対 象の2つの動作はほぼ同じ画像として入力される( 図4.3:視点位置9,27)ためであると 思われる。つまり、認識する2つの動作が同じであるため、特徴量の違い を見つけ出せず視点評価値が低くなっている。また、認識率( 表5.2、 図5.2)は、視点評価の結果と同様に 視点位置0,18,35付近で高くなっており、視点位置9,27付近では低い値を 示しており、視点評価値が高い視点位置では認識率も高くなることが分か る。
シミュレーション実験の2組目のデータ(動作変化)を使用した場合、得ら れた視点評価値は、表5.3、 図5.3に示すようになった。この場 合では、視点評価値は視点位置0,18,35付近で低くなっており、視点位置 9,27付近では高い値を示した。これは、認識対象の2種類の動作のうち1つ は視点位置に関わらず同じ見え方をしているのに対し、もう1つの動作は 視点位置0,18,35付近、つまり、オブジェクトの正面と背後から撮影した 場合には、時間が変化するにつれ画像内で面積変化しかしていない( 図4.5:視点位置0,18)ためであると 思われる。このことより、画像列から抽出する特徴量のうち、その動作を 行う際に変化の少ないものは、認識に使用できるパラメータとして扱われ ず結果的に視点評価値が低くなることが分かる。また、認識率( 表5.4、 図5.4)は、視点評価の結果と同様に 視点位置0,18,35付近で低くなっており、視点位置9,27付近では高い値を 示しており、視点評価値が高い視点位置では認識率も高くなることが分かっ た。
以上のシミュレーション実験から、提案手法を用いることで、動作認識に おける視点選択が可能であることが分かった。
実画像実験1の結果、得られた視点評価値は、 表5.5、 図5.5に示すようになった。この場 合、視点評価値は視点位置0,18,35付近で低くなっており、視点位置9,27 付近では高い値を示した。これは、模型の象の頭部を外したことによる変 化をより多く検出することの出来る視点位置は、象の模型の横方向である ためである。また、認識率(表5.6、 図5.6)は、視点評価の結果と同様に 視点位置0,18,35付近で低くなっており、視点位置9,27付近では高い値を 示しており、視点評価値が高い視点位置では認識率も高くなることが分かっ た。
以上の結果から、実画像においても提案手法を用いることで、動作認識に おける視点選択が可能であることが分かった。
実画像実験1の結果、得られた視点評価値は、 表5.7、 図5.7に示すようになった。この場 合、視点評価値は視点位置5,6,7付近で低くなっており、視点位置1,2,3付 近では高い値を示した。これは、認識対象動作のうち「頭を掻く」、「手 を挙げる」、「口を押さえる」といった動作を右手で行っており、その動 作の特徴をより多く捉えることが出来るのが視点位置1,2,3付近の人物に 対して右斜め前方から撮影した場合であるためと思われる。また、認識率 (表5.8、 図5.8)は、視点評価の結果と同様に 視点評価値は視点位置5,6,7付近で低くなっており、視点位置1,2,3付近で は高い値を示しており、視点評価値が高い視点位置では認識率も高くなる ことが分かった。
以上の結果から、従来手法では認識することの困難な無意識動作でも本手 法を用いることによって最適視点を選択し認識することが可能であり、将 来的に人間と計算機とのインターフェースとして応用可能であることが分 かった。