Oculus Questに関して直近ハンドトラッキング機能が解放された。アナウンスをみた時から、これによってコントローラを手にせずとも仮想空間を自由自在に操れる時代がやってくる、、そういう期待を抱いていた。
実際にこのハンドトラッキングがリリースされ、魔法のような体験ができたのだが、一方で手放しで(文字通り)喜べるレベルに至っていないという気付きも得られた。
それは、トラッキング精度というよりむしろ、現状のハンドトラッキング技術の限界とも言える。そこで自明のものもあるが、気がついた点を書き下してみたい。
またハンドトラッキングについては、前回までで触れていたOculus Developers Documentにも触れられており、これらの内容とも今後照らし合わせてみたい。
グリップ感が得られない
VRゲームには物体を仮想ハンドで扱う操作を当然のように要求される。コントローラがあればそれをグリップすることで、仮想空間上の「握る」感覚も比較的現実的に得られた。
一方でハンドトラッキングだと、物理的に握るものがないの、実質「空を掴む」ことになる。これは自明のようだが、実際に体験してみると、対象を「つまむのか」「つかむのか」が大変曖昧になり、かなり困惑したし、心地よい体験とは程遠かった。
触覚的手がかりが得られない
Oculus Touchコントローラには内蔵のバイブレーションにより、仮想空間内でのイベントを触覚フィードバックとして表現することができる。たとえば、シンプルなUI操作においては、Webサイトでいうところのホバー表現に当たるものだったり、ゲーム内では攻撃を受けた際の衝撃表現が典型例だ。
一方でコントローラを握っていなければ、これらのフィードバックを得ることは当然できない。これは一見、体験がやや見劣るだけのように思えるかもしれないが、実際にはそれ以上のデメリットがある。
それは「触覚的手がかり」が得られないということだ。操作可能な対象にフォーカスした際にかかる、軽微なバイブレーションも、ひとたび慣れてしまえば、失った時改めてそれが重要な手掛かりであったっことに気がつかされる。
ヘッドセット観測域外での操作ができない
コントローラとハンドトラッキングとの違いは、前者が搭載したセンサーをもとに、その位置や角度をヘッドセットに伝達しているのに対し、後者はヘッドセットのカメラで観測した画像を理解して、その位置やポーズを推定していることだ。
これは、コントローラはヘッドセットとの相対位置の影響を受けづらいのに対し、ハンドトラッキングはヘッドセットのカメラに映らない位置ではその操作が無効になるということだ。
こうした問題は、技術的に解決または改善できるものだろう。
例えば、仮想物体のグリップ感や触覚的手がかりは、グローブ型の装置をによって触覚を補完する、haptic gloveの研究開発が進んでいる。この技術がより精細化すれば、手触りの再現も可能になるかもしれない。
観測領域についても、カメラの個数を増やしたり、広角にすることで解決できるのかもしれない。
また、この弱点を理解した上でハンドトラッキングの使い道を絞ることで、違和感を低減できる可能性もある。
実際、Oculusのホーム画面では手が観測域から外れてトラッキングできないという違和感に至らなかったのだが、それはメニュー操作が、操作対象に対する一定の着目を求める性質があるからではないか。
反対に、操作対象が明示的でない、単なるジェスチャーとしての応用では、トラッキングが観測域から外れがちになるという経験があった。加えてトラッキング外にあるゆえに、その失敗に対してのフィードバックが不可能である点もタチが悪い。
まとめると、以下のような用途に絞ることで、ハンドトラッキングがより優れた体験に結びつきそうだ。
- 物体の持ち上げを避ける
- 視覚的に操作対象へ注目させる
- 単なるジェスチャーとしての応用はクリティカルな操作では避ける
以上はすべて、いち利用者としての考察に過ぎないことを言い添えておく。Oculus Developers Documentをもとに理解を深めていきたい。