chinda_fall_desu’s diary

竹内豊の日記

ヒューマンコンピューターインターフェースをもっと知りたいなー

【HCI論文】exTouch (2013) - AR+物体操作 -

今回の論文

"exTouch: spatially-aware embodied manipulation of actuated objects mediated by augmented reality"(TEI 2013)

vimeo.com


動画の疑問点
・既存のシステムの入出力方法にどのようなバリエーションがあるだろうか
(入力、操作)マウス・ゲーム機のコントローラ・ディスプレイ・ジェスチャー・手で動かす etc.
(出力、描画)実世界、ディスプレイ、AR上の仮想物体、VR上の仮想物体 etc.

・このシステムは、 ディスプレイによる入力 × 実世界の物体の運動という出力 かな
・普通のロボットの操作と何が違うんだろう

どんなもの?

ARを用いて、実世界の位置を指定して、物体を移動させるシステム

先行研究との違い

・カメラでキャプチャされた画像を用いたターゲットを操作する研究はある
・ARのオーバーレイ画像に関する研究もある

・しかしユーザの視点からの画像を用いてターゲットを操作する研究はされていない

実装

タブレットの背面カメラとAR技術を使って、実世界の物体の位置及び姿勢を取得
タブレット上でのタッチ・ドラッグ操作によって並進・回転移動の操作を行う
タブレット自体の移動させても指と物体の関係に基づいて、物体は移動を行う

検証方法

移動における自由度が異なる物体(ドローンや全方向移動ロボットなど)を操作することでインタラクションの有効性を調査

議論

タブレットの移動とタブレット内での移動操作を同時に行えるのは利点の一つ
・今回の自由角度からの操作と既存の固定カメラからの操作を比較できていない


関連

答え合わせ

・普通のロボットの操作と何が違うんだろう 
→ ディスプレイのUIを使って、ロボットを操作することは普通だが、実世界の位置を指定して動かすことは新しい