【HCI論文】exTouch (2013) - AR+物体操作 -
今回の論文
"exTouch: spatially-aware embodied manipulation of actuated objects mediated by augmented reality"(TEI 2013)
動画の疑問点
・既存のシステムの入出力方法にどのようなバリエーションがあるだろうか
(入力、操作)マウス・ゲーム機のコントローラ・ディスプレイ・ジェスチャー・手で動かす etc.
(出力、描画)実世界、ディスプレイ、AR上の仮想物体、VR上の仮想物体 etc.
・このシステムは、 ディスプレイによる入力 × 実世界の物体の運動という出力 かな
・普通のロボットの操作と何が違うんだろう
どんなもの?
ARを用いて、実世界の位置を指定して、物体を移動させるシステム
先行研究との違い
・カメラでキャプチャされた画像を用いたターゲットを操作する研究はある
・ARのオーバーレイ画像に関する研究もある
・しかしユーザの視点からの画像を用いてターゲットを操作する研究はされていない
実装
・タブレットの背面カメラとAR技術を使って、実世界の物体の位置及び姿勢を取得
・タブレット上でのタッチ・ドラッグ操作によって並進・回転移動の操作を行う
・タブレット自体の移動させても指と物体の関係に基づいて、物体は移動を行う
検証方法
移動における自由度が異なる物体(ドローンや全方向移動ロボットなど)を操作することでインタラクションの有効性を調査
関連
答え合わせ
・普通のロボットの操作と何が違うんだろう
→ ディスプレイのUIを使って、ロボットを操作することは普通だが、実世界の位置を指定して動かすことは新しい