chinda_fall_desu’s diary

竹内豊の日記

ヒューマンコンピューターインターフェースをもっと知りたいなー

【HCI論文】GesturAR (2021) - 自分で決めたジェスチャで物体が動き出す! -

今回の論文

"GesturAR: An Authoring System for Creating Freehand Interactive Augmented Reality Applications"(UIST 2021)

www.youtube.com

背景

ハンドジェスチャはAR体験には不可欠な入力手法である

先行研究

事前に決められたハンドジェスチャに焦点を当てた研究はいくつもある(例えば,研究ではPortal-ble#1やHoloDesk#2,製品ではHololens2#3

課題
エンドユーザがカスタマイズされたハンドインタラクションを用いて,ARアプリケーションを開発するのが難しい…
自分が好きなようにハンドインタラクションを設定できるようになると嬉しい…

本研究

GesturARでは,自分が好きなようにハンドインタラクションを設定でき,それを即座に体験できる!
ビジュアルプログラミング(コードを書かずにプログラミング!)を使って,設定を行うのでエンドユーザが利用できる!


利用手順

  1. 作成モード:実オブジェクトのスキャンを行って#4,実物体と同じ形状の仮想物体を作成する
  2. オーサリングモード:ジェスチャと,それに伴う物体の動きを決める
  3. プレイモード:仮想物体にジェスチャを行うとそれに基づいて動き出す!


ジェスチャ識別
one-shot learningによって,手の位置と姿勢に基づく,ジェスチャ識別を行う


アプリケーションシナリオ
オブジェクト操作,ロボットやエージェントとのインタラクションの設計,部屋規模のARゲーム開発など

評価実験

ユーザ調査を行い,GeturARの性能とユーザビリティを調査しました.

ジェスチャ認識の精度
自身のジェスチャと他人のジェスチャのFスコアに対し,1元配置分散分析を行った.
静的ジェスチャにおいて,有意差は見られなかった(F(1,22)=0.056, p=.82>.05).
動的ジェスチャにおいても,有意差は見られなかった(F(1,22)=2.79, p=.11>.05).
→これから,誰がジェスチャを作成するかによらず,ジェスチャを識別できることが分かる.(有意差がないから差が無いって言っていいんだっけ?)

インタラクション作成の評価
全体のテスト成功率は94.44% (SD=0.08)だった.リッカート尺度によるアンケート評価も行った.

ゲーム作成の評価
リッカート尺度によるアンケート評価およびSUSによる評価を行った.
SUSの点数の平均は86(SD=11.18)で高かった.

詳しい説明はこちら

著者の発表動画
www.youtube.com

脚注


#1. Portal-ble: Intuitive Free-hand Manipulation in Unbounded Smartphone-based Augmented Reality (2019)
www.youtube.com


#2. HoloDesk: Direct 3D Interactions with a Situated See-Through Display (2011)
www.youtube.com
chindafalldesu.hatenablog.com


#4. 3Dスキャン
HoloLens2では3Dスキャンを行えないため(おそらく,色付きの3dモデルでなければ可能),~で取得する3dメッシュは,事前に取得したメッシュを使う
空間マッピング - Mixed Reality | Microsoft Docs