MRTK Docsの視線追跡のSampleの概要を読む
eye tracking Sceneの概要
学ぶこと
・暗黙的な目ベースのアクティブ化
・見ている内容に関する情報を音声と手入力とシームレスに組み合わせる方法
・目の視線入力方向のスクロール
・スレート上のテキストと画像のパンとズーム
使用例
ユーザーは、ターゲットを見て "選択" と言ったり、手のジェスチャを実行したりするだけで、ホログラフィック コンテンツをすばやく簡単に選択してビュー全体を移動
## Demo02
#### 紹介しているもの
・eye gaze Dataにアクセスする方法
・ターゲットを選択するためのeye gaze event
- Look & Say "Select" (default voice command)
- Look & Say "Explode" or "Pop" (custom voice commands)
- Look & Bluetooth button
- Look & Pinch (i.e., hold up your hand in front of you and bring your thumb and index finger together)
- Please note that for this to work, the hand rays need to be disabled
1.視線はメインのポインターとして使用できる
例:ハンドがViewに存在するときは、hand rayをmain pointerとし、ハンドがviewに存在しないときはeye gazeをmain pointerとする
2.視線とhand rayを同時に使用する
例:手で作業をしながら、視線で説明書をスクロールし、完了したら「チェックして」と言う
* eye trackingの基本的な設定
視線は、ほかのフォーカス入力と同じように利用できる。
つまり、コードを変更せずに、MRTKの入力pointer profileでmain focus typeを選択することができる。
* ホログラムに焦点をあてる
ホログラムの焦点が合っていることを検出するには、OnFocusEnterとOnFocusExitの2つのインターフェイスメンバーを提供する「IMixedRealityFocusHandler」インターフェイスを使用する
sample code
public class ColorTap : MonoBehaviour, IMixedRealityFocusHandler { void IMixedRealityFocusHandler.OnFocusEnter(FocusEventData eventData)
{
material.color = color_OnHover;
}
void IMixedRealityFocusHandler.OnFocusExit(FocusEventData eventData) {
material.color = color_IdleState;
} ... }
つづき
Eye Tracking Target Selection - Mixed Reality Toolkit | Microsoft Docs
*焦点のあったホログラムを選択する
IMixedRealityPointerHandlerを使用する。
*視線に特化したフォーカス
an example is
EyeTrackingDemo-03-Navigation
*下のやつは今度みる