Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

FOVAL: Calibration-Free and Subject-Invariant Fixation Depth Estimation Across Diverse Eye-Tracking Datasets

Created by
  • Haebom

作者

Benedikt W. Hosp

概要

この論文は、拡張現実(XR)、ロボット工学、および人間とコンピュータの相互作用の分野で不可欠な正確な視線固定深さを推定するための新しい方法であるFOVALを提示します。既存の方法がユーザー固有のキャリブレーションに大きく依存して拡張性と使いやすさが制限される問題を解決するために、FOVALは長短期メモリ(LSTM)ネットワークを使用した時空間シーケンスモデリングとユーザー不変の特徴エンジニアリングと正規化を組み合わせたキャリブレーションを必要としない強力なアプローチを提案します。 Transformer、Temporal Convolutional Networks(TCN)、CNNと比較して、特に制限的でノイズの多い視線データシナリオで優れたパフォーマンスを実現します。 3つのベンチマークデータセットのLeave-One-Out Cross-Validation(LOOCV)とクロスデータセットの検証は、平均絶対誤差(MAE)9.1cmを達成し、補正なしで強力な一般化性能を示しました。さらに、ユーザー間のボラティリティとドメインの動きを分析し、モデルの堅牢性と適応性に関する洞察を提供します。 FOVALのスケーラビリティと精度は、実際の環境展開に非常に適しています。

Takeaways、Limitations

Takeaways:
ユーザー固有の補正を必要としない視線固定深さ推定方法を提示し、スケーラビリティと使いやすさを向上させました。
LSTMベースの時空間シーケンスモデリングとユーザー不変の特徴エンジニアリングにより、限られたノイズの多いデータでも優れた性能を示しました。
さまざまなデータセットのクロス検証により、モデルの堅牢性と一般化性能を検証しました。
実際の環境展開に適した実用的なシステムを提示します。
Limitations:
本論文では具体的なLimitationsは明示的に提示されていない。追加の実験やさまざまな環境でのパフォーマンス評価が必要な場合があります。
特定のハードウェア環境への依存性やリアルタイム処理性能の詳細な分析が不足する可能性があります。
👍