Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Color histogram equalization and fine-tuning to improve expression recognition of (partially occluded) faces on sign language datasets

Created by
  • Haebom

作者

Fabrizio Nunnari, Alakshendra Jyotsnaditya Ramkrishna Singh, Patrick Gebhard

概要

本研究は、手話データセットにおけるコンピュータビジョン方法が顔の表情を正確に分類する程度を定量化することを目的とする。聴覚障害者と聴衆の間の感情表現の違いをより詳細に調査するために、顔の上半分または下半分のみを使用して表情を認識する実験を拡張した。データセットの特異な色プロファイルを考慮して、ヒストグラム平滑化および微調整に基づく色正規化ステップを導入した。結果は,83.8%の平均感度とクラス間の非常に小さな分散(.042)で表情を正確に認識できることを示した。人と同様に、顔下半分(79.6%)での表情認識率が上半分(77.9%)より高かった。注目すべきことに、顔の上半分を通る分類精度は人間のレベルより高かった。

Takeaways、Limitations

Takeaways:手話データセットのコンピュータビジョンを使用した表情認識の高精度(83.8%の平均感度)を示します。顔上下半分の表情認識率差解析による聴覚障害者と聴者間の感情表現の違い研究可能性を提示色正規化技術の有効性の確認顔の上半分の認識率が人間のレベルを上回る結果の導出
Limitations:特定の手話データセットの結果であるため、一般化の可能性に関するさらなる研究が必要です。データセットのサイズと多様性への言及の欠如。他の感情認識法との比較分析の欠如人間レベルを上回る上半分認識率のさらなる分析と解釈の必要性
👍