本研究は、手話データセットにおけるコンピュータビジョン方法が顔の表情を正確に分類する程度を定量化することを目的とする。聴覚障害者と聴衆の間の感情表現の違いをより詳細に調査するために、顔の上半分または下半分のみを使用して表情を認識する実験を拡張した。データセットの特異な色プロファイルを考慮して、ヒストグラム平滑化および微調整に基づく色正規化ステップを導入した。結果は,83.8%の平均感度とクラス間の非常に小さな分散(.042)で表情を正確に認識できることを示した。人と同様に、顔下半分(79.6%)での表情認識率が上半分(77.9%)より高かった。注目すべきことに、顔の上半分を通る分類精度は人間のレベルより高かった。