Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Uncertainty Estimation by Human Perception versus Neural Models

Created by
  • Haebom

作者

Pedro Mendes、Paolo Romano、David Garlan

概要

本論文は、ニューラルネットワーク(NN)の予測精度が高い場合でも、誤った予測に対して過信する傾向(誤った補正)が存在し、これは、信頼できる不確実性推定が重要なアプリケーションで深刻な問題を引き起こすことを扱います。 3つの視覚的ベンチマークを使用して、人間の意見の不一致とクラウドソーシングされた信頼性の両方を含むデータを分析し、モデルが予測した不確実性と人間が認識する不確実性との間の相関関係を評価しました。その結果、現在の方法は人間の直観と弱くのみ一致し、作業と不確実性の測定方法によって相関関係が大きく異なることを発見しました。特に、人間が提供したソフトラベルをトレーニングプロセスに組み込むことで、精度を損なうことなく補正を改善できることを明らかにしました。これらの結果は、モデルと人間の不確実性の間の持続的な違いを示しており、より信頼性の高いAIシステム開発のための人間の洞察力の利用可能性を強調しています。

Takeaways、Limitations

Takeaways:人間の不確実性の認識を考慮したニューラルネットワークのトレーニングがモデルの補正の改善に有効であることを示しています。人間が提供するソフトラベルを活用して、より信頼できるAIシステムを開発する可能性を示します。
Limitations:モデル予測の不確実性と人間の認知不確実性の間の相関関係が作業と測定方法によって大きく異なるという現象に関するさらなる研究が必要です。さまざまな種類の作業と不確実性を測定する方法の広範な研究を通じて、より堅牢な結論を導き出す必要があります。人間の不確実性の判断自体の主観性と不完全性の考慮が不足する可能性があります。
👍