本論文は、信頼性が重要な高リスク領域でますます配布されている機械学習(ML)システムの安全性と信頼性を高めるために、不確実性推定をどのように使用できるかを調査します。特に、信頼度が低いときにモデルが予測を控える選択的予測に焦点を当てる。まず、モデルのトレーニングパスに、アーキテクチャや損失を変更せずに活用できる豊富な不確実性信号が含まれていることを示しています。中間チェックポイントの予測をアンサンブルし、さまざまなタスクで動作し、深いアンサンブルのコストを回避し、最先端の選択的予測性能を達成する軽量の事後的権利方法を提案する。重要なのは、この方法が差分プライバシー(DP)と完全に互換性があるため、プライバシーノイズが不確実性品質にどのような影響を与えるかを研究できることです。多くの方法はDPの下でパフォーマンスを低下させますが、この論文のパスベースのアプローチは強力であり、プライバシー - 不確実性トレードオフを分離するためのフレームワークを紹介します。次に、選択的分類間隔(Oracleの精度 - 適用曲線との偏差)の有限サンプル分解を開発して、5つの解釈可能なエラー原因を特定し、間隔を減らすことができる介入を明確にします。これは、補正だけではランク誤差を修正できない理由を説明し、不確実性順序を改善する方法を導く。最後に,不確実性信号を敵対的に操作し,高精度を維持しながらエラーを隠したり,サービスを拒否したりすることができ、修正監査と検証可能な推論を組み合わせた防御機構を設計する.この貢献は、不確実性推定を改善、評価、保護することによって信頼できるMLを発展させ、正確な予測をするだけでなく、「わからない」と言うときを知るモデルを可能にします。