この論文は、コンテンツ調整における注釈の不一致を利用する新しいフレームワークを提示します。従来のコンテンツ調整システムは、人間のモデレータと機械学習モデルを組み合わせていますが、注釈の不一致をノイズと見なす傾向があります。本論文では,これらの不一致をコンテンツのあいまいさを示す貴重なシグナルとして解釈し,マルチタスク学習を通じて毒性分類と注釈不一致を同時に学習するアプローチを提示した。特に、Conformal Predictionを活用して、コメントのあいまいさとモデルの不確実性を考慮し、モデレータがコメントの不一致のしきい値を調整できるように柔軟性を提供します。実験の結果、提示されたフレームワークは、単一の作業方法と比較してモデルのパフォーマンス、補正、不確実性の推定を向上させ、パラメータの効率を高め、レビュープロセスを改善することを示しました。