本論文では、ブラックボックス制約の下で開かれたエンドツーエンド言語生成に関する不確実性定量化(UQ)問題を解決するために、トークンエントロピーを活用した新しいフレームワークであるトークンエントロピーコンフォーマルプレディクション(TECP)を提案します。 TECPは、ロジットや参照なしでトークンレベルのエントロピーを不確実性尺度として使用し、分離された準拠予測(CP)パイプラインに統合して、正式なカバレッジ保証を持つ予測セットを構築します。従来のセマンティックコヒーレンスヒューリスティックまたはホワイトボックスの特徴に依存する方法とは異なり、TECPはサンプリングされた製品のトークンエントロピー構造から直接認識論的不確実性を推定し、CP分位を介して不確実性しきい値を補正して検証可能なエラー制御を保証します。 6つの大規模言語モデルと2つのベンチマーク(CoQAとTriviaQA)の実験的評価は、TECPが一貫して信頼できる適用範囲とコンパクトな予測セットを達成し、以前の自己一貫性ベースのUQ方法を上回ることを示しています。この研究は、ブラックボックスLLM設定で信頼できる生成のための原則的かつ効率的な解決策を提供します。