本稿では、大規模言語モデル(LLM)が事実上不正確な回答を生成する問題を解決するために、トークン生成と同時に検証および修正する新しいアプローチであるStreaming-VRを提案します。既存の方法がLLMの完全な応答を生成した後にエラーを識別して修正するのとは異なり、Streaming-VRはトークンが生成されるとすぐにリアルタイムで検証および修正し、効率を向上させます。複数のデータセットの評価は、Streaming-VRがLLMのファクト精度を向上させ、従来の方法よりも効率的なソリューションであることを示しています。