本論文では、マルチモーダル大規模言語モデル(MLLM)の推論能力を向上させるための新しいフレームワークであるREFINE(Retrieval-Enhanced Feedback via In-context Neural Error-book)を提案します。 REFINEはエラーからの学習を強調し、「Feed-Target」、「Feed-Check」、「Feed-Path」の3つの体系的なクエリを通じて構造化されたフィードバックを提供し、視覚情報の優先順位付け、失敗原因診断、修正措置の確立を行います。従来の冗長検索に依存するアプローチとは異なり、REFINEは構造化フィードバック検索を最適化し、推論効率、トークン使用率、およびスケーラビリティを向上させます。実験の結果、REFINEはスピードアップ、計算コストの削減、正常な一般化を示した。