本論文は、非常に限られたトレーニングデータのために困難に遭遇する少数ショットクラス増分学習(FSCIL)問題を解決するために、事前トレーニング済みのテキスト画像拡散モデルを固定バックボーンとして使用するDiffusion-FSCIL方法を提案します。大規模な事前トレーニングで得られた生成能力、マルチスケール表現、テキストエンコーダによる表現の柔軟性など、大規模生成モデルの利点を活用してFSCIL問題を解決したいと思います。いくつかの補完的な拡散特徴を抽出して潜在的な再生として機能し、生成偏向を防ぐために特徴蒸留を少し活用します。固定バックボーンの使用、最小限のトレーニング可能なコンポーネント、複数の特徴抽出のバッチ処理により効率を達成します。 CUB-200、miniImageNet、およびCIFAR-100データセットでの実験の結果、Diffusion-FSCILは従来の最高のパフォーマンス方法を上回り、以前に学習したクラスのパフォーマンスを維持しながら、新しいクラスにも効果的に適応することを示しています。