Cet article présente SEAT, une nouvelle méthode permettant de résoudre le problème d'oubli fatal qui survient lors du réglage fin des modèles linguistiques à grande échelle (MLH). Contrairement aux études précédentes axées sur le maintien des performances sur les données existantes, cet article se concentre sur la perte de capacités essentielles acquises lors de l'alignement, notamment la capacité à représenter avec précision l'incertitude du modèle (conscience de l'ignorance). Les auteurs formalisent le concept de conscience de l'ignorance et montrent que les méthodes de réglage fin existantes peuvent altérer cette conscience en induisant une dérive d'activation, conduisant à des comportements indésirables tels que des hallucinations. SEAT intègre un réglage parcimonieux, qui limite la dérive d'activation, et une nouvelle méthode de perturbation d'entités pour résoudre l'intrication des connaissances, permettant ainsi d'acquérir efficacement de nouvelles connaissances tout en maintenant une conscience de l'ignorance alignée. Les résultats expérimentaux montrent que SEAT surpasse les méthodes existantes en termes de rétention de la conscience de l'ignorance et de performances de réglage fin sur des jeux de données réels et synthétiques.