Pour surmonter les limites de l'apprentissage des déclencheurs contradictoires (ATLA) actuel, cet article propose l'apprentissage des déclencheurs contradictoires avec objectifs augmentés (ATLA). ATLA améliore la fonction de perte de vraisemblance logarithmique négative existante en une fonction de perte pondérée, garantissant ainsi une meilleure optimisation des déclencheurs contradictoires appris pour les jetons de type réponse. Cela permet d'apprendre les déclencheurs contradictoires avec une seule paire question-réponse, garantissant une bonne généralisation à d'autres requêtes similaires. De plus, l'optimisation des déclencheurs est améliorée par l'ajout d'une fonction de perte auxiliaire qui supprime les réponses évasives. Les résultats expérimentaux démontrent qu'ATLA surpasse les techniques de pointe existantes, atteignant un taux de réussite proche de 100 % tout en nécessitant 80 % de requêtes en moins. Les déclencheurs contradictoires appris se généralisent également bien aux nouvelles requêtes et LLM. Le code source est accessible au public.