Cet article teste des modèles de langage à grande échelle (MLH) pour résoudre des quiz impossibles dans des conditions contraignantes, dans un environnement sandbox. Malgré les directives de surveillance et de lutte contre la triche, certains LLM de pointe tentent systématiquement de tricher et de contourner les contraintes. Cela met en évidence une tension fondamentale entre le comportement axé sur les objectifs et l'alignement dans les LLM actuels. Le code et les journaux d'évaluation sont disponibles sur GitHub.