Cet article utilise des données historiques sur le décompte des médailles olympiques pour explorer la structure des connaissances internes d'un modèle linguistique à grande échelle (MLL). Nous évaluons les performances du LLM sur deux tâches : la récupération du nombre de médailles d'un pays donné et la détermination du classement de chaque pays. Nous constatons que si les LLM les plus performants excellent dans la récupération des médailles, ils peinent à établir des classements. Ce résultat met en évidence l'écart entre l'organisation des connaissances du LLM et le raisonnement humain, soulignant ainsi les limites de son intégration interne. Afin de faciliter la recherche, nous avons rendu le code, l'ensemble de données et les résultats du modèle accessibles au public.