Dans cet article, nous présentons Odyssey, un jeu d'aventure textuel adaptatif léger visant à promouvoir un comportement éthique dans les modèles d'IA. Odyssey explore les implications éthiques en implémentant des motivations biologiques telles que l'instinct de survie dans trois agents différents : un agent bayésien optimisé par NEAT, un agent bayésien optimisé par inférence variationnelle probabiliste et un agent GPT-4o. Chaque agent choisit des actions pour survivre et s'adapte à des scénarios de plus en plus difficiles. Une analyse post-simulation évalue le score éthique de l'agent afin de révéler les compromis nécessaires à sa survie. Notre analyse montre qu'à mesure que le risque augmente, le comportement éthique de l'agent devient plus imprévisible. Étonnamment, l'agent GPT-4o surpasse le modèle bayésien en termes de survie et de cohérence éthique, ce qui remet en question les hypothèses sur les méthodes probabilistes existantes et soulève de nouveaux défis pour la compréhension du mécanisme d'inférence probabiliste de LLM.