Cet article étudie la manière dont les modèles linguistiques à grande échelle (MLA) gèrent les compromis de valeur entre des objectifs contradictoires (par exemple, transmettre la vérité pure et dure, maintenir la confiance et prendre en compte les sentiments de l'autre partie) dans des situations sociales quotidiennes. À l'aide du « modèle cognitif » des sciences cognitives, nous évaluons dans quelle mesure les MLA présentent des compromis de valeur similaires à ceux observés chez l'humain. Nous évaluons systématiquement ces compromis de valeur dans deux contextes : le niveau d'« effort » d'inférence d'un modèle boîte noire de pointe et la dynamique post-apprentissage par renforcement d'un modèle open source. Par conséquent, l'utilité informationnelle est supérieure à l'utilité sociale dans le modèle d'inférence, et cette tendance est également confirmée dans le modèle open source, qui présente une meilleure capacité de raisonnement mathématique. L'analyse de la dynamique d'apprentissage des MLA révèle d'importantes variations des valeurs d'utilité au début de la phase d'apprentissage, ainsi que des effets persistants du modèle de base et de la sélection des données avant l'apprentissage. Cette étude reflète le développement des LLM sous divers aspects et fournit des informations sur l’hypothèse d’autres comportements de haut niveau, la conception de schémas de formation de modèles d’inférence et l’amélioration du contrôle des compromis de valeur pendant la formation des modèles.