Alors que les modèles de langage à grande échelle (MLH) sont de plus en plus déployés dans des rôles décisionnels autonomes dans des domaines à enjeux élevés, cet article examine si les modèles entraînés sur des données générées par l'homme peuvent hériter de biais cognitifs (par exemple, le surinvestissement) qui faussent systématiquement le jugement humain. L'étude a examiné l'expression des biais LLM dans quatre conditions expérimentales : modèle investisseur, modèle conseiller, consultation multi-agents et scénarios de pression mixte utilisant une tâche d'investissement. Les résultats de 6 500 essais ont révélé que les biais LLM étaient fortement dépendants du contexte. Alors que les contextes de décision individuels présentaient une logique rationnelle coûts-avantages, les consultations multi-agents présentaient des effets hiérarchiques importants. Plus précisément, la prise de décision symétrique par les pairs a entraîné un surinvestissement dans presque tous les cas. De même, les taux de surinvestissement étaient élevés sous pression organisationnelle et individuelle. Ces résultats démontrent que les biais LLM ne sont pas inhérents, mais dépendent fortement du contexte social et organisationnel, fournissant des informations importantes pour le déploiement de systèmes multi-agents et d'opérations non supervisées où de telles conditions peuvent naturellement se produire.