Dado que los modelos lingüísticos a gran escala (LLM) se utilizan cada vez más en roles de toma de decisiones autónoma en ámbitos de alto riesgo, este artículo investiga si los modelos entrenados con datos generados por humanos pueden heredar sesgos cognitivos (p. ej., sobreinversión) que distorsionan sistemáticamente el juicio humano. El estudio examinó el sesgo de los LLM en cuatro condiciones experimentales (modelo inversor, modelo asesor, consulta multiagente y escenarios de presión mixta) mediante una tarea de inversión. Los resultados de 6500 ensayos revelaron que el sesgo de los LLM dependía en gran medida del contexto. Mientras que los contextos de decisión individuales mostraron una lógica racional de coste-beneficio, las consultas multiagente mostraron un pronunciado efecto jerárquico. En concreto, la toma de decisiones simétrica entre pares resultó en sobreinversión en casi todos los casos. De igual forma, se observaron altas tasas de sobreinversión bajo presiones organizacionales e individuales. Estos resultados demuestran que el sesgo de los LLM no es inherente, sino que depende en gran medida del contexto social y organizacional, lo que proporciona información importante para la implementación de sistemas multiagente y operaciones no supervisadas donde dichas condiciones pueden darse de forma natural.