Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Cómo salir del atolladero: aumento del compromiso en los LLM

Created by
  • Haebom

Autor

Emilio Barkett, Olivia Long, Paul Kroger

Describir

Dado que los modelos lingüísticos a gran escala (LLM) se utilizan cada vez más en roles de toma de decisiones autónoma en ámbitos de alto riesgo, este artículo investiga si los modelos entrenados con datos generados por humanos pueden heredar sesgos cognitivos (p. ej., sobreinversión) que distorsionan sistemáticamente el juicio humano. El estudio examinó el sesgo de los LLM en cuatro condiciones experimentales (modelo inversor, modelo asesor, consulta multiagente y escenarios de presión mixta) mediante una tarea de inversión. Los resultados de 6500 ensayos revelaron que el sesgo de los LLM dependía en gran medida del contexto. Mientras que los contextos de decisión individuales mostraron una lógica racional de coste-beneficio, las consultas multiagente mostraron un pronunciado efecto jerárquico. En concreto, la toma de decisiones simétrica entre pares resultó en sobreinversión en casi todos los casos. De igual forma, se observaron altas tasas de sobreinversión bajo presiones organizacionales e individuales. Estos resultados demuestran que el sesgo de los LLM no es inherente, sino que depende en gran medida del contexto social y organizacional, lo que proporciona información importante para la implementación de sistemas multiagente y operaciones no supervisadas donde dichas condiciones pueden darse de forma natural.

Takeaways, Limitations

Takeaways:
La manifestación del sesgo cognitivo (sobreinversión) en el LLM depende en gran medida del contexto social y organizacional más que de las propiedades del modelo en sí.
Se debe considerar la posibilidad de que surjan sesgos en los LLM en sistemas multiagente y entornos operativos no supervisados.
Al aplicar la maestría en derecho a la toma de decisiones de alto riesgo, es esencial un diseño y una gestión que consideren factores contextuales.
Es necesaria una comprensión más profunda de cómo los factores sociales, como la jerarquía y las presiones, influyen en la toma de decisiones en materia de LLM.
Limitations:
Es posible que los entornos experimentales no reflejen plenamente las complejidades del mundo real.
Esto puede estar limitado a ciertos tipos de LLM y ciertos tipos de asignaciones.
Se necesitan más investigaciones en contextos sociales y organizacionales más diversos.
Hay una falta de metodologías específicas para mitigar el sesgo en el LLM.
👍