Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Los humanos perciben narrativas erróneas a partir de textos de razonamiento de IA

Created by
  • Haebom

Autor

Mosh Levy, Zohar Elyoseph, Yoav Goldberg

Describir

Los nuevos modelos de IA generan un texto de inferencia paso a paso antes de generar una respuesta. Este texto parece revelar el proceso computacional del modelo y se utiliza cada vez más para lograr transparencia e interpretabilidad. Sin embargo, no está claro si la forma en que los humanos interpretan este texto coincide con el proceso computacional real del modelo. Este artículo investiga una condición necesaria para esta respuesta: la capacidad de los humanos para discernir qué pasos del texto de inferencia influyen causalmente en los pasos posteriores. Evaluamos el desempeño humano formulando preguntas basadas en medidas contrafácticas y encontramos diferencias significativas. La precisión de los participantes fue de tan solo el 29 %, ligeramente superior a la del azar (25 %), e incluso al evaluar los votos mayoritarios en preguntas con alto consenso, la precisión fue de tan solo el 42 %. Estos resultados revelan una diferencia fundamental entre cómo los humanos interpretan el texto de inferencia y cómo lo utilizan los modelos, lo que plantea dudas sobre su utilidad como herramienta de interpretación simple. Argumentamos que el texto de inferencia no debe darse por sentado, sino tratarse como un artefacto digno de investigación, y que comprender las formas inhumanas en que estos modelos utilizan el lenguaje es una línea de investigación crucial.

Takeaways, Limitations

Takeaways: Hemos revelado discrepancias significativas entre la interpretación humana del texto inferido y los procesos computacionales reales de los modelos de IA. Esto sugiere que comprender el texto inferido requiere una comprensión más profunda de cómo el modelo usa el lenguaje, más allá de la simple interpretación del texto inferido. El texto inferido no es un indicador preciso de los procesos internos del modelo, por lo que es necesario desarrollar nuevas metodologías de interpretación.
Limitations: El estudio se limitó a un tipo específico de modelo de IA y texto de inferencia, y la generalización a otros tipos de modelos o textos es limitada. Los resultados podrían verse influenciados por el tamaño de la muestra de participantes y la estructura de las preguntas. Es difícil descartar por completo las limitaciones inherentes a la capacidad de razonamiento humano.
👍