[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Los humanos aprenden a preferir una IA confiable a sus socios humanos

Created by
  • Haebom

Autor

Yaomin Jiang, Levin Brinkmann, Anne-Marie Nussberger, Ivan Soraperra, Jean-Fran\c{c}ois Bonnefon, Iyad Rahwan

Describir

Este artículo presenta los resultados de un estudio sobre estrategias de selección de pareja humana y presiones competitivas inducidas por IA en una situación en la que agentes artificiales basados en modelos de lenguaje a gran escala (LLM) compiten con humanos como socios cooperativos. Llevamos a cabo tres experimentos (N=975) utilizando un juego de selección de pareja basado en la comunicación que simulaba una sociedad mixta formada por humanos y bots basados en LLM. Los resultados muestran que los bots son más prosociales y lingüísticamente distinguibles que los humanos, pero no son seleccionados preferentemente cuando sus identidades están ocultas. Los humanos tienden a malinterpretar el comportamiento de los bots como comportamiento humano, y viceversa. Cuando se revelaron las identidades de los bots, la probabilidad de selección inicial de los bots disminuyó, pero obtuvieron una ventaja competitiva sobre los humanos con el tiempo al permitir que los humanos aprendieran sobre los comportamientos de cada tipo de socio. En conclusión, la IA puede reorganizar las interacciones sociales en sociedades mixtas y proporcionar Takeaways para un diseño de sistemas mixtos más efectivo y cooperativo.

Takeaways, Limitations

Takeaways:
Los agentes de IA demuestran competitividad en las relaciones de colaboración con los humanos.
Los humanos tienden a confundir el comportamiento de la IA con el comportamiento humano cuando no son conscientes de la identidad de la IA.
Aunque revelar la identidad de la IA puede ser desventajoso al principio, puede aumentar su competitividad a través del aprendizaje humano a largo plazo.
Proporciona información importante Takeaways para el diseño de sistemas colaborativos entre IA y humanos.
Limitations:
El entorno experimental está limitado a un entorno de juego específico, lo que puede limitar la generalización a situaciones sociales del mundo real.
Las características del LLM utilizado podrían haber influido en los resultados. Se requieren más investigaciones con otros LLM.
La generalización puede ser limitada porque no se tiene en cuenta la diversidad de los participantes humanos.
Falta de consideración por la interacción a largo plazo y el desarrollo de relaciones.
👍