Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Sesgo humano ante la IA: análisis del juicio humano frente a textos etiquetados como generados por IA

Created by
  • Haebom

Autor

Tiffany Zhu, Iain Weissburg, Kexun Zhang, William Yang Wang

Describir

Este artículo explora si la confianza humana en el texto generado por IA se ve limitada por sesgos que van más allá de la precisión. Examinamos cómo reaccionan los evaluadores humanos al contenido etiquetado y no etiquetado en tres experimentos: edición de texto, resúmenes de artículos periodísticos y escritura persuasiva. Si bien las pruebas a ciegas no lograron distinguir entre ambos tipos de texto, observamos que los evaluadores humanos prefirieron el contenido etiquetado como "generado por humanos" al "generado por IA" en más de un 30 %. Se observó el mismo patrón cuando las etiquetas se modificaron intencionalmente. Este sesgo humano en la IA tiene implicaciones sociales y cognitivas más amplias, incluyendo la subestimación del rendimiento de la IA. Este estudio destaca las limitaciones del juicio humano al interactuar con la IA y sienta las bases para mejorar la colaboración entre humanos e IA, especialmente en el ámbito creativo.

Takeaways, Limitations

Takeaways: Este estudio demuestra la existencia de sesgo humano en el contenido generado por IA, el cual se ve más influenciado por las etiquetas que por el rendimiento real de la IA. Esto resalta la necesidad de investigación para mejorar la colaboración entre humanos e IA. También sugiere un cambio en la percepción social sobre el rol y el uso de la IA, particularmente en el ámbito creativo.
Limitations: El análisis de las diferencias en el sesgo según las características de los participantes (edad, ocupación, conocimientos previos de IA, etc.) es insuficiente. Se necesita más investigación, utilizando una gama más amplia de contenido generado por IA y una gama más amplia de métodos de evaluación. Solo abordamos el sesgo debido a las etiquetas, y es posible que no se haya considerado plenamente el impacto de las diferencias cualitativas del propio contenido en los resultados de la evaluación.
👍