Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Hacking de modelos de lenguaje de gran tamaño: cuantificación de los riesgos ocultos del uso de LLM para la anotación de texto

Created by
  • Haebom

Autor

Joachim Baumann, Paul R ottger, Aleksandra Urman, Albert Wendsj o, Flor Miriam Plaza-del-Arco, Johannes B. Gruber, Dirk Hovy

Describir

Si bien los modelos lingüísticos a gran escala (LLM) permiten la automatización de la investigación en ciencias sociales, sus resultados pueden variar significativamente según las decisiones del investigador (p. ej., selección del modelo, estrategia de indicaciones). Esta variabilidad puede influir en los análisis al introducir sesgos sistemáticos y errores aleatorios, lo que lleva a errores de tipo I, II, S y M. Este fenómeno se conoce como piratería de LLM. La piratería intencional de LLM es simple, y la replicación de 37 tareas de anotación de datos demuestra que simplemente modificar las indicaciones puede producir resultados estadísticamente significativos. Además, un análisis de 13 millones de etiquetas de 18 LLM en 2361 hipótesis realistas reveló un alto riesgo de piratería inadvertida de LLM, incluso cuando se siguen métodos de investigación estándar. Los LLM de vanguardia arrojaron conclusiones incorrectas en aproximadamente el 31 % de las hipótesis, mientras que los modelos lingüísticos a pequeña escala arrojaron conclusiones incorrectas en la mitad de las hipótesis. El riesgo de piratería de LLM disminuyó a medida que aumentó el tamaño del efecto, lo que demuestra el papel fundamental de la anotación humana en la prevención de falsos positivos. Se presentan recomendaciones prácticas para prevenir la piratería informática en los cursos LLM.

Takeaways, Limitations

Takeaways:
Si bien el uso de un LLM puede acelerar la investigación en ciencias sociales, los resultados pueden variar significativamente dependiendo de las elecciones del investigador.
Pueden ocurrir errores accidentales incluso cuando se siguen métodos de investigación estándar, así como manipulaciones intencionales.
Aunque el rendimiento del LLM ha mejorado, el riesgo de piratería no ha desaparecido por completo.
Los tamaños de efectos más pequeños son más susceptibles a la piratería LLM, y los resultados basados ​​en LLM deben validarse rigurosamente cerca del umbral de significancia.
La anotación humana es eficaz para prevenir falsos positivos, y las técnicas de calibración del estimador de regresión introducen compensaciones entre los tipos de error.
Se necesitan recomendaciones prácticas para prevenir la piratería de LLM.
Limitations:
No se proporcionan detalles sobre técnicas específicas de prevención de piratería de LLM.
Falta de análisis cuantitativo de la efectividad de las técnicas de mitigación propuestas.
El estudio puede limitarse a un campo específico de las ciencias sociales, y se necesita más investigación para determinar su generalización a otros campos.
👍