Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

¿Cómo puedo publicar mis puntos de referencia de LLM sin revelar las verdaderas respuestas?

Created by
  • Haebom

Autor

Takashi Ishida, Thanawat Lodkaew, Ikko Yamane

Describir

Este documento plantea el riesgo de que los puntos de referencia de modelos de lenguaje a gran escala (LLM) disponibles públicamente podrían usarse involuntariamente (o intencionalmente) en futuros entrenamientos o selecciones de LLM, lo que podría conducir a la contaminación del modelo. Las soluciones existentes, como el secreto de los puntos de referencia y el envío de modelos/predicciones por parte de los participantes, se basan en la confianza en una institución específica y dejan abierta la posibilidad de sobreajuste mediante consultas repetidas. Este documento propone un método para divulgar públicamente los puntos de referencia, lo que permite la evaluación pública de los LLM sin revelar las respuestas completas. La idea central es inyectar aleatoriedad en las respuestas proporcionando múltiples respuestas lógicamente correctas e incluyendo solo una de ellas como la respuesta correcta. Este enfoque reduce la precisión bayesiana del punto de referencia, protegiendo la respuesta correcta y proporcionando una prueba para detectar la contaminación de los datos. Dado que incluso los modelos perfectos no pueden superar la precisión bayesiana, superarla es un fuerte indicador de contaminación de datos. Los resultados experimentales demuestran que este método puede detectar con precisión la contaminación de datos en una variedad de puntos de referencia, modelos y métodos de aprendizaje.

Takeaways, Limitations

Takeaways:
Una solución eficaz al problema de contaminación de modelos causado por la divulgación de puntos de referencia LLM en Internet.
Se propone un nuevo método para evaluar públicamente los LLM sin revelar completamente las respuestas de referencia.
Se presenta una técnica de detección de contaminación de datos utilizando precisión bayesiana.
Validación del rendimiento de detección de contaminación de datos en varios puntos de referencia, modelos y métodos de aprendizaje.
Limitations:
La eficacia del método propuesto puede variar según el diseño de referencia y la diversidad de respuestas.
No todos los casos que superan la precisión bayesiana pueden atribuirse a la contaminación de datos. Otras causas también podrían contribuir.
Los resultados experimentales pueden estar limitados a conjuntos de datos y modelos específicos, y se necesita más investigación para determinar su generalización.
👍