Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Racionalización cooperativa adversarial: el riesgo de correlaciones espurias incluso en conjuntos de datos limpios

Created by
  • Haebom

Autor

Wei Liu, Zhongyu Niu, Lang Gao, Zhiying Deng, Jun Wang, Haozhao Wang, Ruixuan Li

Describir

Este estudio investiga un marco de autorracionalización que consiste en un juego cooperativo entre un generador y un predictor. El generador extrae las partes más informativas de la entrada bruta, y el predictor utiliza el subconjunto seleccionado como entrada. El generador y el predictor se entrenan cooperativamente para maximizar la precisión de la predicción. Este artículo revela, en primer lugar, un problema potencial: el juego cooperativo puede introducir involuntariamente un sesgo de muestreo durante la extracción de la racionalización. Específicamente, el generador puede generar involuntariamente correlaciones falsas entre los candidatos de racionalización seleccionados y las etiquetas, incluso si no están semánticamente relacionados en el conjunto de datos original. A continuación, explicamos el origen de este sesgo mediante un análisis teórico detallado y evidencia empírica. Nuestros resultados sugieren maneras de examinar estas correlaciones mediante ataques y, con base en estos hallazgos, proporcionamos orientación adicional para evitar que el predictor aprenda correlaciones. Los experimentos en seis conjuntos de datos de clasificación de texto y dos conjuntos de datos de clasificación de gráficos utilizando tres arquitecturas de red (GRU, BERT y GCN) demuestran que el método propuesto supera significativamente a los métodos de racionalización recientes y logra resultados comparables o mejores que el LLM representativo (llama3.1-8b-instruct).

Takeaways, Limitations

Takeaways: Este artículo contribuye a mejorar la fiabilidad y el rendimiento de los modelos de autorracionalización mediante la identificación de posibles sesgos de muestreo en marcos de autorracionalización colaborativa y la sugerencia de soluciones eficaces para abordarlos. El método propuesto demuestra un rendimiento superior al de los métodos existentes y los modelos de LLM representativos.
Limitations: Se requiere mayor investigación para evaluar el rendimiento de generalización del método propuesto. Se requieren experimentos exhaustivos con diversos conjuntos de datos y arquitecturas. Se requiere un análisis teórico más profundo para abordar los problemas de sesgo de muestreo.
👍