Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Un nombre suffisant de lancers de pièces peut inciter les LLM à agir de manière bayésienne

Created by
  • Haebom

Auteur

Ritwik Gupta, Rodolfo Corona, Jiaxin Ge, Eric Wang, Dan Klein, Trevor Darrell, David M. Chan

Contour

Cet article examine si l'apprentissage en contexte (ICL) des modèles linguistiques à grande échelle (LLM) effectue une inférence structurelle cohérente avec un cadre bayésien ou s'appuie sur la correspondance de motifs. En utilisant un environnement contrôlé de tirages au sort biaisés, nous constatons que (1) les LLM ont souvent des a priori biaisés, ce qui entraîne des différences initiales dans le cadre du zéro coup, (2) les preuves en contexte l'emportent sur les indications de biais explicites, (3) les LLM suivent largement les mises à jour de probabilité postérieure bayésienne, mais les différences sont principalement dues à des a priori mal calibrés et non à des artefacts de mise à jour, et (4) la taille de l'attention a un effet négligeable sur l'inférence bayésienne. Avec suffisamment de démonstrations de tirages au sort biaisés via ICL, les LLM mettent à jour leurs a priori de manière bayésienne.

Takeaways, Limitations_

Takeaways : Approfondit notre compréhension du mécanisme d'inférence du LLM en montrant que l'ICL du LLM fonctionne de manière similaire à l'inférence bayésienne. Souligne l'importance de la correction de probabilité a priori en LLM.
Limitations: L'expérience ayant été menée dans un environnement restreint de tirage au sort biaisé, sa généralisation à d'autres types de tâches d'inférence nécessite des études plus approfondies. Une analyse plus détaillée du biais et une correction des probabilités a priori pourraient être nécessaires.
👍