[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Perdu dans la transmission : quand et pourquoi les LLM échouent à raisonner à l'échelle mondiale

Created by
  • Haebom

Auteur

Tobias Schnabel, Kiran Tomlinson, Adith Swaminathan, Jennifer Neville

Contour

Cet article explique pourquoi les modèles de langage à grande échelle (LLM) basés sur Transformer rencontrent des difficultés avec les tâches nécessitant une inférence complexe sur une grande partie de l'entrée, en raison de leur capacité limitée de transfert d'attention. À cette fin, nous présentons le modèle BAPO (Bounded Attention Prefix Oracle), un nouveau cadre de calcul qui modélise les contraintes de bande passante de la tête d'attention, le mécanisme de communication interne des LLM. Nous montrons que d'importants problèmes d'inférence, tels que l'accessibilité des graphes, nécessitent une bande passante de communication élevée pour résoudre les BAPO, et nous définissons ces problèmes comme des problèmes BAPO-difficiles. Des expériences corroborent nos prédictions théoriques en montrant que GPT-4o, Claude et Gemini réussissent sur des tâches BAPO-faciles, mais échouent sur des tâches BAPO-difficiles relativement petites. Nous démontrons également que la décomposition de tâches à l'aide du CoT (CoT) peut transformer n'importe quel problème BAPO-difficile en un problème BAPO-facile, révélant un autre avantage du CoT. En conclusion, cet article fournit une explication raisonnée des principaux échecs des LLM et suggère des orientations pour les architectures et les méthodes d'inférence qui atténuent les contraintes de bande passante.

Takeaways, Limitations

Takeaways:
Nous présentons un nouveau cadre théorique (BAPO) qui explique la cause du déclin de la capacité d'inférence du LLM en raison de la bande passante limitée du mécanisme d'attention.
Nous analysons systématiquement les limitations de performance de LLM en distinguant les problèmes BAPO-difficiles et BAPO-faciles.
L'effet de la chaîne de pensée (CoT) est expliqué théoriquement par le modèle BAPO.
Présentation de nouvelles orientations pour améliorer l'architecture LLM et les méthodes d'inférence.
Limitations:
Le modèle BAPO est un modèle simplifié et peut ne pas refléter entièrement la complexité d’un véritable LLM.
L'expérience était limitée à un LLM spécifique et à un type de problème spécifique, nécessitant des recherches supplémentaires sur la généralisabilité.
Il existe un manque d'architectures spécifiques ou de méthodes de raisonnement pour résoudre les problèmes BAPO-difficiles.
👍