[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Stations d'hallucinations : sur certaines limites fondamentales des modèles de langage basés sur les transformateurs

Created by
  • Haebom

Auteur

Varin Sikka, Vishal Sikka

Contour

Cet article explore les hallucinations et les limitations de performance associées qui surviennent dans les modèles de langage à grande échelle (MLH) et les agents basés sur ces derniers, du point de vue de la complexité computationnelle. Nous montrons qu'au-delà d'une certaine complexité, les LMH ne peuvent pas effectuer de tâches de calcul et d'agent, ni vérifier leur exactitude.

Takeaways, Limitations

Takeaways: Cela suggère que la puissance de calcul du LLM est limitée et qu'il peut éprouver des difficultés à réaliser des tâches complexes et à vérifier l'exactitude. Cela souligne la nécessité de concevoir et d'utiliser le LLM en tenant compte de la complexité.
Limitations: Les critères de complexité spécifique ne sont pas clairement présentés. Des recherches supplémentaires sont nécessaires sur la généralisabilité à différents types de tâches et d'agents. Une analyse plus détaillée du phénomène d'hallucination dans le LLM est nécessaire.
👍