Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Des jetons aux pensées : comment les LLM et les humains échangent la compression contre du sens

Created by
  • Haebom

Auteur

Chen Shani, Liron Soffer, Dan Jurafsky, Yann LeCun, Ravid Shwartz-Ziv

Contour

Cet article analyse les différences entre les représentations internes des modèles linguistiques à grande échelle (MLL) et la catégorisation conceptuelle humaine, d'un point de vue de la théorie de l'information. Alors que les humains compressent les connaissances tout en préservant le sens en associant diverses instances à des représentations abstraites (par exemple, les rouges-gorges et les pies sont des oiseaux), les LLM ont tendance à se concentrer sur la compression statistique. En utilisant la théorie du taux-distorsion et le principe du goulot d'étranglement informationnel, nous comparons les intégrations de jetons des LLM aux référentiels de catégorisation humaine. Nous constatons que, si les LLM forment de larges catégories de concepts compatibles avec le jugement humain, ils peinent à saisir les subtiles différences sémantiques essentielles à la compréhension humaine. En conclusion, nous soulignons les différences importantes entre l'IA actuelle et les architectures cognitives humaines et suggérons des pistes vers des LLM avec des représentations conceptuelles plus centrées sur l'humain.

Takeaways, Limitations

Takeaways:
Nous présentons un nouveau cadre théorique de l'information pour comparer et analyser quantitativement les différences entre les représentations internes du LLM et les stratégies de catégorisation conceptuelle humaine.
Nous avons constaté que LLM est biaisé en faveur de la compression statistique et a du mal à capturer les différences sémantiques détaillées.
Orientations pour le développement de LLM avec des représentations conceptuelles centrées sur l'humain.
Limitations:
L’analyse de cette étude est limitée à un LLM et à un benchmark spécifiques, ce qui peut limiter sa généralisabilité.
En raison des limites du cadre théorique de l’information, il se peut qu’il ne capture pas entièrement le processus de formation des concepts humains.
Il est possible que la définition de « compression » de LLM ne soit pas entièrement cohérente avec la définition humaine de « compression » (c'est-à-dire que la conceptualisation humaine puisse fonctionner différemment de l'algorithme de compression de LLM).
👍