[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Le style avant le fond : les modèles de langage distillés raisonnent via la réplication stylistique

Created by
  • Haebom

Auteur

Philip Lippmann, Jie Yang

Contour

Dans cet article, nous étudions dans quelle mesure le modèle distillé apprend les schémas stylistiques superficiels (schémas structurels et lexicaux) qui apparaissent dans le processus de raisonnement du modèle original lors de la distillation des connaissances afin d'améliorer la capacité de raisonnement d'un modèle de langage à grande échelle (MLL). À cette fin, nous analysons les schémas structurels et lexicaux des processus de raisonnement réussis et présentons deux nouveaux jeux de données de traces de raisonnement (traces de raisonnement émergentes et un jeu de données synthétiques reproduisant artificiellement les schémas stylistiques) afin d'analyser précisément leurs effets sur la capacité de raisonnement du modèle distillé. Les résultats expérimentaux montrent que les modèles entraînés sur les jeux de données synthétiques atteignent des performances similaires, ce qui montre que la capacité de raisonnement distillé repose fortement sur les schémas stylistiques superficiels. Étonnamment, nous observons que les performances sont améliorées même lorsque les traces synthétiques sont modifiées pour conduire à des réponses incorrectes. Cela suggère que les schémas stylistiques peuvent être utilisés pour améliorer efficacement la capacité de raisonnement des LLM dans divers modèles.

Takeaways, Limitations

Takeaways:
Nous révélons l’importance des modèles de style superficiels dans le processus de distillation des connaissances pour améliorer la capacité de raisonnement LLM.
Suggérer la possibilité d'améliorer efficacement la capacité d'inférence du LLM en utilisant des modèles de style.
Présentation d'une technique permettant d'améliorer la capacité d'inférence applicable à différentes familles de modèles.
Limitations:
Limites des ensembles de données synthétiques : ils peuvent ne pas refléter pleinement la complexité des processus d’inférence du monde réel.
Généralisabilité des modèles de style : probabilité qu'ils soient limités à un modèle ou à un ensemble de données particulier.
Une analyse plus approfondie est nécessaire pour déterminer la cause des améliorations de performances dans les traces synthétiques qui conduisent à des réponses incorrectes.
👍