[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Affiner un SLM ou susciter un LLM ? Le cas de la génération de workflows low-code.

Created by
  • Haebom

Auteur

Orlando Marquez Ayala, Patrice Béchard, Emily Chen, Maggie Baird, Jingfei Chen

Contour

Dans cet article, nous démontrons que les SLM conservent un avantage qualitatif pour certaines tâches nécessitant une sortie structurée, malgré l'émergence de modèles de langage à grande échelle (LLM) tels que GPT-4, qui rend moins évidents les avantages (inférence plus rapide, coût réduit) du réglage fin des modèles de langage à petite échelle (SLM) pour les applications concrètes. En comparant le réglage fin des SLM à l'invite LLM sur une tâche de génération de workflow JSON low-code, nous constatons qu'une bonne invite peut produire des résultats raisonnables, mais que le réglage fin n'améliore la qualité que de 10 % en moyenne. De plus, nous révélons les limites du modèle grâce à une analyse systématique des erreurs.

Takeaways, Limitations

Takeaways: Nous démontrons expérimentalement que le réglage fin SLM produit des résultats de meilleure qualité que l'invite LLM pour des tâches spécifiques nécessitant une sortie structurée. Malgré le coût réduit des jetons, nous confirmons l'intérêt pratique du réglage fin SLM.
Limitations : Cette étude se limite à un domaine spécifique (génération de workflows low-code) et à une tâche spécifique (sortie au format JSON). Sa généralisation à d'autres domaines ou tâches nécessite des recherches plus approfondies. L'analyse systématique des erreurs a révélé les limites du modèle, mais n'a pas suggéré de mesures spécifiques pour les surmonter.
👍