Dans cet article, nous démontrons que les SLM conservent un avantage qualitatif pour certaines tâches nécessitant une sortie structurée, malgré l'émergence de modèles de langage à grande échelle (LLM) tels que GPT-4, qui rend moins évidents les avantages (inférence plus rapide, coût réduit) du réglage fin des modèles de langage à petite échelle (SLM) pour les applications concrètes. En comparant le réglage fin des SLM à l'invite LLM sur une tâche de génération de workflow JSON low-code, nous constatons qu'une bonne invite peut produire des résultats raisonnables, mais que le réglage fin n'améliore la qualité que de 10 % en moyenne. De plus, nous révélons les limites du modèle grâce à une analyse systématique des erreurs.