Cet article souligne que la demande d'inférences LLM prévisibles dans les systèmes complexes a popularisé les résultats structurés, mais des inquiétudes subsistent quant à leurs faibles performances par rapport au langage naturel non structuré. L'entraînement sur des données de trace de chaîne de pensée (CoT) non structurées a permis de développer de nouveaux modèles d'inférence performants, mais il soulève des problèmes de coûts de calcul et de fiabilité. Dans cet article, nous présentons iSelf-Discover, une adaptation au niveau instance du framework Self-Discover, et comparons les inférences JSON structurées générées dynamiquement aux inférences non structurées. Les résultats expérimentaux obtenus sur différents benchmarks montrent que les inférences non structurées surpassent systématiquement les inférences structurées. En particulier, sur le benchmark MATH complexe, les plans non structurés obtiennent jusqu'à 18,90 % de gain de performance relatif par rapport aux approches structurées. La variante non structurée à zéro coup d'iSelf-Discover surpasse la variante structurée à cinq coups, soulignant que ces différences sont importantes même lorsque les inférences sont générées dynamiquement avant la réponse finale. De plus, nous montrons que la granularité optimale de génération de plan (niveau instance vs niveau tâche) varie selon le contexte. Ces résultats suggèrent que nous devons réévaluer notre recours aux formats structurés pour résoudre des problèmes complexes et la manière dont nous structurons les systèmes complexes.