Cet article a mené des expériences de génération de tâches avec des humains et GPT-4o afin de déterminer si les agents génératifs basés sur des modèles de langage à grande échelle (MLL) génèrent des tâches de manière humaine. Nos résultats montrent que si la génération de tâches humaines est systématiquement influencée par des valeurs personnelles comme l'ouverture à l'expérience et des facteurs psychologiques comme le style cognitif, les LLM ne reflètent pas ces schémas comportementaux, même lorsqu'ils sont explicitement dotés de facteurs psychologiques. Les tâches générées par les LLM étaient moins sociales, moins exigeantes physiquement et plus axées sur des sujets abstraits. Bien que les tâches générées par les LLM aient été jugées plus engageantes et novatrices, cela démontre un écart entre les compétences linguistiques des LLM et leur capacité à générer des objectifs concrets et humains. En conclusion, il existe une différence fondamentale entre la nature concrète et axée sur les valeurs de la cognition humaine et les modèles statistiques des LLM. Concevoir des agents plus centrés sur l'humain nécessite d'intégrer la motivation intrinsèque et les fondements physiques.