Cet article propose ProactiveEval, un cadre unifié pour évaluer la capacité conversationnelle lexicale des modèles linguistiques à grande échelle (MLH). Afin de pallier les limites des études précédentes, qui se concentraient sur des domaines spécifiques ou des scénarios axés sur les tâches, limitant ainsi l'exploration exhaustive de la capacité conversationnelle lexicale des modèles, nous décomposons la conversation lexicale en deux aspects : la planification d'objectifs et l'orientation conversationnelle. Nous établissons des indicateurs d'évaluation pour plusieurs domaines. De plus, nous concevons ce cadre pour générer automatiquement des données d'évaluation diverses et complexes. Nous développons 328 environnements d'évaluation dans six domaines différents et expérimentons 22 LMH, démontrant que DeepSeek-R1 et Claude-3.7-Sonnet sont performants respectivement pour les tâches de planification d'objectifs et d'orientation conversationnelle. Enfin, nous étudions l'impact de la capacité de raisonnement sur le comportement lexical et discutons des implications pour le développement futur des modèles.