Cette étude a développé une plateforme d'extraction de données utilisant un modèle de langage à grande échelle (MLL) afin d'améliorer l'efficacité du processus de synthèse des connaissances essentielles (revue de la littérature) dans la formation aux professions de santé (FPS). L'étude a comparé et analysé les résultats d'extraction de l'IA et de l'extraction humaine à partir de 187 articles de revue de cadrage existants et de 17 questions d'extraction. La concordance entre l'IA et l'extraction humaine variait selon le type de question, avec une concordance élevée pour les questions spécifiques et explicitement formulées (par exemple, le titre, les objectifs) et une concordance faible pour les questions nécessitant une interprétation subjective ou non explicitement mentionnées dans le texte (par exemple, les résultats de Kirkpatrick, le contexte de la recherche). Les erreurs d'IA étaient significativement inférieures aux erreurs humaines, et la plupart des désaccords entre l'IA et l'extraction humaine étaient dus à des différences d'interprétation. Cela suggère que l'itération du processus d'extraction de l'IA peut identifier les complexités ou les ambiguïtés dans l'interprétation, permettant des améliorations avant la révision humaine.