Cet article explore la nature et les risques inhérents à ces conversations, alors que les utilisateurs recherchent de plus en plus d'informations médicales via des chatbots basés sur des modèles de langage à grande échelle (MLH). Nous avons filtré un ensemble de données d'IA conversationnelle à grande échelle pour constituer l'ensemble de données HealthChat-11K, qui contient 11 000 conversations réelles liées à la santé, composées de 25 000 messages utilisateurs. À l'aide de cet ensemble de données et d'une taxonomie centrée sur le clinicien, nous avons analysé systématiquement les interactions des utilisateurs dans 21 spécialités médicales différentes. Notre analyse fournit des informations sur la manière et les raisons pour lesquelles les utilisateurs recherchent des informations médicales, les types d'interactions courants, le contexte incomplet, le comportement émotionnel et les interactions susceptibles de susciter des flatteries (par exemple, les questions suggestives). Elle souligne la nécessité d'améliorer les capacités d'assistance médicale pour les LHH déployés sous forme d'IA conversationnelle. L'ensemble de données et les résultats de l'analyse sont accessibles au public sur GitHub.