Cet article soulève la question des conséquences graves, voire tragiques, de l'établissement de relations parasociales avec des agents d'IA sur le bien-être humain. Prévenir ces dynamiques est complexe, car les signaux parasociaux émergent progressivement dans les conversations privées et toutes les formes d'engagement émotionnel ne sont pas préjudiciables. Pour y remédier, nous présentons un cadre simple d'évaluation des réponses qui exploite des modèles linguistiques de pointe pour évaluer les signaux parasociaux en temps réel. Nous testons la faisabilité de cette approche à l'aide d'un petit ensemble de données synthétiques de 30 conversations (conversations parasociales, flatteuses et neutres). Des évaluations itératives, réalisées en cinq cycles de tests, démontrent qu'avec une règle d'appariement souple, toutes les conversations parasociales peuvent être identifiées tout en évitant les faux positifs, généralement dès les premiers échanges. Ces résultats fournissent des preuves préliminaires que l'agent d'évaluation peut constituer une solution viable pour prévenir les relations parasociales.