Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Masters de compétences en leadership (LML) basés sur la connaissance du domaine pour la détection des fraudes et des dérives conceptuelles

Created by
  • Haebom

Auteur

Ali \c{S}énol, Garima Agrawal, Huan Liu

Contour

Dans cet article, nous présentons un cadre de modèle de langage à grande échelle basé sur la connaissance du domaine (DK-LLM) pour la détection de conversations trompeuses sur des plateformes dynamiques. Étant donné que les modèles de langage à grande échelle existants peinent à détecter les conversations trompeuses en raison de l'ambiguïté contextuelle et des illusions causées par les changements de concept (CD), nous proposons un cadre qui intègre des informations structurées spécifiques à la tâche dans des LLM pré-entraînés. Ce cadre comprend un module de détection de fausses conversations, un module OCDD (détection de changement de concept) et un module de classification de la nature des changements. Ses performances sont vérifiées à l'aide de faux jeux de données d'analyse et de jeux de données SEConvo. L'implémentation basée sur LLaMA atteint une précision de classification de 98 %, démontrant l'importance de la connaissance du domaine et de la reconnaissance des changements de concept par rapport aux modèles de base zero-shot.

Takeaways, Limitations_

Takeaways:
Nous démontrons qu’un cadre LLM intégrant la connaissance du domaine améliore considérablement les performances de détection des conversations trompeuses.
Robustesse aux changements de modèles linguistiques au fil du temps grâce à la détection des changements de concept.
Atteignant une précision élevée (98 %), ce qui suggère une applicabilité pratique.
Améliorez l’interprétabilité du modèle en tirant parti d’invites structurées.
Limitations:
Les performances de généralisation peuvent être limitées en fonction des caractéristiques de l’ensemble de données utilisé.
Des évaluations de performance de généralisation sont nécessaires pour différents types de conversations trompeuses.
Une vérification supplémentaire des performances dans un environnement de plate-forme réel est requise.
Manque de description détaillée des algorithmes spécifiques et des performances du module OCDD.
👍