[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

KEN : Réseau d'augmentation des connaissances et de guidage des émotions pour la détection multimodale de fausses nouvelles

Created by
  • Haebom

Auteur

Peican Zhu, Yubo Jing, Le Cheng, Keke Tang, Yangming Guo

Contour

Dans cet article, nous proposons un nouveau modèle, le Knowledge Augmentation and Emotion Guidance Network (KEN), qui utilise à la fois des images et du texte pour résoudre le problème des fausses nouvelles sur les réseaux sociaux. Afin de pallier le manque de sémantique des images et la difficulté de déterminer la crédibilité due au manque d'informations textuelles dans les études précédentes, nous utilisons un modèle linguistique à grande échelle (LLM) pour générer des légendes d'images et enrichir les informations textuelles. De plus, nous appliquons un apprentissage équilibré pour améliorer la précision des informations selon différents types émotionnels grâce à une approche discriminante selon le type émotionnel de l'information. La supériorité du modèle KEN proposé est confirmée par des expériences sur des ensembles de données réelles.

Takeaways, Limitations_

Takeaways:
Nous améliorons les performances de détection de fausses nouvelles multimodales en tirant parti de LLM pour améliorer la compréhension sémantique des images et des textes.
Nous avons amélioré les performances de classification pour différents types d’informations grâce à un apprentissage équilibré qui prend en compte le type émotionnel des informations.
Nous avons vérifié l’efficacité du modèle au moyen d’expériences utilisant des ensembles de données réels.
Limitations:
ÉTant donné que la dépendance à LLM est élevée, les performances du modèle peuvent être affectées par les performances de LLM.
Il peut encore y avoir des problèmes de déséquilibre des données pour certains types d’émotions.
Une validation supplémentaire de la généralisabilité de l’ensemble de données utilisé est nécessaire.
👍