Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Détoxification du texte : efficacité des données, préservation sémantique et généralisation du modèle

Created by
  • Haebom

Auteur

Jing Yu, Yibo Zhao, Jiapeng Zhu, Wenming Shao, Bo Pang, Zhao Zhang, Xiang Li

Contour

Dans cet article, nous proposons une nouvelle méthode de détoxication de texte qui supprime le contenu nuisible tout en préservant le sens original, afin de résoudre le problème de la prolifération de contenu nuisible sur les réseaux sociaux. Pour surmonter les limites des méthodes existantes, telles que la faible performance, la difficulté à préserver le sens, la vulnérabilité aux données hors distribution et la forte dépendance aux données, nous présentons un cadre d'apprentissage en deux étapes. Dans la première étape, un modèle initial robuste est construit par apprentissage supervisé et affiné à l'aide de données parallèles filtrées de haute qualité. Dans la deuxième étape, LLM est entraîné par optimisation de politique relative de groupe à l'aide de données d'entrée nuisibles non étiquetées et d'un modèle de récompense défini par l'utilisateur. Les résultats expérimentaux montrent que la méthode proposée atténue efficacement les limites des méthodes existantes, atteint des performances de pointe, améliore les performances de généralisation et réduit considérablement la dépendance aux données d'annotation. Le code source est disponible sur GitHub.

Takeaways, Limitations

Takeaways:
Cela suggère la possibilité d’apprendre des modèles de décodage de texte efficaces avec seulement de petites quantités de données de haute qualité.
Il montre des performances et des performances de généralisation améliorées par rapport aux méthodes existantes.
Dépendance considérablement réduite aux données d’annotation, améliorant ainsi l’efficacité des données.
Nous présentons une étude de cas d’application réussie de l’optimisation de politique relative de groupe au décodage de texte.
Limitations:
Une analyse supplémentaire peut être nécessaire sur la conception et les performances de votre modèle de récompense personnalisé.
Une validation supplémentaire des performances de généralisation pour différents types de contenus nuisibles est nécessaire.
Une évaluation des performances dans un environnement de service réel est nécessaire.
👍