[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

La stylométrie reconnaît les textes humains et générés par LLM dans de courts échantillons

Created by
  • Haebom

Auteur

Karol Przystalski, Jan K. Argasi nski, Iwona Grabska-Gradzi nska, Jeremi K. Ochab

Contour

Cet article explore la stylométrie comme moyen de distinguer les textes générés par des modèles linguistiques à grande échelle (MLH) des textes écrits par des humains. L'objectif est d'aborder les questions d'attribution de modèles, de droits de propriété intellectuelle et d'utilisation éthique de l'IA. Nous avons créé un ensemble de données de référence composé de résumés humains issus de Wikipédia, de textes générés par divers LHH (GPT-3.5/4, LLaMa 2/3, Orca, Falcon) et de textes soumis à plusieurs méthodes de résumé de texte (T5, BART, Gensim, Sumy) et de reconstruction de phrases (Dipper, T5). Les textes de 10 phrases ont été classés à l'aide de modèles arborescents tels que les arbres de décision et LightGBM. Les caractéristiques utilisées étaient des caractéristiques de stylométrie conçues par des humains (StyloMetrix) contenant des schémas de vocabulaire, de grammaire, de syntaxe et de ponctuation, ainsi que des caractéristiques basées sur les n-grammes. Nous avons obtenu un coefficient de corrélation de Matthews allant jusqu'à 0,87 dans un scénario multi-classes à 7 classes, et une précision de 0,79 à 1,0 en classification binaire. En particulier, pour Wikipédia et GPT-4, nous avons atteint une précision allant jusqu'à 0,98 sur un ensemble de données équilibré. Nous avons identifié des caractéristiques de textes de type encyclopédique, des mots surutilisés et une standardisation grammaticale plus élevée des LLM par rapport aux textes rédigés par des humains grâce aux explications additives de Shapley (SHAP). Ces résultats montrent que, dans le contexte de LLM de plus en plus sophistiqués, il est possible de distinguer les textes générés par machine des textes générés par des humains pour certains types de textes.

Takeaways, Limitations

Takeaways:
Présente une méthode permettant de distinguer les textes LLM de plus en plus avancés des textes écrits par des humains.
Obtenir des performances de classification de haute précision pour des types de textes spécifiques (par exemple, les résumés Wikipédia).
Présente les caractéristiques d'analyse stylistique des textes générés par LLM (mots surutilisés, standardisation grammaticale élevée, etc.).
Contribuer aux discussions sur l’attribution des modèles, la propriété intellectuelle et l’utilisation éthique de l’IA.
Limitations:
Résultats limités à un type de texte spécifique (résumé Wikipédia). La généralisation à d'autres types de texte est limitée.
Les performances peuvent varier en fonction du type de LLM et de la méthode de résumé/reconstruction de texte utilisée.
Des recherches supplémentaires utilisant des ensembles de données plus diversifiés et plus vastes sont nécessaires.
Il est possible que les performances de classification se détériorent avec l’avènement de nouveaux LLM.
👍