Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Alignement des valeurs à plusieurs niveaux dans les systèmes d'IA agentique : étude et perspectives

Created by
  • Haebom

Auteur

Wei Zeng, Hengshu Zhu, Chuan Qin, Han Wu, Yihang Cheng, Sirui Zhang, Xiaowei Jin, Yinuo Shen, Zhenxing Wang, Feimin Zhong, Hui Xiong

Contour

Cet article aborde la question de l'alignement des valeurs dans les systèmes multi-agents basés sur des modèles de langage à grande échelle (MLL), notamment à l'heure où la recherche en IA évolue d'un modèle mono-agent à un modèle multi-agent pour la prise de décision autonome et le travail collaboratif dans des environnements complexes. L'avancement et la diversité des applications des LLM ont accru les risques situationnels et systémiques, rendant l'alignement des valeurs crucial pour garantir l'alignement des objectifs, des préférences et des comportements des agents avec les valeurs humaines et les normes sociales. Cet article aborde la nécessité d'une gouvernance sociale à travers un cadre de valeur multicouche, en examinant de manière exhaustive l'alignement des valeurs en utilisant des systèmes multi-agents basés sur des LLM comme prototype représentatif des systèmes d'IA à agents. Nous structurons les principes de valeur selon une structure hiérarchique aux niveaux macro, méso et micro, catégorisons les scénarios d'application selon un continuum allant du général au spécifique, et cartographions les méthodes et les évaluations d'alignement des valeurs sur ce cadre hiérarchique. De plus, nous examinons en détail la coordination des valeurs entre plusieurs agents au sein des systèmes d'IA à agents et suggérons des pistes de recherche futures.

Takeaways, Limitations

Takeaways:
Une revue systématique du problème d'alignement des valeurs dans les systèmes multi-agents basés sur LLM et un cadre de valeur multicouche.
Fournit une compréhension globale à travers la structure hiérarchique des principes de valeur, la catégorisation des scénarios d'application, la cartographie des méthodes d'alignement de valeur et des évaluations.
Une discussion approfondie du problème de coordination de valeur entre plusieurs agents.
Contribution au développement académique en suggérant des orientations de recherche futures.
Limitations:
Une validation plus poussée de l’application pratique et de l’efficacité du cadre de valeur multicouche proposé est nécessaire.
Une analyse complète des différents LLM et scénarios d’application peut encore faire défaut.
Des recherches continues sont nécessaires pour garantir l’objectivité et la fiabilité des méthodes et des évaluations d’alignement des valeurs.
Manque de directives claires sur les conflits de valeurs et la priorisation.
👍