Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Architecture d'agents LLM résilients : Guide pour des implémentations sécurisées de type « planification puis exécution »

Created by
  • Haebom

Auteur

Ron F. Del Rosario, Klaudia Krawiecka, Christian Schroeder de Witt

Contour

Cet article propose un guide complet sur le modèle « Planifier puis Exécuter » (PtE) pour la conception d'agents LLM (Large-Scale Language Model) capables d'automatiser des tâches complexes en plusieurs étapes. Nous explorons les principes fondamentaux du modèle PtE, un modèle de conception d'agent qui dissocie la planification stratégique de l'exécution tactique, ses composants (Planificateur et Exécuteur) et ses avantages architecturaux par rapport aux modèles réactifs comme ReAct en termes de prévisibilité, de rentabilité et de qualité d'inférence. Nous nous concentrons sur la sécurité en établissant une résilience inhérente aux attaques par injection rapide indirecte, en détaillant la nécessité d'une stratégie de défense en profondeur et de contrôles complémentaires essentiels tels que le principe du moindre privilège, l'accès aux outils limité à la tâche et l'exécution de code en sandbox. Nous fournissons des plans d'implémentation et des références de code fonctionnels pour trois principaux frameworks d'agents : LangChain (utilisant LangGraph), CrewAI et AutoGen. Nous analysons la manière dont chaque framework implémente le modèle PtE et discutons des modèles avancés, notamment les boucles de replanification dynamique, l'exécution parallèle à l'aide de DAG et l'importance de la vérification humaine dans la boucle (HITL).

Takeaways, Limitations

Takeaways:
Présentation de modèles architecturaux efficaces (PtE) pour la conception sûre et prévisible des agents LLM.
Fournit une stratégie de défense robuste contre les attaques par injection rapide indirecte.
Fournir des guides de mise en œuvre pratiques via des cadres majeurs tels que LangChain, CrewAI et AutoGen.
Suggérant la possibilité de construire des agents LLM plus robustes et plus stables grâce à des modèles avancés (replanification dynamique, exécution parallèle et vérification HITL).
Limitations:
Rien ne garantit que les mécanismes de sécurité proposés puissent contrer parfaitement tous les types d'attaques. Une amélioration continue des stratégies de défense en profondeur est nécessaire.
L'efficacité du modèle PtE peut varier selon la complexité et la nature de la tâche. Il ne s'agit pas d'un modèle universel optimal pour tous les types de tâches.
Les guides de mise en œuvre sont limités à un cadre spécifique et peuvent nécessiter des efforts supplémentaires lors de l’application d’autres cadres.
👍