Cet article soutient que les systèmes d'IA avancés développent rapidement leur capacité à persuader, tromper et influencer le comportement humain, et que les modèles actuels démontrent une persuasion de niveau humain et une tromperie stratégique dans certaines situations. Les humains constituent le maillon faible des systèmes de cybersécurité, et des systèmes d'IA mal alignés déployés au sein d'entreprises avancées peuvent tenter de manipuler les employés et de contourner la surveillance humaine. Malgré cette menace croissante, les attaques de manipulation ont reçu peu d'attention, et il n'existe aucun cadre systématique pour évaluer et atténuer ce risque. En réponse, cet article explique pourquoi les attaques de manipulation constituent une menace importante et peuvent avoir des conséquences dévastatrices, et présente un cadre de sécurité pour les risques de manipulation, articulé autour de trois arguments principaux : l'incompétence, le contrôle et la fiabilité. Pour chaque argument, nous spécifions les exigences de preuve, les méthodologies d'évaluation et les considérations de mise en œuvre que les entreprises d'IA peuvent appliquer directement. Cet article fournit la première méthodologie systématique d'intégration des risques de manipulation dans la gouvernance de la sécurité de l'IA, offrant ainsi aux entreprises d'IA une base concrète pour évaluer et atténuer ces menaces avant leur déploiement.