Le rapport Gravitee sur l'état de la sécurité des agents d'IA 2026, basé sur une enquête auprès de 900 dirigeants et praticiens techniques aux États-Unis et au Royaume-Uni, documente que 88 % des organisations ont confirmé ou suspecté des incidents de sécurité ou de confidentialité des données impliquant des agents d'IA au cours de la dernière année. Dans le secteur de la santé en particulier, où les agents d'IA sont intégrés dans les flux de travail cliniques, les systèmes de DSE (dossiers de santé électroniques), les plateformes de diagnostic, l'infrastructure de facturation et les chaînes d'approvisionnement, ce chiffre atteint 92,7 % — le plus élevé de tous les secteurs étudiés. Le rapport indique que les grandes entreprises de ces pays ont déployé 3 millions d'agents d'IA au total, dont près de la moitié — 1,5 million — fonctionnent sans aucune surveillance active ni contrôles de sécurité, les laissant vulnérables à des actions non autorisées à la vitesse de la machine.
Les résultats révèlent une crise identitaire fondamentale sous-jacente à ces incidents. Selon le rapport, 45,6 % des équipes s'appuient sur des clés API partagées pour l'authentification entre agents — une défaillance fondamentale de sécurité des identifiants que MITRE ATT&CK classe sous T1552 (Identifiants non sécurisés). Seulement 21,9 % des équipes techniques traitent les agents d'IA comme des entités indépendantes dotées d'une identité propre, avec leur propre périmètre d'identification et leur ligne de base comportementale. De plus, 82 % des dirigeants estiment que les politiques existantes les protègent des actions non autorisées des agents, tandis que seulement 21 % ont une visibilité réelle sur ce que leurs agents peuvent accéder, quels outils ils appellent ou quelles données ils touchent.
Les organisations de santé subissent des conséquences particulièrement graves de ces lacunes de sécurité. Les coûts des violations dans la santé s'élèvent en moyenne à 9,77 millions de dollars — les plus élevés de tous les secteurs pour la 13e année consécutive — avec des incidents d'IA fantôme ajoutant en moyenne 670 000 dollars par incident. L'IBM 2026 X-Force Threat Intelligence Index a documenté une augmentation de 44 % des attaques commençant par l'exploitation d'applications exposées publiquement, largement due à l'absence de contrôles d'authentification. Lors de HIMSS 2026 — la plus grande conférence technologique de la santé — des experts ont exprimé des inquiétudes quant au déploiement d'agents d'IA d'Epic, Google, Microsoft et d'autres sans tests cliniques ou validation de gouvernance suffisants, comme rapporté par STAT News.
Le rapport Gravitee documente que les cadres de sécurité actuels conçus pour des logiciels déterministes sont structurellement incapables de gouverner des systèmes autonomes qui raisonnent, s'adaptent et agissent dynamiquement. Des cadres tels que NIST AI RMF et ISO 42001 fournissent des structures de gouvernance organisationnelle mais n'abordent pas les contrôles techniques spécifiques requis pour les déploiements d'agents : validation des paramètres d'appel d'outils, application en temps réel du périmètre, notation de confiance d'identité pré-exécution, ou fusion contextuelle de la chaîne de destruction. La surveillance en temps d'exécution peut observer un agent faisant quelque chose qu'il ne devrait pas, mais ne peut pas l'empêcher de le faire.
VectorCertain LLC affirme que sa plateforme SecureAgent aurait bloqué chaque classe de défaillance documentée avant qu'elle n'atteigne les dossiers des patients, les bases de données ou les systèmes cliniques. L'entreprise déclare que son pipeline de gouvernance pré-exécution à quatre portes a été validé sur quatre cadres : les 278 énoncés de diagnostic de cybersécurité du profil CRI v2.1 (incluant les contrôles PROTECT et DETECT mappés HIPAA), les 230 objectifs de contrôle du cadre FS AI RMF du Trésor américain, les résultats du sprint MITRE ATT&CK ER7++ (11 268 tests, 0 échec), et l'auto-évaluation MITRE ATT&CK ER8 (14 208 essais, TES 98,2 %). Selon VectorCertain, SecureAgent atteint un taux de faux positifs de 1 sur 160 000 — 53 333 fois inférieur à la moyenne du secteur EDR.
Les implications du rapport vont au-delà des préoccupations immédiates de sécurité pour toucher des questions fondamentales sur la gouvernance de l'IA dans les infrastructures critiques. Avec les agents d'IA désormais intégrés dans les composants centraux des systèmes distribués et se comportant comme une infrastructure autonome qui hérite des mêmes attentes de sécurité que tout service de production, le risque principal n'est plus qu'un agent puisse être incorrect, mais qu'il soit trop efficace pour exécuter des actions qu'il n'était jamais censé faire. Le rapport complet de Gravitee est disponible à l'adresse https://www.gravitee.io/state-of-ai-agent-security.


