Illustration for the post Sécurité des agents IA : qu’est-ce que le tiercé létal ?

Tiercé létal des agents (lethal trifecta) : de quoi s'agit-il ?

Par Eric Burel - Formateur chez LBKE

Publié le 9 février 2026

De nombreux outils permettent aux développeurs informatiques, mais aussi aux professionnels de tous horizons, de créer des agents d’intelligence artificielle.

Quel que soit votre niveau de technicité, quelques minutes suffisent à créer un agent expert IA avec des outils tels que Mistral AI Studio, la plateforme d’automatisation n8n ou encore LangChain, le framework agentique pour développeurs Python.

Les capacités des agents IA sont quasiment infinies, mais cela nous fait malheureusement oublier à quel point ils peuvent être vulnérables.

Le tiercé gagnant létal des agents IA fondés sur les LLM, ou lethal trifecta, est un concept formalisé par Simon Willison. Il désigne l’une des vulnérabilités les plus courantes et problématiques touchant les agents IA.

Principe de fonctionnement d’un agent IA fondé sur les LLM : une boucle et des outils

La notion d’agent existe depuis très longtemps dans le domaine de l’intelligence artificielle. Mais les grands modèles de langage (LLM) ont permis de faire un bond en avant considérable dans ce domaine et ont aussi démocratisé la création d’agents.

Concrètement, les agents IA dont nous parlons ici sont des boucles agentiques, aussi appelés agents ReAct.

La recette est toujours la même :

Cette simplicité apparente cache un grand pouvoir, car il n’y a virtuellement aucune limite à la complexité des outils que l’on peut fournir à un agent IA ! Il est difficile à dire à ce stade jusqu’où nous pouvons aller dans l’automatisation de processus avec des agents LLM.

Malheureusement, le tiercé létal découle justement de cette capacité de branchement d’outils.

Le tiercé létal des agents IA

Le tiercé létal (lethal trifecta) est une vulnérabilité qui apparaît dès que l’on combine les capacités suivantes dans un agent IA :

On comprend immédiatement que la connexion à des outils bureautiques a priori anodins peut très facilement créer cette vulnérabilité.

Sur le plan technique, le tiercé létal fait écho à deux vulnérabilités spécifiques :

On peut donc reformuler ce tiercé létal de manière plus simple et générale : dès qu’une personne extérieure peut communiquer avec votre agent IA et exploiter ses outils à des fins malveillantes, y compris par des biais détournés, votre agent est vulnérable.

Des exemples dans l’actualité, et peut-être d’autres à venir

Les grands acteurs de l’intelligence artificielle ne sont pas épargnés par ce phénomène et restent, à ce jour, très vulnérables au tiercé létal : Claude Cowork peut être manipulé pour exfiltrer des fichiers, GitLab Duo pouvait être manipulé via des commentaires dans du code open source, et la liste des vulnérabilités peut encore fortement s’allonger en 2026.

Connecter votre compte Google Drive ou équivalent à une plateforme IA intégrant un agent doit vous alerter : si votre Drive contient à la fois des documents partagés avec des personnes extérieures et des fichiers sensibles qui vous appartiennent, vous avez peut-être gagné le tiercé létal !

Par exemple, un attaquant pourrait inclure un prompt malveillant dans un document partagé incitant l’agent LLM à lire vos fichiers sensibles, et utiliser ce même document pour exfiltrer vos données. Il s’agit d’une attaque relativement sophistiquée et théorique à ce stade, mais rentable si vos documents ont une très grande valeur.

C’est un problème très sérieux, qui peut constituer un frein à l’adoption des agents IA en entreprise. Pourtant, il est impensable de passer à côté de la révolution technologique que représentent les agents IA, au cœur de la transition IA des entreprises et vecteurs de gains de productivité significatifs dans tous les domaines (fonction support, secteur tertiaire, développement informatique, etc.).

Comment se prémunir du tiercé létal ?

Pour sécuriser un agent IA, il faut combiner un ensemble de stratégies complémentaires, mises en place à différents niveaux.

D’abord, les fournisseurs de LLM s’efforcent de rendre les modèles plus robustes au jailbreaking. Il est donc nécessaire d’utiliser, autant que possible, des modèles de dernière génération, ou à minima d’ajouter des couches de protection spécifiques en amont d’un appel à un LLM.

Ensuite, il faut être très attentif aux conséquences de la connexion à des sources de données et de l’ajout d’outils dans un agent.

Pour reprendre l’exemple de Google Drive, on peut privilégier la création d’un compte Google dédié à l’agent IA et n’y partager que les documents strictement utiles pour sa mission.

C’est aussi pour cela que l’utilisation de serveurs MCP, qui fournissent de nombreux outils aux agents, nécessite une grande prudence, au même titre que l’installation de n’importe quel logiciel ou dépendance. L’agent peut devenir trop puissant et présenter un risque élevé en cas de jailbreaking. D’autre part, les attaques sur la chaîne logistique sont extrêmement populaires et peuvent viser des serveurs MCP a priori inoffensifs mais eux-mêmes mal sécurisés. Notamment, la description des outils (utilisée par le LLM pour choisir le bon outil pour une tâche donnée) est un vecteur potentiel d’injection de prompt.

Enfin, les équipes informatiques en entreprise doivent mettre en place des mécanismes d’isolation et de protection contre les attaques spécifiques aux agents IA, comme le sandboxing qui est utilisé par les agents de code tels que Cursor.

En résumé, il faut :

Le tiercé létal est-il une fatalité ?

Les graves failles de sécurité des agents IA font parfois l’actualité ces derniers temps, mais tout de même moins souvent que l’on ne pourrait le penser. Le tiercé létal des agents est-il aussi létal que son nom laisse supposer ?

Par chance, les injections de prompts, le jailbreaking ou l’exploitation malveillante des outils à disposition d’un LLM ne sont pas simples à mettre en place. Ces attaques requièrent un certain niveau de technicité de la part des pirates. Or, la plupart des hackers privilégient des stratégies de volume et de faible coût, comme l’ingénierie sociale ou les virus traditionnels.

Il n’existe pas de solution parfaite pour éliminer le tiercé létal des agents IA, mais il ne doit pas vous empêcher de profiter des dernières avancées de l’intelligence artificielle : une stratégie de sécurité robuste et combinant plusieurs approches complémentaires limite significativement son impact.

Commentez cet article sur les réseaux sociaux :

Partager sur Bluesky

À propos de l'auteur

Photo d'Eric Burel

Eric Burel est ingénieur diplômé de l'ENSIMAG. Il est co-fondateur de LBKE, formateur web et IA, et ambassadeur pour le plan national Osez l'IA.

Il partage régulièrement ses connaissances à travers des articles publiés sur Smashing Magazine et sur son blog. Vous le croiserez sûrement au détour d'un meetup sur Montpellier !

En savoir plus sur Eric Burel

Vous avez apprécié cette ressource ? Découvrez toutes nos formations IA et web.

Formation recommandée :

Abonnez-vous pour recevoir les nouvelles ressources

Flux RSS