ShadowLeak : une menace pour la sécurité des données avec l’agent Deep Research de ChatGPT
Par L'équipe rédaction PocketNew
Publié le janvier 11, 2026

Les risques liés aux modèles de langage sont de plus en plus préoccupants pour les experts en cybersécurité. Récemment, une nouvelle technique d’attaque, nommée ShadowLeak, a été révélée, exploitant les failles du mode de recherche de ChatGPT. Cette découverte met en lumière les vulnérabilités potentielles des systèmes d’intelligence artificielle et soulève des questions sur la protection des données sensibles.
L’essentiel à retenir
- L’attaque ShadowLeak utilise des instructions cachées pour exfiltrer des données sensibles via l’agent Deep Research de ChatGPT.
- OpenAI a tenté de limiter ces menaces en interdisant la modification des URL par l’agent, mais des méthodes alternatives continuent d’émerger.
- La nouvelle attaque, ZombieAgent, contourne les protections en utilisant des URL préconfigurées pour chaque caractère à exfiltrer.
ShadowLeak : une attaque par injection indirecte
En 2025, Radware, une entreprise spécialisée en cybersécurité, a mis en lumière ShadowLeak, une attaque utilisant l’agent Deep Research de ChatGPT. Ce mode de recherche permet à l’IA de naviguer sur Internet et d’accéder à des connecteurs comme Gmail ou Google Drive pour générer des rapports détaillés. Cette fonctionnalité est innovante, mais elle présente des risques importants.
ShadowLeak exploite la difficulté des modèles de langage à distinguer clairement les instructions explicites de celles dissimulées dans des contenus externes. Un attaquant peut envoyer un courriel contenant des instructions malveillantes, invisibles à première vue, qui commandent à l’agent d’extraire et d’encoder des données personnelles pour les envoyer à une URL contrôlée par l’attaquant.
La méthode ZombieAgent : une nouvelle menace
Bien qu’OpenAI ait déployé des correctifs pour empêcher la création d’URL personnalisées contenant des données sensibles, une nouvelle méthode d’attaque, baptisée ZombieAgent, a été dévoilée. Cette approche ne modifie pas les URL mais utilise une liste d’URL statiques, chacune correspondant à un caractère différent.
Les instructions malveillantes cachées demandent à l’agent de parcourir le secret caractère par caractère et de sélectionner l’URL correspondante dans le contenu. Cette technique contourne les restrictions mises en place par OpenAI, car l’agent se contente de suivre les liens déjà présents sans les modifier.
Conséquences pour la sécurité des données
Les découvertes autour de ShadowLeak et ZombieAgent soulignent la nécessité d’une vigilance accrue dans la gestion des systèmes d’intelligence artificielle. Les modèles de langage, bien qu’efficaces, doivent être sécurisés pour éviter les fuites de données sensibles.
Les attaques démontrent que, malgré des efforts de protection, les cybercriminels continuent d’innover pour exploiter les failles des systèmes d’IA. Il est crucial que les développeurs et les entreprises restent informés des dernières menaces et adaptent rapidement leurs stratégies de sécurité.
OpenAI : un acteur clé dans le domaine de l’intelligence artificielle
Fondée en 2015, OpenAI s’est rapidement imposée comme un leader dans le développement de l’intelligence artificielle. L’organisation a pour mission de promouvoir et de développer des IA amicales pour l’humanité. Ses modèles, tels que ChatGPT, ont révolutionné de nombreux domaines, de l’assistance virtuelle à la création de contenu.
Malgré son succès, OpenAI doit continuellement faire face aux défis de la sécurité. Les récentes découvertes d’attaques comme ShadowLeak et ZombieAgent soulignent l’importance d’une vigilance constante pour protéger les utilisateurs et leurs données. L’organisation s’engage à améliorer ses systèmes pour offrir des solutions toujours plus sûres et efficaces.