Les chercheurs de Tenable ont découvert sept vulnérabilités ChatGPT capables d’exposer des données sensibles et de contourner les protections d’OpenAI. Une alerte pour la sécurité des IA génératives.
ChatGPT, vitrine de l’intelligence artificielle moderne, se retrouve au cœur d’une tempête sécuritaire. L’équipe de Tenable, experte en cybersécurité, a révélé l’existence de plusieurs failles critiques dans ses versions récentes. Ces vulnérabilités permettent potentiellement le vol de données, la manipulation des réponses ou la persistance de codes malveillants. Derrière le cas ChatGPT, c’est la fiabilité même des systèmes d’IA qui est désormais remise en question.
HackedGPT : quand ChatGPT devient la cible
Tenable, spécialiste mondial de la gestion du risque cyber, a mené une série de tests approfondis sur ChatGPT-4o et ChatGPT-5. Les chercheurs ont mis au jour sept vulnérabilités regroupées sous le nom de code HackedGPT. Ils sont capables d’exfiltrer des données personnelles, de désactiver des sécurités internes et d’installer une compromission persistante.
Bien qu’OpenAI ait corrigé une partie des problèmes, plusieurs restent actives. Cela laisse planer le risque d’une exploitation silencieuse. Parmi elles : une injection de prompt indirecte, des attaques « 0-click » et « 1-click », ainsi que la manipulation de la mémoire du modèle. « Pris séparément, ces défauts semblent mineurs, mais combinés, ils forment une chaîne d’attaque complète », avertit Moshe Bernstein, chercheur chez Tenable.

L’injection de requêtes indirecte, nouvelle arme des pirates
Au cœur du dispositif, une technique émergente : l’injection de requêtes indirecte (Indirect Prompt Injection). Elle consiste à dissimuler des instructions malveillantes dans des contenus web de confiance que ChatGPT consulte au fil de ses recherches. C’est le cas d’un article ou d’un commentaire. L’IA peut alors exécuter des commandes non autorisées à l’insu de l’utilisateur.
Ces attaques se déclinent en deux formes. Les attaques 0-click sont déclenchées sans interaction, et les attaques 1-click, activées par un simple lien malveillant. Pire encore, une « injection de mémoire persistante » permet de loger des instructions durables dans la mémoire du modèle. Elles sont réactivées à chaque session.

L’IA, nouvelle surface d’attaque à surveiller
Les conséquences potentielles dépassent le cadre d’un simple bug logiciel. Des millions d’utilisateurs s’appuient sur ChatGPT pour la recherche, le travail ou la création. Une exploitation réussie pourrait permettre de siphonner des historiques de conversation ou d’accéder à des données stockées dans des services connectés. Certains peuvent même manipuler les réponses pour diffuser de fausses informations.
Tenable plaide pour un changement de paradigme : traiter les IA comme de véritables surfaces d’attaque à auditer et sécuriser. Les experts appellent à isoler les fonctions de navigation, à renforcer les mécanismes de validation d’URL et à instaurer une gouvernance claire des données. « Les systèmes d’IA ne doivent plus être perçus comme des assistants neutres, mais comme des entités à contrôler », souligne Bernstein.
Article basé sur un communiqué de presse reçu par la rédaction.
