Ce bug de Meta AI fait apparaître vos discussions ailleurs

Meta se retrouve une nouvelle fois au centre d’un débat sur la protection des données. Un chercheur a révélé qu’un bug permettait d’accéder à des conversations privées tenues avec le chatbot Meta AI.

Le problème ? Ces discussions n’étaient pas censées être visibles, même pour des utilisateurs connectés. Sandeep Hodkasia, expert en cybersécurité, a découvert l’anomalie, puis l’a exploitée avec une méthode simple. La faille a été signalée en décembre 2024, mais corrigée seulement un mois plus tard.

Le bug reposait sur un détail technique pourtant facile à négliger. Chaque question modifiée dans Meta AI génère un identifiant unique. En surveillant le trafic réseau, Sandeep a compris qu’il suffisait de modifier ce numéro pour consulter les réponses d’autres personnes. En testant différentes combinaisons, il est tombé sur des réponses générées à partir de requêtes privées. L’accès se faisait sans mot de passe, sans restriction et sans message d’erreur. Une erreur élémentaire dans la gestion des autorisations côté serveur.

Meta corrige, mais ne communique presque rien

Meta a reconnu avoir été informée du bug le 26 décembre, puis l’avoir corrigé le 24 janvier. Pourtant, aucune alerte n’a été diffusée auprès des utilisateurs. L’entreprise affirme qu’aucune preuve d’abus n’a été détectée, mais la discrétion du correctif interroge.

En récompense, Sandeep a reçu une prime de 10 000 dollars. Le chercheur estime cependant que cette faille illustre une tendance plus large : les IA intégrées aux réseaux sociaux restent vulnérables aux erreurs de conception.

Des conseils simples pour mieux protéger ses échanges

L’affaire invite à repenser l’usage des assistants IA connectés à des plateformes comme Meta, Google ou xAI. Lorsqu’une IA est utilisée via un réseau social, il vaut mieux éviter d’y associer son compte personnel.

Certains services proposent des modes privés, mais leur efficacité dépend du contexte technique. Il est conseillé de ne jamais divulguer d’informations identifiables et de rester prudent avec les questions posées. Même sans mauvaise intention, une fuite peut rapidement rendre une donnée confidentielle publique.

L’IA évolue vite, la sécurité suit lentement

Ce bug de Meta AI n’est pas isolé. Des cas similaires ont touché d’autres modèles comme Bard, Grok ou Gemini. Les politiques de confidentialité sont souvent trop longues ou opaques pour l’utilisateur moyen. Pourtant, elles contiennent des clauses importantes sur l’usage des données.

Un bon réflexe consiste à interroger une autre IA pour résumer ces documents. Cela permet de mieux comprendre ce que deviennent les messages. La vigilance reste la meilleure défense contre une technologie toujours plus rapide et complexe.

ARTICLES SIMILAIRES

Fin du support Windows 10 : C’est fini. 3 solutions d’urgence pour votre PC obsolète

Fin du support Windows 10 : C’est fini. 3 solutions d’urgence pour votre PC obsolète

Le couperet est tombé. Depuis le 14 octobre 2025, Microsoft a officiellement arrêté le support

10 décembre 2025

Alerte ! Un malware furtif russe infiltre vos données sur Outlook

Alerte ! Un malware furtif russe infiltre vos données sur Outlook

APT28, le groupe de hacker russe ont mis au point une technique pour s’infiltrer au

10 décembre 2025

Le « Google du Dark Web » existe : le top 5 des moteurs pour trouver l’introuvable

Le « Google du Dark Web » existe : le top 5 des moteurs pour trouver l’introuvable

Pour beaucoup, le Dark Web est un mythe, un territoire sans carte ni boussole. Pourtant,

6 décembre 2025

Lancement des promotions Black Friday 2025 chez Base44 : des réductions exceptionnelles à ne pas manquer

Le Black Friday 2025 s’annonce comme une occasion incontournable pour les amateurs de bonnes affaires,

21 novembre 2025

Une faille dans ChatGPT et Grok ouvre la voie à des arnaques ciblées

Des chercheurs viennent de trouver une faille béante dans ChatGPT et Grok. En manipulant l’IA,

22 octobre 2025

WhatsApp : ne décrochez jamais si vous voyez ça en appel vidéo !

WhatsApp : ne décrochez jamais si vous voyez ça en appel vidéo !

L’arnaque vient de franchir un nouveau cap de crédibilité et de dangerosité. Elle utilise maintenant

22 octobre 2025