Les deepfakes ne sont plus de simples curiosités numériques. En 2025, ils sont devenus des armes de fraude et d’ingénierie sociale.
Plus de 35 millions de dollars détournés, des voix imitées en temps réel, des visages clonés pour tromper. En 2025, les deepfakes ne sont plus un gadget technologique, mais une menace active pour les entreprises, les institutions et les individus. Le dernier rapport de Check Point Research lève le voile sur une réalité inquiétante.
Une technologie passée de l’imitation au détournement
En quelques années, les deepfakes ont quitté le registre de l’amusement pour devenir des outils redoutablement efficaces entre les mains de cybercriminels. Le rapport AI Security Report 2025 de Check Point Research insiste sur une rupture technologique d’envergure. Il souligne que les deepfakes ne sont plus de simples vidéos fabriquées hors ligne. Ils se sont transformés en systèmes d’usurpation d’identité totalement autonomes, capables d’interagir avec des cibles humaines en direct, à l’écrit comme à l’oral.
« La technologie des deepfakes s’étend désormais de la simple génération hors ligne à des moteurs d’usurpation d’identité entièrement autonomes et en temps réel », alerte le rapport. En clair, ces IA savent converser, s’adapter aux réactions de leurs interlocuteurs et moduler leur ton. L’arnaque devient conversationnelle, fluide, et redoutablement crédible. Ce changement de paradigme illustre une tendance plus large : l’industrialisation du cybercrime, dopée par l’accessibilité des outils IA. Plus besoin d’être un hacker chevronné. Avec 500 dollars et quelques tutoriels, des attaquants peu qualifiés peuvent désormais orchestrer des fraudes complexes.
Un cybercrime boosté à l’IA générative
L’arsenal technologique des cybercriminels s’est étoffé à une vitesse vertigineuse. Clonage vocal en 10 minutes avec ElevenLabs, modules de superposition faciale pour les appels vidéo, phishing automatisé avec ChatGPT… Les outils pullulent sur Telegram ou le dark web, à des prix accessibles. Une suite comme GoMailPro, est vendue 500 dollars par mois. Elle permet d’automatiser les attaques de phishing avec des réponses dynamiques générées par IA. Le rapport mentionne des systèmes vocaux IA commercialisés autour de 20 000 dollars capables de simuler des voix humaines dans plusieurs langues, simultanément, sans opérateur humain. Ce qui relevait de la science-fiction en 2020 est aujourd’hui vendu comme une solution “clé en main”.
Des modèles comme WormGPT ou GhostGPT — versions débridées de grands modèles de langage — permettent aux attaquants de produire des scripts, adapter leur ton à la cible et réagir en temps réel. Une sophistication jusqu’alors réservée à des groupes très organisés, désormais à la portée de cyberdélinquants isolés. Le résultat : un cybercrime plus agile, plus rapide, plus difficile à détecter.
Une confiance numérique fracturée
Ce que révèle ce rapport, c’est aussi une crise de confiance systémique. “Les voix réelles et générées par IA sont désormais indiscernables”, notent les auteurs. Le FBI alerte déjà sur des campagnes de fraude lors d’entretiens d’embauche ou de réunions où la vidéo d’un cadre dirigeant est simulée avec une superposition faciale. Plus inquiétant encore ! Il y a des cas réels de faux enlèvements ou de chantage sexuel qui utilisent des voix clonées. Cela a été recensé au Canada, en Italie et en France.
L’exemple de la journaliste Anne-Claire Coudray, utilisée à son insu dans une fausse vidéo promotionnelle, montre que même des figures publiques ne sont plus à l’abri. L’ingénierie sociale est déjà un point d’entrée classique pour les cyberattaques. On entre dans une nouvelle ère dans laquelle la preuve visuelle ou auditive ne vaut plus rien. Les entreprises ne peuvent plus se fier à leur instinct, ni à des vérifications manuelles. La seule parade devient systémique. Elle repose sur l’authentification forte, une sensibilisation permanente et des outils d’analyse avancés. Car une chose est certaine : les deepfakes ne sont plus une menace latente. Ils sont déjà intégrés aux mécanismes d’attaque à l’échelle mondiale.
Article basé sur un communiqué de presse reçu par la rédaction.