Une vidéo montre un politique qui fait des aveux. Une star qui fait la promo d’une arnaque,… le nombre des deepfakes sur Facebook a été multiplié par dix entre 2022 et 2023. Et il faut maintenant apprendre à les reconnaître.
Les outils de deepfake super accessibles
Il y a quelques années, pour créer un deepfake, il fallait être un expert. Aujourd’hui, plein d’applis grand public permettent de faire ça en quelques clics. Et ça a provoqué une explosion de faux contenus. On s’en sert pour des arnaques financières, mais de plus en plus, pour de la désinformation politique. Le défi, ce n’est donc plus seulement de créer le faux, mais de l’identifier.
L’examen visuel et auditif, votre première arme
Avant de sortir l’artillerie lourde, vous pouvez apprendre à repérer les défauts que l’IA a encore du mal à cacher. D’abord, concentrez-vous sur le regard. Il peut avoir l’air vitreux ou ne pas bouger en même temps que la tête. Un clignement des yeux absent ou bizarre, c’est aussi un gros indice.
Ensuite, les expressions du visage. S’il y a un décalage entre l’émotion dans la voix et l’expression du visage, c’est louche. Soyez attentif aux détails. L’IA gère mal les mèches de cheveux qui apparaissent et disparaissent. Une dentition trop parfaite ou des reflets anormaux sur des lunettes, ce sont tous des signes. Et enfin, écoutez juste le son. Une voix monotone, robotique, sans les bruits de fond ni respiration, c’est suspect.
Les outils techniques de vérification
Si l’œil et l’oreille ne suffisent plus, il y a des outils. D’abord, la recherche d’image inversée. C’est simple. Vous prenez une capture d’écran d’un moment clé de la vidéo, et vous la balancez sur Google Images ou TinEye. Si l’image source apparaît dans un contexte totalement différent et plus ancien, c’est que c’est une manipulation.
Une autre méthode efficace, c’est de ralentir la vitesse de lecture de la vidéo. À 0.25x, les défauts de synchronisation des lèvres et les transitions bizarres sur le visage deviennent bien plus évidents. Et pour aller plus loin, il existe des outils spécialisés, comme le « Deepfake Detector » du gouvernement britannique ou « InVid WeVerify », qui permettent d’examiner les données cachées du fichier.
Et les plateformes, elles font quoi ?
Face à cela, les grandes plateformes ont commencé à réagir. En février 2024, Meta a annoncé qu’ils allaient mettre une étiquette sur les images générées par IA sur Facebook et Instagram. YouTube et TikTok ont fait pareil. De plus, ils exigent des créateurs qu’ils signalent les contenus synthétiques réalistes.
Le problème, c’est que ça repose souvent sur l’honnêteté des créateurs ou sur des systèmes de détection qui sont déjà à la traîne. L’étiquetage, c’est un progrès, mais ce n’est pas une garantie.
Votre meilleure arme, c’est votre esprit critique
La technologie de détection a ses limites. La meilleure défense, ça reste votre cerveau. Avant de partager un contenu, posez-vous les bonnes questions. Qui a publié cette vidéo ? Un média connu ou un compte anonyme qui vient d’être créé ? Ensuite, cherchez la source originale. Si un politique faisait une déclaration aussi énorme, les grands médias en parleraient. Si personne n’en parle, c’est un gros signal d’alerte.
Et enfin, demandez-vous pourquoi cette vidéo a été faite. Est-ce qu’elle cherche à vous informer ? Ou à provoquer une réaction émotionnelle forte, comme la colère ou la peur ? La désinformation, ça joue toujours sur l’émotion. Le premier réflexe ne doit plus être de partager; mais de questionner.
