Alors que les chatbots se multiplient dans notre quotidien numérique, une étude récente de Surfshark révèle une montée inquiétante de la collecte de données personnelles.
Une analyse récente de Surfshark révèle que les chatbots collectent une quantité croissante de données personnelles. Certaines informations sont particulièrement sensibles. Cela va de la localisation aux contenus médicaux ou fiscaux. Cette évolution soulève des questions cruciales sur la confidentialité et la transparence des plateformes.
Une collecte de données en nette progression
L’analyse menée par Surfshark montre que tous les chatbots étudiés récoltent désormais des informations sur leurs utilisateurs. En moyenne, chaque application récupère 14 types de données sur 35 possibles, un chiffre en constante augmentation. Parmi ces données figurent les contacts, l’historique de navigation et les contenus saisis par les utilisateurs.
La localisation devient un point central. 70 % des applications suivent désormais les déplacements des utilisateurs, contre 40 % l’année précédente. Même ChatGPT voit son volume de collecte augmenter de 70 % en un an.
Données sensibles et usages quotidiens
Contrairement aux moteurs de recherche classiques, les chatbots traitent maintenant des contenus qui peuvent être sensibles. C’est le cas des documents fiscaux ou des informations médicales. Tomas Stamulis, Chief Security Officer chez Surfshark, alerte sur le fait que ces informations peuvent être exploitées pour des campagnes publicitaires et partagées avec des tiers.
Meta AI est particulièrement intrusif. Il touche 33 types de données sur 35, suivi par Google Gemini avec 23 types. Cela concerne la localisation précise et des contenus personnels. Certaines données concernent même des informations intimes telles que les opinions politiques, croyances religieuses, orientation sexuelle ou biométrie.
ChatGPT et le cadre européen de protection
D’après l’App Store d’Apple, ChatGPT collecte aujourd’hui 17 types de données, contre 10 l’an passé. Si la majorité sert au fonctionnement du service, certaines sont utilisées pour l’analyse des usages, la personnalisation ou le marketing, parfois par des partenaires tiers. Dans un cadre européen encadré par le RGPD, ces pratiques soulèvent des questions sur la proportionnalité et la transparence des collectes, ainsi que sur le partage avec des acteurs externes. L’étude souligne également des disparités géographiques. Certaines plateformes stockent des données en dehors de l’Union européenne.
Face à ces évolutions, Surfshark recommande une vigilance renforcée. Il faut considérer chaque interaction comme potentiellement publique, vérifier régulièrement les paramètres de confidentialité et limiter le partage d’informations sensibles. Ces précautions apparaissent comme indispensables pour naviguer dans un écosystème numérique dans lequel l’intelligence artificielle s’immisce de plus en plus dans notre vie privée.
Article basé sur un communiqué de presse reçu par la rédaction.

