Objets connectés : vos données personnelles en danger ?

Les objets connectés séduisent de plus en plus de Français. Mais derrière leur succès, ces gadgets collectent une quantité impressionnante de données personnelles. Une pratique qui soulève de réelles inquiétudes.

Les montres, lunettes et bagues connectées séduisent massivement les Français, mais leur succès s’accompagne d’une collecte massive de données personnelles. Selon une étude menée par Surfshark sur 24 applications compagnon de wearables populaires, certaines collectent jusqu’à 33 types d’informations sensibles, souvent à des fins publicitaires. Un constat qui interroge sur la frontière entre innovation et respect de la vie privée.

Une adoption massive, mais une collecte de données opaque

Montres intelligentes, lunettes augmentées ou bagues de suivi du sommeil : ces accessoires se sont imposés dans le quotidien des Français, notamment pour le sport et la santé. Derrière leur apparente utilité, ils enregistrent cependant bien plus que les simples données nécessaires à leur fonctionnement.

D’après Surfshark, « en moyenne, les applications associées aux montres connectées collectent 11 types de données sur 35 possibles, contre 9 pour les lunettes et 6 pour les bagues connectées ». Une pratique qui dépasse souvent le cadre fonctionnel, avec des informations utilisées à des fins de ciblage publicitaire. « Beaucoup sont aussi utilisées à des fins publicitaires », confirme Maud Lepetit, responsable France de l’entreprise. Cet appétit pour les données reflète une tendance globale dans l’écosystème numérique : transformer chaque interaction utilisateur en ressource exploitable pour le marketing ou l’IA.

Objets connectés : les risques pour vos données personnelles

Publicité ciblée et IA : les nouveaux risques des wearables

L’étude de Surfshark révèle que certaines marques ne se contentent pas de collecter, elles partagent également ces données avec des tiers. Les Meta AI Glasses, par exemple, enregistrent jusqu’à 24 types d’informations. Cela peut aller de la localisation aux contacts, en passant par les historiques financiers et de navigation. D’autres, comme CMF Watch ou Casio Watches, exploitent l’email et l’ID utilisateur pour du tracking. L’Ultrahuman Ring, quant à lui, transmet les données à des fins publicitaires tierces.

Ce phénomène prend une dimension encore plus critique avec l’intégration de l’intelligence artificielle. « Aujourd’hui, les utilisateurs portent parfois plusieurs objets connectés en simultané, ce qui multiplie les angles de collecte de données personnelles. Et avec l’intégration de l’IA dans ces systèmes, le risque d’exploitation de données sensibles, notamment biométriques, devient bien réel », alerte Maud Lepetit. La promesse de services intelligents et personnalisés se double donc d’un risque accru de surveillance algorithmique.

Un marché français dynamique, mais une vigilance limitée

En France, l’engouement pour ces objets ne faiblit pas. Pourtant, peu d’utilisateurs prennent le temps de lire les politiques de confidentialité des applications. Ces documents, souvent très longs, peuvent autoriser un partage étendu des données à des partenaires commerciaux. L’une d’elles atteignait même 12 125 mots, soit près de 20 pages Word. « On parle aujourd’hui de fatigue de la vie privée : les consommateurs sont submergés d’informations techniques, et finissent par valider sans lire », souligne Maud Lepetit.

Une passivité qui, selon elle, favorise une surveillance de masse sans consentement éclairé. Pour limiter les risques, Surfshark recommande d’ajuster les autorisations données aux applications, de désactiver les fonctions inutiles (micro, suivi en arrière-plan), ou encore d’utiliser un VPN pour sécuriser les échanges. Mais au-delà de ces bonnes pratiques, la question de la régulation et de la transparence des acteurs technologiques reste centrale.

Article basé sur un communiqué de presse reçu par la rédaction.

ARTICLES SIMILAIRES

GNU InetUtils telnetd : des attaquants contournent l’identification

Une faille de sécurité critique a récemment été révélée dans le telnetd de GNU InetUtils.

22 janvier 2026

Atlassian, GitLab et Zoom déploient des correctifs de sécurité

Les géants du logiciel Atlassian, GitLab et Zoom viennent de publier des correctifs de sécurité

22 janvier 2026

Chainlit AI : risques de vol de données et failles SSRF

Le framework Chainlit AI, largement adopté pour la création de chatbots conversationnels, présente des vulnérabilités

21 janvier 2026

Des serveurs MCP vulnérables dans Microsoft et Anthropic

Les serveurs MCP, composants essentiels dans l’infrastructure des assistants IA, se retrouvent au cœur d’une

21 janvier 2026

Fortinet corrige des failles dans FortiFone et FortiSIEM

Fortinet, acteur majeur reconnu dans le domaine de la cybersécurité, vient de publier une correction

14 janvier 2026

PME : la cybermenace grandit dans l’ombre

Les PME françaises sont devenues la cible n°1 des cyberattaques. La double authentification (MFA) s’impose

13 janvier 2026