Pendant longtemps, Internet a entretenu l’idée rassurante d’une séparation nette entre la vie publique et la sphère privée. On écrit, on cherche, on questionne, persuadé que ces échanges restent confinés à l’écran. Les assistants conversationnels ont renforcé ce sentiment, avec leur ton calme, presque empathique, et la promesse implicite de confidentialité. Mais cette frontière supposée se fissure dès qu’on regarde ce qui se cache derrière certaines extensions installées en toute confiance.
Depuis des mois, des millions d’utilisateurs dialoguent avec des IA comme OpenAI via ChatGPT ou Anthropic avec Claude, livrant parfois des fragments très intimes de leur existence : soucis de santé, dilemmes personnels, informations professionnelles sensibles. En face, une machine disponible en permanence, qui ne juge pas et semble tenir sa langue. Sauf que cette confiance repose souvent sur une illusion. Derrière l’interface, chaque mot peut être aspiré, analysé… voire revendu. C’est là qu’intervient Urban VPN Proxy. Présentée comme un outil gratuit de protection, cette extension a séduit plus de six millions d’utilisateurs. Une enquête du média Koi a pourtant mis en lumière un tout autre fonctionnement. L’extension injecte des scripts invisibles dans les pages des principaux services d’IA — ChatGPT, Claude, Gemini, Perplexity ou Grok — afin d’intercepter les requêtes, les réponses, les horaires de connexion et diverses métadonnées. Ces données sont ensuite compressées, envoyées vers les serveurs d’Urban VPN, puis transmises à des partenaires tiers.
Le plus troublant, c’est l’absence totale de contrôle. La collecte démarre dès l’installation, continue même lorsque le VPN est désactivé et ne peut pas être interrompue par l’utilisateur. Selon Forbes, cette fonctionnalité aurait été ajoutée en juillet 2025 via une mise à jour silencieuse. Officiellement, l’éditeur, Urban Cyber Security Inc., affirme agir pour la « protection de l’utilisateur ». Mais sa politique de confidentialité indique clairement que les données sont partagées avec BiScience, une société spécialisée dans l’analyse comportementale. Autre élément dérangeant : l’extension bénéficie d’un badge « Featured » sur le Chrome Web Store de Google. Ce label suggère une validation manuelle et une conformité aux bonnes pratiques. Pourtant, l’outil intercepte aussi des données issues de Gemini, le chatbot maison de Google. Pour Futurism, cette situation interroge sérieusement la rigueur des processus de validation et la responsabilité des grandes plateformes. Au final, le constat est brutal. On installe un VPN pour se protéger, et l’on se retrouve surveillé. On parle à une IA comme à un confident, et l’on alimente une économie discrète de la donnée. Derrière le discours rassurant de la sécurité numérique, la logique reste la même : celle d’une surveillance bien huilée, souvent invisible, et rarement consentie.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.