Perplexity, l'un des outils de recherche d'IA à la croissance la plus rapide à l'heure actuelle, est soudainement confronté à une forte chaleur. Et cette fois, il ne s’agit pas d’exactitude ou d’hallucinations.
Un nouveau procès soulève des questions inconfortables sur ce qui arrive réellement aux données des utilisateurs en coulisses, en particulier lorsque les gens supposent que leurs discussions sont privées. Et si les allégations ont un certain poids, cela pourrait être l’un de ces moments qui incitent de nombreux utilisateurs à repenser la façon dont ils partagent des informations avec les outils d’IA.
Le « mode incognito » de Perplexity est-il réellement privé ?
Selon un recours collectif récemment déposé par un utilisateur anonyme de Perplexity, John Doe, pas tout à fait. La plainte allègue que le soi-disant mode incognito de Perplexity est essentiellement une « imposture » qui ne parvient pas à protéger les données des utilisateurs comme la plupart des gens s'y attendraient.


Le procès affirme que les conversations des utilisateurs, y compris des sujets potentiellement sensibles tels que des conseils financiers, des problèmes de santé ou des questions juridiques, ont été partagées avec des tiers comme Google et Meta. Et comme le rapporte Ars Technicacela se produisait même lorsque les utilisateurs choisissaient explicitement le mode navigation privée, censé limiter le suivi et la collecte de données.


Ce qui est plus préoccupant, c'est le type de données prétendument impliquées. Les rapports suggèrent que des informations telles que les adresses IP, les identifiants de messagerie, les données de géolocalisation et même les transcriptions complètes des discussions peuvent avoir été transmises à des fins de ciblage publicitaire. Le procès accuse également Perplexity d'embarquer des outils de suivi similaires à ceux utilisés dans la publicité en ligne, sans en informer clairement les utilisateurs. Dans certains cas, il prétend même que des conversations entières pourraient être accessibles via des liens accessibles au public.
Pourquoi ce procès pourrait changer la façon dont nous faisons confiance à l'IA
Cela va au-delà d’une seule application, car les outils d’IA semblent personnels, ce qui facilite le partage excessif. Le procès affirme également que des années de discussions ont été partagées avec des géants de la publicité et que Perplexity ne fait pas clairement apparaître sa politique de confidentialité comme le font ses rivaux.
Si cela est vrai, cela pourrait imposer une transparence plus stricte sur les plateformes d’IA. Pour l’instant, ce ne sont que des allégations, mais suffisantes pour que la prochaine invite de l’IA semble un peu moins décontractée.








