Une étude approfondie menée par Search Atlas a révélé que six grandes plateformes de grands modèles de langage ne présentent aucune fuite de données d'informations sensibles des utilisateurs, répondant ainsi aux préoccupations généralisées en matière de vie privée tout en mettant en lumière les problèmes persistants d'hallucination de l'IA. La recherche, qui a évalué OpenAI, Gemini, Perplexity, Grok, Copilot et Google AI Mode à travers des expériences contrôlées simulant des scénarios d'exposition de données dans le pire des cas, apporte une réassurance significative aux entreprises et aux particuliers préoccupés par la confidentialité lors de l'utilisation d'outils d'IA.
La méthodologie de l'étude a consisté à introduire des faits uniques et non publics à chaque modèle via des invites directes et des résultats de recherche web simulés, puis à tester si ces faits pouvaient être récupérés lors d'interactions ultérieures sans accès à la recherche. Sur toutes les plateformes, les chercheurs n'ont trouvé aucune preuve que les modèles conservaient ou restituaient les informations sensibles, avec zéro réponse correcte produite après l'exposition initiale. Les détails complets de l'étude sont disponibles sur https://searchatlas.com.
Une expérience clé a révélé des différences de comportement entre les plateformes lors du traitement d'informations inconnues. OpenAI, Perplexity et Grok avaient tendance à répondre avec incertitude, fournissant fréquemment des réponses « Je ne sais pas » lorsque des informations fiables faisaient défaut. En revanche, Gemini, Copilot et Google AI Mode étaient plus enclins à générer des réponses confiantes mais incorrectes. De manière cruciale, aucune de ces réponses incorrectes ne correspondait aux informations privées précédemment fournies, démontrant ainsi que l'hallucination – la fabrication d'informations incorrectes – est distincte de la fuite de données.
La deuxième expérience a examiné si les informations récupérées via une recherche web en direct persisteraient une fois l'accès à la recherche désactivé. Les chercheurs ont sélectionné un événement réel survenu après la date limite d'entraînement de tous les modèles pour s'assurer que les réponses correctes ne pouvaient provenir que d'une récupération en direct. Lorsque la recherche était activée, les modèles répondaient correctement à la plupart des questions, mais une fois la recherche désactivée, ces réponses correctes disparaissaient en grande partie. Cela indique que les modèles ne stockent pas ni ne conservent les faits obtenus lors d'interactions antérieures via des mécanismes de récupération.
Pour les entreprises et les utilisateurs soucieux de la vie privée, ces résultats suggèrent que les informations sensibles partagées lors d'une session d'IA unique agissent davantage comme une « mémoire de travail » temporaire plutôt que d'être absorbées dans une mémoire durable qui pourrait être révélée à d'autres utilisateurs. Cela répond à une préoccupation majeure dans l'adoption de l'IA en entreprise – la crainte que des stratégies commerciales propriétaires ou des détails privés ne soient divulgués à d'autres utilisateurs via le système d'IA.
L'étude souligne que si les préoccupations concernant les fuites de données semblent infondées d'après cette recherche, l'hallucination reste un véritable défi. Les plateformes présentant une précision moindre – Gemini, Copilot et Google AI Mode – n'y sont pas parvenues en répétant des informations précédemment reçues, mais en générant des réponses plausibles mais incorrectes. Cette distinction est cruciale pour l'évaluation des risques, car elle déplace l'attention des préoccupations de vie privée vers les exigences de vérification de la précision.
Pour les développeurs et les créateurs d'IA, la recherche souligne l'importance des systèmes basés sur la récupération comme la Génération Augmentée par Récupération (RAG), qui connectent les modèles à des bases de données en direct ou à des systèmes de recherche. Ces approches restent la méthode la plus fiable pour garantir des réponses précises concernant les événements actuels, les informations propriétaires ou les données fréquemment mises à jour, car les modèles ne disposent pas de mécanismes intégrés pour conserver les faits découverts lors d'interactions antérieures sans de tels systèmes.
Les implications s'étendent aux chercheurs et aux vérificateurs de faits, soulignant que les LLM ne peuvent pas « apprendre » des corrections fournies dans des conversations précédentes. Si un modèle contient des erreurs dans ses données d'entraînement sous-jacentes, il peut persister à répéter ces erreurs à moins que le modèle ne soit réentraîné ou que des sources correctes ne soient fournies à nouveau. Cette limitation souligne la nécessité d'une vérification continue du contenu généré par l'IA, en particulier dans des contextes où la précision est primordiale.
Manick Bhan, fondateur de Search Atlas, a noté qu'une grande partie des préoccupations concernant l'adoption de l'IA en entreprise découle d'hypothèses non testées sur les fuites de données, et cette étude visait à tester rigoureusement ces hypothèses dans des conditions contrôlées. Bien que l'IA ne soit pas sans risque – l'hallucination étant un problème documenté – la crainte spécifique que des données puissent être divulguées à un autre utilisateur n'a été étayée par aucune preuve sur aucune des plateformes évaluées.
Ces résultats pourraient accélérer l'adoption de l'IA dans des secteurs où la sensibilité des données a été un obstacle, comme la santé, la finance et les services juridiques. Les organisations peuvent désormais utiliser des outils d'IA avec une plus grande confiance concernant la protection des données, mais elles doivent maintenir des processus de vérification robustes pour faire face aux risques d'hallucination. L'étude fournit un cadre plus clair pour comprendre les risques réels et perçus de l'IA, permettant une prise de décision plus éclairée concernant les stratégies de mise en œuvre de l'IA.


