Choose Language

Retour au blog
Vérification d'identité Claude et confidentialité de l'IA

Claude exige désormais une carte d'identité de ses utilisateurs. Visage, passeport, conversations. Tout sera-t-il lié ?

Un scan de selfie et d'identité pour utiliser l'IA ? Pas avec nous. Comment protéger votre identité avec des modèles locaux et des assistants IA respectueux de la vie privée comme xPrivo.

Soyons honnêtes : vous avez choisi Claude parce que vous pensiez que c'était l'alternative la plus sûre.

Peut-être avez-vous quitté ChatGPT pour Claude en février 2026, lorsqu'OpenAI a annoncé le déploiement de son IA dans les réseaux classifiés du Pentagone. Peut-être avez-vous été impressionné par la promesse d'une « IA responsable » d'Anthropic. Ou vous vous êtes simplement dit : « C'est l'option la plus sérieuse. »

Et maintenant, Claude pourrait bien exiger votre pièce d'identité.

Ce n'est pas une exagération. Depuis le 14 avril 2026, Anthropic a publié une page officielle dans son centre d'aide imposant la vérification d'identité pour certains utilisateurs, traitée par un prestataire tiers nommé Persona. Vous soumettez une pièce d'identité officielle avec photo. Vous y ajoutez un selfie en direct. Ce n'est qu'ensuite que vous pouvez continuer à utiliser l'outil. Vous pouvez consulter le texte original directement dans le centre d'aide de Claude ici.

Ce qui se passe actuellement chez Claude

Anthropic a externalisé son processus de vérification auprès du fournisseur Persona Identities, la même société de KYC (Know Your Customer) utilisée par Discord.

Les documents d'identité physiques tels que le passeport, le permis de conduire ou la carte nationale d'identité sont acceptés. En revanche, les photocopies, les identifiants numériques et les cartes d'étudiant sont refusés. De plus, un selfie en direct peut être exigé.

Anthropic souligne que les données sont stockées chez Persona, et non sur les propres serveurs d'Anthropic, et qu'elles ne sont pas utilisées pour l'entraînement des modèles. En outre, Persona est contractuellement limité à l'utilisation des données exclusivement à des fins de vérification.

Cela semble rassurant, mais ce ne l'est pas vraiment.

À partir du moment de la vérification, il existe un lien direct et juridiquement exploitable entre votre nom civil, votre date de naissance et votre photo de passeport d'une part, et chaque prompt, chaque document téléchargé, chaque question médicale, chaque secret commercial et chaque opinion politique d'autre part. Inquiétant, n'est-ce pas ?

Le nom, le visage et la date de naissance ne peuvent pas être modifiés. Une fois que ces données sont liées à un historique de conversation IA, ce lien est permanent.


Un regard vers Strasbourg : ce qui arrive quand une IA connaît l'utilisateur

Avant d'aller plus loin, il convient d'examiner ce qui est déjà possible aujourd'hui lorsqu'une plateforme d'IA connaît ou peut transmettre l'identité d'un utilisateur.

Par exemple, le 3 avril 2026, un homme de 37 ans originaire de Strasbourg a demandé à ChatGPT comment obtenir une arme pour « tuer un agent secret de la CIA, du Mossad ou de la DGSI ». Quelques heures plus tard, le RAID, l'unité d'élite de la police française, frappait à sa porte. Il a été arrêté puis relâché le lendemain, le parquet n'ayant pas retenu d'infraction grave. Il avait « simplement interrogé une IA ».

Il a déclaré par la suite avoir voulu « tester la fiabilité et la surveillance de l'intelligence artificielle ». La réponse ne s'est pas fait attendre.

La chaîne qui a déclenché cette intervention du RAID mérite une lecture attentive : ChatGPT a signalé le message. Le système de modération d'OpenAI l'a transmis à des réviseurs humains. Le FBI a été informé. Ce dernier a déposé un rapport sur PHAROS, la plateforme nationale française de signalement des contenus illicites en ligne. La police française a ensuite agi. Tout cela s'est déroulé en quelques heures sur deux continents, déclenché par un seul message de chat dans ce que la plupart des utilisateurs considèrent encore comme une conversation privée.

Dans ses propres documents, OpenAI stipule : « Lorsque nous identifions des utilisateurs qui prévoient de nuire à autrui, nous transmettons leurs conversations à des pipelines spécialisés. Elles y sont examinées par une petite équipe habilitée à prendre des mesures, y compris la notification des autorités chargées de l'application de la loi. »

Ce n'est pas une exception.


Ceux qui pensaient « juste faire une blague » l'apprennent à leurs dépens

L'homme de Strasbourg a testé quelque chose ou du moins c'est ce qu'il prétend. L'infrastructure sous-jacente ne fait pas automatiquement la différence.

OpenAI est une entreprise américaine opérant sous le droit américain et disposant d'un canal de signalement direct vers le FBI. Le FBI entretient à son tour des liens établis avec les forces de l'ordre européennes via des plateformes comme PHAROS. Cette chaîne est active. Elle a fonctionné en temps réel. Chaque conversation que les utilisateurs ont avec ChatGPT passe par ce pipeline et est automatiquement scannée, potentiellement examinée manuellement et éventuellement transmise aux autorités fédérales américaines.

On peut maintenant imaginer ce qui devient possible lorsqu'une pièce d'identité officielle vérifiée est en plus enregistrée dans le profil. Ce n'est plus un compte anonyme qui peut être bloqué. C'est une personne avec un nom, un visage et une adresse, directement identifiable.

Par ailleurs, Anthropic a refusé de mettre son IA Claude à disposition pour la surveillance de masse des citoyens lorsque le ministère américain de la Défense en a fait la demande. Cela ne rend pas pour autant Anthropic innocent en matière de surveillance. Le public ignore quels accords ont été conclus ensuite à huis clos. Par la suite, le Pentagone s'est tourné vers OpenAI, l'entreprise dont le produit est utilisé quotidiennement par des centaines de millions de personnes comme assistant personnel.


« Persona est sérieux. » Mais est-ce assez sûr ?

Anthropic a choisi Persona en raison de ses contrôles de confidentialité et de ses normes de sécurité étendus. C'est, au premier abord, une formulation rassurante.

En octobre 2025, une fuite de données chez Discord a exposé environ 70 000 pièces d'identité officielles que les utilisateurs y avaient soumises pour la vérification de l'âge. Persona semble être une entreprise sérieuse à première vue. Mais aucun prestataire tiers n'est à l'abri d'une violation de données. L'histoire de l'industrie du KYC est parsemée de promesses qui ont échoué face à la réalité.

Et même si Persona était techniquement irréprochable : en vertu du US CLOUD Act, le gouvernement américain peut contraindre les entreprises américaines à remettre des données, quel que soit l'endroit où se trouvent les serveurs. Persona est basé aux États-Unis. Anthropic est basé aux États-Unis. Ces données sont soumises au droit américain.


Une ironie difficile à supporter

En février 2026, des millions d'utilisateurs ont migré de ChatGPT vers Claude car OpenAI avait signé un contrat pour l'utilisation de l'IA dans les réseaux gouvernementaux classifiés. Anthropic a enregistré des records d'inscription et une augmentation de 60 % des utilisateurs gratuits depuis janvier. L'argument des utilisateurs était partout le même : « Claude est l'alternative la plus respectueuse de la vie privée. »

Deux mois plus tard, Claude devient le premier grand fournisseur d'IA à exiger une pièce d'identité pour son utilisation.

Ceux qui s'étaient détournés d'un fournisseur pour des raisons de protection des données se retrouvent maintenant chez un prestataire qui souhaite lier l'identité légale à chaque interaction avec l'IA.


Ce qui est une exception aujourd'hui deviendra la norme demain

Dans quelques années, cela sera peut-être même la règle : pas d'accès aux assistants IA sans pièce d'identité. Pas de requêtes anonymes. Pas de travail privé. Tout est lié, tout est mémorisable, tout est potentiellement livrable en temps réel, par-delà les continents.


Et pour les utilisateurs européens, un élément s'ajoute

En tant qu'Européen, on dispose sur le papier de droits de protection particuliers avec le RGPD. Mais ces droits ne s'appliquent que si le traitement des données a lieu dans l'espace juridique européen.

Quiconque envoie sa photo de passeport à Persona fait sortir ces données d'Europe. Elles finissent chez une entreprise américaine, sur des serveurs américains, sous le droit américain. Même si Anthropic affirme agir en conformité avec le RGPD : le contrôle effectif de ces données ne se trouve pas à Bruxelles. Il se trouve aux États-Unis.

De plus, la plupart des utilisateurs ne savent pas exactement quand la vérification est déclenchée. Anthropic parle vaguement de « certaines fonctionnalités », de « contrôles d'intégrité de la plateforme » et de « mesures de sécurité ». Le moment où les utilisateurs seront concrètement sollicités reste flou. La demande d'identité finit par arriver de manière surprenante, inévitable et obligatoire.


La seule véritable issue : l'IA anonyme

Il existe précisément deux manières d'échapper à ce scénario.

Premièrement : utiliser un service d'IA qui ne demande tout simplement jamais votre identité. Pas de compte. Pas de pièce d'identité. Aucun lien entre votre nom et vos chats.

Deuxièmement : faire fonctionner l'IA localement sur son propre matériel. Aucun fournisseur de cloud ne voit les données. Aucun prestataire tiers ne détient votre identité. Aucune loi américaine ne peut accéder à ce qui n'a jamais quitté votre propre ordinateur.

Ces deux voies sont possibles aujourd'hui avec xPrivo.

xPrivo est une initiative européenne visant à permettre aux citoyens d'utiliser l'IA sans divulguer leur identité. Il peut être utilisé immédiatement sur le web sans compte ni vérification, ou être téléchargé pour fonctionner entièrement localement sur votre propre machine.

Concrètement, cela signifie : aucun lien entre l'identité légale et les requêtes, aucune entreprise américaine ne stocke l'historique des conversations, aucune vulnérabilité aux fuites de données KYC et aucune obligation de livraison des données sous le US CLOUD Act.

xPrivo peut au choix être connecté à des fournisseurs d'inférence européens comme Scaleway ou fonctionner complètement hors ligne avec des modèles locaux via Ollama. Ainsi, il est possible d'exécuter localement un petit modèle Mistral ou de faire tourner le nouveau modèle Gemma 4 sur son propre ordinateur et de l'utiliser directement via xPrivo.


Les modèles locaux ne sont pas encore parfaits, mais ils le deviendront

Certes, les modèles de langage locaux n'atteignent pas encore toujours les performances des plus grands modèles cloud d'OpenAI, Anthropic et Google. C'est la vérité. Mais l'écart se réduit plus vite que prévu. Les modèles open source comme ceux de Mistral sont par exemple déjà plus que suffisants pour la plupart des tâches quotidiennes.

Plus les gens passeront à une IA locale et souveraine, plus l'écosystème correspondant se développera rapidement et plus ces modèles évolueront vite. Les utilisateurs ne devraient pas être de simples consommateurs. Ils devraient pouvoir décider de la direction que prend l'IA. C'est ainsi que nous procédons chez xPrivo, où nous tenons toujours compte des besoins et des exigences de nos utilisateurs.


Conclusion

La décision d'Anthropic d'introduire la vérification d'identité est un pas dans la mauvaise direction.

La fenêtre de tir permettant d'utiliser l'IA de manière anonyme sans passeport, sans selfie, sans lien permanent entre l'identité et ses propres pensées est en train de se refermer. Pas à cause d'une loi. Mais parce que les grands fournisseurs le veulent ainsi.

Personne n'est obligé d'accepter cela.

xPrivo repose sur le principe de Privacy-by-Design et de souveraineté européenne. Aucun compte requis. Aucune pièce d'identité. Aucun suivi. Juste l'utilisateur et son IA.

Vous pouvez l'essayer immédiatement sur le web à l'adresse xprivo.com de manière anonyme et sans inscription ou télécharger le code source pour l'héberger vous-même.

Les outils pour une utilisation anonyme et souveraine de l'IA existent déjà. La question est simplement de savoir s'ils seront utilisés avant que la pièce d'identité ne devienne obligatoire.