Claude verlangt jetzt die Personalausweise seiner Nutzer. Dein Gesicht, dein Pass, deine Chats. Alles verknüpft?
Selfie- und Personalausweisscan für die Nutzung von KI? Nicht mit uns. Wie du deine Identität mit lokalen Modellen und datenschutzfreundlichen KI-Assisten wie xPrivo schützen kannst.
Hand aufs Herz: Du hast Claude gewählt, weil du dachtest, es sei die sicherere Alternative.
Vielleicht bist du im Februar 2026 von ChatGPT zu Claude gewechselt, als OpenAI bekannt gab, seine KI in klassifizierten Pentagon-Netzwerken einzusetzen. Vielleicht hat dich Anthropics Versprechen von „verantwortungsvoller KI” beeindruckt. Oder du hast einfach gedacht: „Das ist die seriöse Option.”
Und jetzt verlangt Claude möglicherweise deinen Personalausweis.
Das ist keine Übertreibung. Seit dem 14. April 2026 hat Anthropic eine offizielle Seite in seinem Help Center veröffentlicht, die Identitätsverifizierung für bestimmte Nutzer vorschreibt, verarbeitet durch einen Drittanbieter namens Persona. Du gibst einen staatlich ausgestellten Lichtbildausweis ab. Dazu ein Live-Selfie. Dann darfst du weiterpromten. Den Originaltext kannst du hier direkt im Claude Help Center nachlesen.
Was bei Claude gerade passiert
Anthropic hat seinen Verifizierungsprozess an den Anbieter Persona Identities ausgelagert, dasselbe KYC-Unternehmen, das auch von Discord genutzt wird.
Akzeptiert werden physische Ausweisdokumente wie Reisepass, Führerschein oder nationaler Personalausweis. Fotokopien, digitale IDs und Studentenausweise werden hingegen abgelehnt. Zusätzlich kann ein Live-Selfie verlangt werden.
Anthropic betont, dass die Daten bei Persona gespeichert werden, nicht auf eigenen Servern von Anthropic, und dass sie nicht zum Modelltraining verwendet werden. Zudem sei Persona vertraglich darauf beschränkt, die Daten ausschließlich für Verifikationszwecke zu nutzen.
Das klingt beruhigend, ist es aber nicht wirklich.
Ab dem Zeitpunkt der Verifizierung besteht ein direkter, rechtlich verwertbarer Zusammenhang zwischen deinem bürgerlichen Namen, deinem Geburtsdatum und deinem Passfoto einerseits und jedem Prompt, jedem hochgeladenen Dokument, jeder medizinischen Frage, jedem Geschäftsgeheimnis und jeder politischen Meinung andererseits. Beunruhigend, nicht wahr?
Namen, Gesicht und Geburtsdatum lassen sich nicht ändern. Sobald diese Daten mit einer KI-Gesprächshistorie verknüpft sind, ist dieser Zusammenhang permanent.
Ein Blick nach Straßburg: Was passiert, wenn eine KI den Nutzer kennt
Bevor es weitergeht, lohnt sich ein Blick darauf, was bereits heute möglich ist, wenn eine KI-Plattform die Identität eines Nutzers kennt oder weitergeben kann.
So fragte beispielsweise ein 37-jähriger Mann aus Straßburg am 3. April 2026 ChatGPT, wie er an eine Waffe kommen könne, um „einen Geheimagenten der CIA, des Mossad oder der DGSI zu töten”. Wenige Stunden später stand das französische Elitepolizeikommando RAID vor seiner Tür. Er wurde festgenommen und einen Tag später wieder freigelassen, da die Staatsanwaltschaft kein schwerwiegendes Vergehen sah. Er habe „lediglich eine KI befragt”.
Er sagte im Nachhinein selbst, er habe „die Zuverlässigkeit und Überwachung von künstlicher Intelligenz testen” wollen. Die Antwort kam schnell.
Die Kette, die diesen RAID-Besuch ausgelöst hat, ist es wert, aufmerksam gelesen zu werden: ChatGPT hat die Nachricht markiert. OpenAIs Moderationssystem hat sie an menschliche Prüfer eskaliert. Das FBI wurde benachrichtigt. Dieses hat einen Bericht auf PHAROS eingereicht, Frankreichs nationale Plattform zur Meldung illegaler Online-Inhalte. Die französische Strafverfolgung hat daraufhin gehandelt. All das ist innerhalb weniger Stunden auf zwei Kontinenten passiert, ausgelöst durch eine einzige Chatnachricht – in dem, was die meisten Nutzer immer noch für ein privates Gespräch halten.
In OpenAIs eigenen Dokumenten steht dazu: „Wenn wir Nutzer erkennen, die planen, anderen Schaden zuzufügen, leiten wir ihre Gespräche an spezialisierte Pipelines weiter. Dort werden sie von einem kleinen Team überprüft, das befugt ist, Maßnahmen zu ergreifen, einschließlich der Benachrichtigung von Strafverfolgungsbehörden.”
Das ist keine Ausnahme.
Wer "nur einen Witz gemacht" hat, lernt es auf die harte Tour
Der Mann aus Straßburg hat etwas getestet — oder behauptet das zumindest. Die Infrastruktur dahinter unterscheidet das nicht automatisch.
OpenAI ist ein amerikanisches Unternehmen, das unter US-Recht operiert und über eine direkte Meldepipeline zum FBI verfügt. Das FBI unterhält wiederum etablierte Verbindungen zu europäischen Strafverfolgungsbehörden über Plattformen wie PHAROS. Diese Kette ist aktiv. Sie hat in Echtzeit funktioniert. Jedes Gespräch, das Nutzer mit ChatGPT führen, durchläuft diese Pipeline und wird automatisch gescannt, potenziell manuell geprüft und möglicherweise an US-Bundesbehörden weitergeleitet.
Nun lässt sich ausmalen, was möglich wird, wenn zusätzlich ein verifizierter Regierungsausweis im Profil hinterlegt ist. Es ist kein anonymes Konto, das gesperrt werden kann. Sondern eine Person mit Namen, Gesicht und Adresse, die direkt abrufbar ist.
Anthropic hat es übrigens abgelehnt, seine KI Claude für die Massenüberwachung von Bürgern bereitzustellen, als das US-Verteidigungsministerium anfragte. Das macht Anthropic in Sachen Überwachung jedoch lange noch nicht unschuldig. Die Öffentlichkeit weiß nicht, welche Deals danach hinter verschlossenen Türen stattgefunden haben. Daraufhin wandte sich das Pentagon an OpenAI, das Unternehmen, dessen Produkt täglich von Hunderten Millionen Menschen als persönlicher Assistent genutzt wird.
"Persona ist seriös." Aber sicher genug?
Anthropic hat sich für Persona entschieden, da es über umfassende Datenschutzkontrollen und Sicherheitsstandards verfügt. Das ist zunächst einmal eine beruhigende Formulierung.
Im Oktober 2025 wurden bei einem Datenleck bei Discord rund 70.000 staatliche Ausweise offengelegt, die Nutzer dort zur Altersverifikation eingereicht hatten. Persona ist scheint auf den ersten Blick ein seriöses Unternehmen zu sein. Aber kein Drittanbieter ist immun gegen Datenpannen. Die Geschichte der KYC-Industrie ist voll von Versprechen, die an der Realität gescheitert sind.
Und selbst wenn Persona technisch einwandfrei wäre: Unter dem US CLOUD Act kann die US-Regierung amerikanische Unternehmen zur Herausgabe von Daten zwingen, unabhängig davon, wo die Server stehen. Persona sitzt in den USA. Anthropic sitzt in den USA. Diese Daten unterliegen US-Recht.
Die Ironie, die kaum zu ertragen ist
Im Februar 2026 wechselten Millionen Nutzerinnen und Nutzer von ChatGPT zu Claude, da OpenAI einen Vertrag zur KI-Nutzung in klassifizierten Regierungsnetzwerken unterzeichnet hatte. Anthropic meldete Rekord-Anmeldezahlen und einen Anstieg der kostenlosen Nutzenden um 60 Prozent seit Januar. Die Begründung der Nutzer war überall dieselbe: „Claude ist die datenschutzfreundlichere Alternative.”
Zwei Monate später verlangt Claude als erster großer KI-Anbieter überhaupt einen Ausweis zur Nutzung.
Wer sich aus Datenschutzgründen von einem Anbieter abgewandt hat, landet nun bei einem Anbieter, der die rechtliche Identität mit jeder KI-Interaktion verknüpfen möchte.
Was heute Ausnahme ist, wird morgen Standard
In wenigen Jahren wird das vielleicht sogar schon Standard sein: kein Zugang zu KI-Assistenten ohne Ausweis. Kein anonymes Prompten. Kein privates Arbeiten. Alles verknüpft, alles speicherbar, alles potenziell auslieferbar — in Echtzeit, über Kontinente hinweg.
Und für europäische Nutzer kommt noch etwas dazu
Als Europäerin oder Europäer verfügt man auf dem Papier über besondere Schutzrechte — Stichwort DSGVO. Aber diese Rechte greifen nur, wenn die Datenverarbeitung im europäischen Rechtsraum stattfindet.
Wer Persona sein Passfoto schickt, schickt diese Daten aus Europa fort. Sie landen bei einem US-Unternehmen, auf US-Servern, unter US-Recht. Auch wenn Anthropic beteuert, DSGVO-konform zu agieren: die faktische Kontrolle über diese Daten liegt nicht in Brüssel. Sie liegt in den USA.
Dazu kommt: Die meisten Nutzer wissen gar nicht, wann genau die Verifikation ausgelöst wird. Anthropic spricht vage von "bestimmten Funktionen", "Plattformintegritätsprüfungen" und "Sicherheitsmaßnahmen". Wann Nutzer konkret dran sind, bleibt unklar. Der Ausweis kommt irgendwann — überraschend, unvermeidbar, verpflichtend.
Der einzige echte Ausweg: Anonyme KI
Es gibt genau zwei Wege, diesem Szenario zu entkommen.
Erstens: Einen KI-Dienst nutzen, der die Identität schlicht nie verlangt. Kein Konto. Kein Ausweis. Keine Bindung zwischen Namen und Chats.
Zweitens: Die KI lokal auf eigener Hardware betreiben. Kein Cloud-Anbieter sieht die Daten. Kein Drittanbieter hält den Ausweis. Kein US-Gesetz kann auf etwas zugreifen, das den eigenen Rechner nie verlassen hat.
Beide Wege sind heute mit xPrivo möglich.
xPrivo ist eine europäische Initiative, die Menschen eine KI-Nutzung ohne Identitätspreisgabe ermöglichen soll. Es lässt sich ohne Account, Ausweis oder Verifikation sofort im Web nutzen oder herunterladen und vollständig lokal auf der eigenen Maschine betreiben.
Das bedeutet konkret: Es gibt keine Verknüpfung der rechtlichen Identität mit Prompts, kein US-Unternehmen speichert die Gesprächshistorien, es besteht keine Anfälligkeit für KYC-Datenpannen und es gibt keine Auslieferungspflicht unter dem US CLOUD Act.
xPrivo kann wahlweise mit europäischen Inferenz-Anbietern wie Scaleway verbunden werden oder komplett offline mit lokalen Modellen über Ollama betrieben werden. So lässt sich beispielsweise ein kleines Mistral-Modell lokal ausführen oder das neue Gemma-4-Modell auf dem eigenen Rechner betreiben und direkt über xPrivo nutzen.
Lokale Modelle sind noch nicht perfekt, werden es aber
Ja, lokale Sprachmodelle erreichen noch nicht immer die Leistung der größten Cloud-Modelle von OpenAI, Anthropic und Google. Das ist die ehrliche Wahrheit. Aber die Lücke schließt sich schneller als erwartet. Open-Source-Modelle wie die von Mistral sind beispielsweise für die meisten alltäglichen Aufgaben heute schon mehr als ausreichend.
Je mehr Menschen auf lokale und datensouveräne KI umsteigen, desto schneller wächst das entsprechende Ökosystem und desto schneller werden diese Modelle weiterentwickelt. Nutzer sollten nicht nur Konsumenten sein. Sie sollten mitentscheiden können, in welche Richtung sich KI entwickelt. So verfahren wir auch bei xPrivo, wo wir stets die Bedürfnisse und Anforderungen unserer Nutzer berücksichtigen.
Fazit
Die Entscheidung von Anthropic, Identitätsverifizierung einzuführen, ist ein Schritt in die falsche Richtung.
Das Fenster, in dem KI anonym genutzt werden kann — ohne Reisepass, ohne Selfie, ohne permanente Verknüpfung der Identität mit den eigenen Gedanken — schließt sich. Nicht wegen eines Gesetzes. Sondern weil die großen Anbieter es so wollen.
Das muss niemand akzeptieren.
xPrivo ist Privacy-by-Design und European-Sovereign-by-Design. Kein Account erforderlich. Kein Ausweis. Kein Tracking. Nur der Nutzer und seine KI.
Ausprobieren lässt es sich sofort im Web unter xprivo.com — anonym und ohne Anmeldung — oder der Quellcode lässt sich herunterladen und selbst betreiben.
Die Werkzeuge für anonyme, souveräne KI-Nutzung existieren bereits. Die Frage ist nur, ob sie genutzt werden, bevor der Ausweis zur Pflicht wird.