Perplexity sperrt zahlende Nutzer aus ihren Konten, bis sie ihre Telefonnummer herausgeben. So kommt man raus.
Pflichtverifizierung per SMS ohne Vorwarnung, ohne Umgehungsmöglichkeit und ohne Kündigungsoption. Zusammen mit einer langen Geschichte von Datenschutzverstößen ist es Zeit, auszusteigen.
Nur wenige Tage nachdem wir darüber berichtet hatten, dass Anthropic für die Nutzung von Claude einen amtlichen Lichtbildausweis verlangt, hat ein weiterer großer KI-Anbieter eine Grenze überschritten, die jeden datenschutzbewussten Nutzer aufhorchen lassen sollte.
Perplexity AI hat für alle Konten eine verpflichtende SMS-Verifizierung eingeführt, auch für bestehende zahlende Pro-Abonnenten, ohne jede Vorankündigung, ohne Übergangsfrist und ohne Möglichkeit, die Maßnahme zu umgehen oder aufzuschieben. Wer seine Telefonnummer nicht herausgibt, um seine Identität und Daten zu schützen, wird vollständig ausgesperrt. Man kann Perplexity nicht mehr nutzen, nicht mehr auf die Einstellungen zugreifen und, was besonders gravierend ist, auch das Abonnement nicht mehr kündigen. Es wird einem eine Dienstleistung in Rechnung gestellt, auf die man keinen Zugriff mehr hat, ohne eine Auflage zu erfüllen, die zum Zeitpunkt der Anmeldung noch nicht bestand.
Der Perplexity-Support, der ironischerweise selbst nur ein KI-Bot ist, bestätigte schriftlich: "Die Telefonverifizierung ist eine verpflichtende Sicherheitsanforderung für die Nutzung von Perplexity auf allen Plattformen. Sie kann nicht umgangen werden."
Die unmittelbaren Reaktionen
Der Aufschrei unter den Nutzern war sofort und einhellig. Viele Perplexity-Nutzer haben sich bereits mit diesem Problem an uns gewandt. Personen, die sich mit datenschutzfreundlichen E-Mail-Aliasen registriert hatten, konnten den Support über ihr Konto nicht mehr erreichen. Jahresabonnenten wurden mit noch monatelang laufenden Verträgen ausgesperrt. Es gab keine Ankündigung, keine alternative Verifizierungsmethode und keine von Perplexity initiierte Rückerstattung.
Das ist keine kleine Unannehmlichkeit. Hier ändert ein Unternehmen rückwirkend die Bedingungen eines bezahlten Produkts und hält das Abonnement als Druckmittel zurück, bis man sich fügt.
Warum die SMS-Verifizierung die falsche Art von "Sicherheit" ist
Perplexity stellt das als Sicherheitsmaßnahme dar. Diese Darstellung verdient genauere Betrachtung.
Die SMS-basierte Zwei-Faktor-Authentifizierung gilt als die schwächste verfügbare Form der Zwei-Faktor-Authentifizierung. Sie ist anfällig für SIM-Swapping-Angriffe, SS7-Protokoll-Abfangen und behördliche Datenanfragen auf Mobilfunkanbieterebene. Die eigene Telefonnummer mit einem KI-Konto zu verknüpfen, das die gesamte Such- und Konversationshistorie enthält, macht einen nicht sicherer. Es entsteht eine einzige Schwachstelle, die die eigene verifizierte Identität mit allem verknüpft, was man je gefragt hat.
Die Unternehmen, die die sensibelsten persönlichen Daten verlangen, tun am wenigsten, um sie zu schützen. Perplexity ist ein deutliches Beispiel für dieses Muster.
Perplexitys Datenschutzbilanz: Ein Muster, kein Einzelfall
Die Einführung der Telefonnummernverifizierung kam nicht aus dem Nichts. Sie fügt sich in ein breiteres Muster ein, bei dem Perplexity den Datenschutz der Nutzer als nachrangig behandelt, wenn er überhaupt berücksichtigt wird.
Erstens: Sie trainieren standardmäßig mit euren Daten. Wer sich bei Perplexity anmeldet und ein Abonnement abschließt, dessen Suchanfragen werden automatisch zur Verbesserung der KI-Modelle verwendet. Die meisten Nutzer wissen das nie. Um dem zu widersprechen, muss man zu Einstellungen navigieren, dann zu Präferenzen und dort manuell "KI-Datenspeicherung" deaktivieren. Die eigene Beschreibung dieser Einstellung lautet: "Die KI-Datenspeicherung ermöglicht es Perplexity, eure Suchanfragen zur Verbesserung seiner KI-Modelle zu verwenden. Deaktiviert diese Einstellung, wenn eure Daten von diesem Prozess ausgeschlossen werden sollen."
Standardmäßig aktiviert. Versteckt in den Einstellungen. Keine auffällige Offenlegung bei der Anmeldung. Dies ist eine bewusste Entscheidung, die neue Nutzer zu der Annahme verleitet, dass alle Daten privat sind.
Zweitens: Sie verkaufen eure Daten wahrscheinlich weiter. Perplexity arbeitet in einem Tempo, das Sicherheit und Datenschutz konsequent nachrangig behandelt. Das Unternehmen ist schnell gewachsen und hat dabei das Vertrauen der Nutzer wiederholt gebrochen. Vieles deutet darauf hin, dass Daten an Drittanbieter weitergegeben oder verkauft werden, obwohl Perplexitys öffentliche Dokumentation zu diesem Punkt bewusst vage bleibt.
Drittens: Der Vorfall mit dem hart codierten API-Schlüssel. Dieser Fall veranschaulicht die Unternehmenskultur besser als jede offizielle Erklärung.
Perplexity nutzt den Dienst logo.dev eines Drittanbieters, um Website- und Aktien-Logos anzuzeigen. Sie haben ihren API-Schlüssel direkt in Bild-Quell-Tags eingebettet, der für jeden sichtbar war, der die Entwicklertools des Browsers öffnete. Entwickler bemerkten das schnell und begannen, den exponierten Schlüssel für eigene Projekte zu verwenden, was Perplexitys Rechnungen in die Höhe trieb. Perplexity brauchte zwei Monate, um herauszufinden, warum das Anfragevolumen bei logo.dev so hoch war.
Das Problem? Es ist noch immer nicht behoben.
Eine aktuelle Überprüfung durch uns ergab, dass der hart codierte Schlüssel noch immer existiert und nicht vollständig von ihrer Website entfernt wurde. Das lässt sich selbst überprüfen, indem man folgendes direkt in die Browseradresszeile einfügt: https://img.logo.dev/wikipedia.org?token=pk_NNp9abu9TMm9II6Z0666YA
Diese URL lädt ein Wikipedia-Favicon mit Perplexitys eigenem API-Token. Jeder kann es verwenden. Es funktioniert noch immer.
Ein Unternehmen, das seine eigenen API-Schlüssel nicht schützen kann und sie öffentlich in ausgeführtem Frontend-Code einbettet, ist kein Unternehmen, dem man seine Suchhistorie, seine Chats, seine Gedanken, seine Identität oder seine Telefonnummer anvertrauen sollte.
Es ist ein branchenweites Muster
Das ist ein klares und sich beschleunigendes Muster.
Claude verlangt einen amtlichen Lichtbildausweis von einigen neuen Nutzern. Perplexity verlangt eine Telefonnummer. Beides kann die verifizierte Identität mit der KI-Konversationshistorie verknüpfen. Sobald diese Verknüpfung existiert, kann sie jederzeit per Gerichtsbeschluss angefordert, durch Datenlecks offengelegt, verkauft oder an Strafverfolgungsbehörden übergeben werden. Genau wie im Fall der Telefonnummernverifizierung hier kann Perplexity seine Nutzungsbedingungen jederzeit ändern und mit den Daten machen, was dem Unternehmen gefällt. Wer den Datenschutz nicht wirklich ernst nimmt, wird sich trotzdem fügen, um wieder Zugang zu bekommen. Wer das nicht will, muss jetzt eine Ausstiegsstrategie aus diesem Überwachungssystem entwickeln.
Die KI-Unternehmen, die als Werkzeuge begannen, werden zunehmend zu Torwächtern, die die Identität verlangen, bevor sie jemanden durchlassen. Jede Woche wird die Liste der KI-Dienste, die ohne Identitätsnachweis genutzt werden können, kürzer.
So löst man das Problem und kommt bei Perplexity raus
Wer aktuell ausgesperrt ist oder gehen möchte, bevor es noch schlimmer wird, sollte folgendes tun.
Wenn die mobile App noch ohne Update zugänglich ist: Sofort handeln. Das Abonnement innerhalb der App kündigen, bevor die Verifizierungsaufforderung auch dort erzwungen wird.
Um die Daten zu löschen: Eine Anfrage über das spezielle Formular unter perplexity.typeform.com/datarequest einreichen und "Lösche meine persönlichen Daten" auswählen. Perplexity bestätigt, dass dieses Formular auch ohne Kontozugang funktioniert.
Wenn gar kein Zugang mehr möglich ist: Direkt an support@perplexity.ai schreiben. Klar und deutlich darlegen, dass kein Zugang zum Konto aufgrund der verpflichtenden Verifizierungsanforderung besteht, dass man dieser Bedingung zum Zeitpunkt des Abonnementabschlusses nicht zugestimmt hat, und dass man sowohl eine Rückerstattung als auch die vollständige Kontolöschung gemäß dem Recht auf Löschung nach Artikel 17 DSGVO fordert. Diese E-Mail unbedingt als Nachweis aufbewahren.
Wenn innerhalb von 30 Tagen keine Antwort kommt: Bei der zuständigen nationalen Datenschutzbehörde eskalieren. In der EU ist das ein unkomplizierter Prozess.
Ein wichtiger Hinweis zur Datenlöschung: Perplexity gibt an, dass Daten 30 Tage nach Bearbeitung der Anfrage dauerhaft gelöscht werden. Ob die Konversationshistorie, Suchanfragen und abgeleitete Verhaltensprofile tatsächlich vollständig aus Trainingsdatensätzen, Backup-Systemen und Drittanbieter-Vereinbarungen entfernt werden, ist eine andere Frage, auf die bislang kein großes KI-Unternehmen eine glaubwürdige und nachvollziehbare Antwort gegeben hat. Die geteilten Daten sind sehr viel wert. Wir haben ernsthafte Zweifel daran, dass alles gelöscht wird, besonders wenn die Daten bereits in Trainingsdatensätzen zirkulieren.
Der Wechsel leicht gemacht
Damit der Wechsel weg von Perplexity so reibungslos wie möglich ist, haben wir perplexity.lu eingerichtet, damit Nutzer schnell wechseln und gleichzeitig ihre Privatsphäre schützen können.
Der Wechsel selbst ist einfach: Die gewohnte Perplexity-URL einfach von .ai auf .lu ändern, und das war es.
Keine Telefonnummer. Keine Identitätsprüfung. Keine Überwachungsinfrastruktur, die an die eigenen Suchanfragen geknüpft ist. In der EU entwickelt und betrieben (Luxemburg), vollständig europäisch datensouverän und von Grund auf für den Schutz der Privatsphäre gebaut.
Herzlich willkommen bei deinem neuen datenschutzfreundlichen KI-Assistenten: www.perplexity.lu
Er leitet dich zu xPrivo.com weiter, der quelloffenen, datenschutzfreundlichen europäischen Alternative zu Perplexity.
Was als nächstes kommt
Das Fenster, in dem KI privat genutzt werden kann, ohne Personalausweis, ohne Telefonnummer, ohne Gesichts-Scan, ohne dauerhafte Verknüpfung der eigenen Identität mit den eigenen Gedanken, wird kleiner. Nicht weil ein Gesetz es verlangt (obwohl das womöglich auch noch kommen wird), sondern weil die großen Anbieter es so wollen.
Das muss man nicht akzeptieren.
xPrivo ist jetzt unter xprivo.com verfügbar, ohne Konto, ohne Ausweis, ohne Tracking. Es kann direkt im Browser genutzt oder vollständig auf der eigenen Hardware mit lokalen Modellen betrieben werden, sodass kein Cloud-Anbieter jemals sieht, was man fragt.
Die Werkzeuge für anonyme, souveräne KI-Nutzung existieren bereits. Die Frage ist, ob genug Menschen sie nutzen, bevor die Verifizierung zum unvermeidlichen Standard in der gesamten Branche wird.