OpenAI’s neueste Datenschutz‑Revolution: Wenn ChatGPT plötzlich weiß, wie alt du bist

OpenAI hat seine Datenschutzrichtlinie aktualisiert. Das klingt erstmal nach trockener Kost, irgendwo zwischen „AGB gelesen“ und „Cookie-Banner akzeptiert“, doch diesmal gibt es ein echtes Highlight: Altersprognose in ChatGPT. Ja, richtig gelesen, die KI schätzt jetzt dein Alter. Nicht, weil du es ihr gesagt hast – das wäre ja zu einfach, sondern weil sie meint, es erraten zu können.

Die Altersprognose: Wenn der freundlicher KI‑Big-Brother zuschlägt

Laut OpenAI schaut das System bei der Altersprognose nicht auf deinen Personalausweis, sondern im Rate-Modus auf subtile Details wie die Themen, über die du sprichst, die Uhrzeiten, zu denen du ChatGPT nutzt, wie lange dein Konto schon existiert und … zack, tada! schon hat die KI dein Alter geschätzt. Klingt seriös, oder?

Nach diesem Muster denkt die KI: “Hey, du hast gestern um 3 Uhr morgens mit mir über „Wie werde ich diese lästigen Pickel in meinem Gesicht wieder los?“ philosophiert. Ha! Das ist verdächtig, sehr verdächtig. Du bist DEFINITIV ein Teenager!”

Wenn du Pech hast und etwas zu jugendlich klingst, könnte die KI dich prompt in eine simulierte digitale Pubertät katalpultieren. Denn wenn du von der KI als unter 18 eingestuft wirst, aktiviert ChatGPT „zusätzliche Schutzmaßnahmen“ – wie ein digitaler Schutzengel. Dazu gehören unter anderem:

  • Begrenzung sensibler Inhalte
  • Vermittlung von sichereren Antworten bei riskanten Themen

Aber mal ehrlich: So gut gemeint und wichtig dieses „Sicherheitsnetz“ ist – es unterscheidet nicht zwischen einem echten Teenager und einem 42‑jährigen Sammler von Star‑Wars‑Funko‑Pops, der nur „Feuerfänge mit Lichtschwertern vergleichen“ wollte.

Altersverifikation via Persona – laut OpenAI ein „vertrauenswürdiger Drittanbieter“

Echt jetzt? OpenAI betont ausdrücklich, dass die Altersverifikation nicht intern erfolgt, sondern über Persona, einem „vertrauenswürdigen Drittanbieter“.

Wer oder was ist Persona? Persona Identities, Inc. ist laut Wikipedia ein US-amerikanisches Unternehmen, das Software und Infrastruktur zur Identitäts- und Altersverifizierung anbietet. Es wurde 2018 in San Francisco, Kalifornien gegründet und hilft Online-Plattformen dabei, das Alter und die Identität von Nutzern zu bestätigen, zum Beispiel durch Ausweis- und Selfie-Überprüfungen oder KI-gestützte Altersabschätzungen. Zu den Kunden von Persona zählen u.a. das berufliche Netzwerk LinkedIn von Microsoft und das Internetforum Reddit.

Das Unternehmen verspricht dabei: Weder Selfie noch Ausweisdokument würden von OpenAI selbst eingesehen. Die Überprüfung laufe ausschließlich über Persona und die Daten würden anschließend „innerhalb von Stunden“ wieder gelöscht. Nun ja, das klingt zunächst beruhigend, aber: Persona hat seinen Sitz in den USA, einem Land, dessen Datenschutzstandards nicht den Anforderungen der EU entsprechen. DSGVO-Konformität sieht anders aus. Natürlich heißt das nicht automatisch, dass dort sorglos mit Daten umgegangen wird. Aber es relativiert den Begriff „vertrauenswürdig“ schon ein wenig.

Auch die Wortwahl ist bemerkenswert: „vertrauenswürdiger Drittanbieter“. Das klingt ein bisschen wie: „Wir haben da einen entfernten Bekannten von einem Bekannten, der kümmert sich um alles, während wir kurz weg sind.“ Vielleicht ist er seriös, vielleicht aber auch nicht. Ist aber auch egal, denn wenn das Haus brennt, ist es sowieso zu spät.

Ja, und dann bleibt da noch die praktische Frage: Was passiert, wenn man auf dem Selfie schlicht jünger aussieht, als man ist? Bekommt man dann ein digitales Schulterzucken und bleibt im Teenager-Modus hängen? Oder ein freundliches: „Tut uns leid, Sie wirken leider viel zu frisch“? Offiziell ist der Prozess klar geregelt, doch wie zuverlässig biometrische Altersschätzungen sind, ist eine Frage, die in diesem Kontext nicht zufriedenstellend beantwortet wird.

Aber immerhin, so heißt es, werden die Daten ja „nach Stunden“ gelöscht. Was genau in diesen Stunden geschieht, bleibt allerdings eine Sache des Vertrauens in ein System eines Drittanbieters, dessen Souveränität und Integrität du nicht prüfen kannst.

Datenschutz oder mehr Schein als Sein?

Natürlich wird betont, dass OpenAI dein Selfi oder deinen Ausweis nicht speichert. Nein, OpenAI macht das nicht – nur Persona tut das. Klingt beruhigend, oder? Und was ist mit all den Verhaltensdaten, die zur Altersprognose geführt haben? OpenAI sagt: Die werden sicher gespeichert und entsprechend der Datenschutzrichtlinie verwendet. Aber wie sicher ist dieses „sicher“? Was passiert, wenn diese Daten gehackt oder für Werbe- und Marketingzwecke mißbraucht werden oder dem KI-Training zum Opfer fallen? Nobody knows …

OpenAI verkauft uns das Ganze als Fortschritt in Sachen Sicherheit und Datenschutz. Sicher ist: Schutz für Minderjährige ist wichtig. Doch wenn eine KI im Alleingang darüber entscheidet und errät, ob du alt genug bist, betreten wir ein neues, leicht absurdes Kapitel digitaler Selbstbestimmung.

Abonniere jetzt unsere Cyber-News!

Alle 4 Wochen erhältst du wertvolle Insights, Tipps und Ratschläge zur Cybersicherheit, Cyberbedrohungen, Phishing-Methoden, Betrugsmaschen und Social-Engineering, ganz gleich ob du Anfänger oder Fortgeschrittener bist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Beweisen Sie, dass Sie ein Mensch sind: 0   +   8   =