In Norwegen hat die Datenschutzorganisation noyb („none of your business“) stellvertretend für einen Norweger Beschwerde gegen OpenAI bei der dortigen Datenschutzbehörde eingelegt. Der Vorwurf: Das Unternehmen lasse es wissentlich zu, dass ihr Chatbot diffamierende Ergebnisse erstellt und Menschen fälschlicherweise der der Korruption, des Kindesmissbrauchs oder sogar des Mordes beschuldigt. Das würde eindeutig gegen den DSGVO-Grundsatz der Datenrichtigkeit verstoßen.
OpenAI hat wegen vergleichbarer Klagen einen Haftungsausschluss bei der Nutzung eingefügt. Allerdings argumentieren die noyb-Mitglieder damit, dass laut DSGVO persönliche Daten korrekt sein müssen. Seien sie das nicht, so hätten Nutzer das Recht sie richtigstellen zu lassen. Aber genau das geht im Falle von ChatGPT nicht, das OpenAI hierfür keine Möglichkeit anbiete.
Im konkreten Fall geht es um einen norwegischen Nutzer, der ChatGPT nach Informationen zu seiner Person befragt hat. Daraufhin erschuf der Chatbot eine Horrorgeschichte, laut der der Mann zwei seiner Kinder ermordet haben soll und auch versucht hat seinen weiteren Sohn zu ermorden. Das groteske daran: ChatGPT vermischte die erfundene Geschichte mit realen Daten aus dem Privatleben des Mannes. So webte es das reale Geschlecht und das Alter seiner Kinder sowie den Namen seiner Heimatstadt in die Story ein.
Und genau diese Vermischung von realen und falschen Informationen sei laut DSGVO Artikel 5(1)(d) verboten, denn Unternehmen müssten dafür Sorge tragen, dass die von ihnen erstellte persönliche Daten korrekt sind. Ob die Behörde oder letztlich Gerichte das genauso sehen, bleibt indes abzuwarten. Noyb fordert indes OpenAI dazu auf die diffamierenden Informationen zu löschen und das Modell so umzustellen, dass es derartige Falschergebnisse nicht mehr produziert. Der persönliche Schaden könnte für betroffene Personen immens sein. In diesem Fall hat der Nutzer zu sich selbst gefragt, aber man stelle sich nur vor, dass ein anderer Nutzer diese Informationen abruft und womöglich glaubt.