Notebookcheck Logo

ChatGPT stellt Nutzer als verurteilten Mörder dar

ChatGPT stellt Nutzer als verurteilten Mörder dar
ChatGPT stellt Nutzer als verurteilten Mörder dar
Dass Chatbots mitunter halluzinieren und Fake-Informationen einfach erfinden ist nicht neu. Ein Norweger hat ChatGPT nach Informationen zu seiner Person befragt und daraufhin eine Fake-Story erhalten, die ihn als verurteilten Mörder darstellt. Nun legen Datenschützer Beschwerde dagegen ein, dass OpenAI es zulässt, dass ChatGPT diffamierende Ergebnisse produziert. Ein schwieriger Fall.

In Norwegen hat die Datenschutzorganisation noyb („none of your business“) stellvertretend für einen Norweger Beschwerde gegen OpenAI bei der dortigen Datenschutzbehörde eingelegt. Der Vorwurf: Das Unternehmen lasse es wissentlich zu, dass ihr Chatbot diffamierende Ergebnisse erstellt und Menschen fälschlicherweise der der Korruption, des Kindesmissbrauchs oder sogar des Mordes beschuldigt. Das würde eindeutig gegen den DSGVO-Grundsatz der Datenrichtigkeit verstoßen.

OpenAI hat wegen vergleichbarer Klagen einen Haftungsausschluss bei der Nutzung eingefügt. Allerdings argumentieren die noyb-Mitglieder damit, dass laut DSGVO persönliche Daten korrekt sein müssen. Seien sie das nicht, so hätten Nutzer das Recht sie richtigstellen zu lassen. Aber genau das geht im Falle von ChatGPT nicht, das OpenAI hierfür keine Möglichkeit anbiete.

Im konkreten Fall geht es um einen norwegischen Nutzer, der ChatGPT nach Informationen zu seiner Person befragt hat. Daraufhin erschuf der Chatbot eine Horrorgeschichte, laut der der Mann zwei seiner Kinder ermordet haben soll und auch versucht hat seinen weiteren Sohn zu ermorden. Das groteske daran: ChatGPT vermischte die erfundene Geschichte mit realen Daten aus dem Privatleben des Mannes. So webte es das reale Geschlecht und das Alter seiner Kinder sowie den Namen seiner Heimatstadt in die Story ein.

Und genau diese Vermischung von realen und falschen Informationen sei laut DSGVO Artikel 5(1)(d) verboten, denn Unternehmen müssten dafür Sorge tragen, dass die von ihnen erstellte persönliche Daten korrekt sind. Ob die Behörde oder letztlich Gerichte das genauso sehen, bleibt indes abzuwarten. Noyb fordert indes OpenAI dazu auf die diffamierenden Informationen zu löschen und das Modell so umzustellen, dass es derartige Falschergebnisse nicht mehr produziert. Der persönliche Schaden könnte für betroffene Personen immens sein. In diesem Fall hat der Nutzer zu sich selbst gefragt, aber man stelle sich nur vor, dass ein anderer Nutzer diese Informationen abruft und womöglich glaubt.

 

 

Quelle(n)

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-03 > ChatGPT stellt Nutzer als verurteilten Mörder dar
Autor: Christian Hintze, 21.03.2025 (Update: 21.03.2025)