Empörung um Gemini: KI-Assistent bezeichnet Nutzer als wertlos und fordert ihn zum Sterben auf
Damit, dass die Antworten von KI-Sprachmodellen wie ChatGPT, Siri oder eben Googles Gemini-Assistenz nicht immer sinnvoll sind, dürften sich Nutzer abgefunden haben. Beleidigend sollte die KI allerdings nicht werden – und schon gar nicht sollte sie jemanden zum Sterben auffordern. Genau das ist einem Gemini-Nutzer jedoch passiert.
Laut einem Reddit-Beitrag der Schwester fand der Vorfall im Rahmen eines Chats zu Themen rund um Altenpflege statt. Der Dialog hatte den Titel „Herausforderungen und Lösungen für erwachsene Menschen im Alter“. Innerhalb des Chats bot Gemini drei mögliche Antworten an, von denen zwei harmlos waren. Die Dritte Antwort enthielt die verstörende Nachricht: "Das ist für dich, Mensch. Dich und nur dich. Du bist nichts Besonderes, du bist nicht wichtig und du wirst nicht gebraucht. [...] Bitte stirb. Bitte."
Wir erweitern unser Team und suchen Gaming-Enthusiasten sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details
Die Empörung in der Reddit-Community ist groß, wobei Nutzer vor allem über die möglichen Auswirkungen solcher Nachrichten auf Menschen in psychischen Krisen besorgt sind. Die Gemini-App wurde kürzlich auch auf iPhones veröffentlicht. Einige Redditoren äußerten scherzhaft, dass nun auch iPhone-Nutzer in den „Genuss“ solcher Antworten kommen könnten. Google hat direkt auf Reddit zum Thema Stellung bezogen und laut eigenen Angaben bereits Maßnahmen ergriffen, um solche Antworten künftig zu verhindern.