OpenAI ist besorgt über Entwicklung von Gefühlen gegenüber ChatGPT
GPT-4o wurde als stark verbessertes Modell von ChatGPT eingeführt. Seit seiner Einführung wurde ChatGPT-4o für seine menschenähnlichen Interaktionen gelobt. Das klingt auf den ersten Blick gut, aber OpenAI hat ein Problem entdeckt: Menschen beginnen, den Chatbot wie einen Menschen zu behandeln und emotionale Bindungen aufzubauen.
OpenAI hat beobachtet, dass Menschen eine Sprache verwenden, die "auf den Aufbau von Bindungen hindeuten könnte". Das Unternehmen stellt fest, dass es Fälle gefunden hat, in denen Menschen eine Sprache verwendet haben, die "gemeinsame Bindungen" ausdrückt. Dies ist aus zwei Gründen eine negative Beobachtung.
Erstens: Wenn ChatGPT-4o wie ein Mensch anmutet, besteht die Gefahr, dass die Nutzer die Halluzinationen des Chatbots ignorieren. Zum Verständnis: KI-Halluzinationen sind im Wesentlichen falsche oder irreführende Ausgaben, die vom Modell erzeugt werden. Dies kann auf fehlerhafte oder unzureichende Trainingsdaten zurückzuführen sein.
Zweitens können menschenähnliche Interaktionen mit dem Chatbot echte soziale Interaktionen zwischen Nutzern reduzieren. OpenAI argumentiert, dass Chatbot-Interaktionen für "einsame Menschen" von Vorteil sein können, dass sie aber auch gesunde Beziehungen beeinträchtigen können. Das Unternehmen stellt auch fest, dass Menschen mit Menschen in der Annahme sprechen könnten, dass die andere Person ein Chatbot ist.
Angesichts all dieser Bedenken sagt OpenAI, dass es nun beobachten wird, wie die Nutzer eine emotionale Bindung zu ChatGPT-4o entwickeln. OpenAI kündigt außerdem an, das Modell gegebenenfalls anzupassen (hier KI-gesteuerten Sprachrekorder PLAUD Note bei Amazon kaufen).