ChatGPT gibt sich als Person mit Sehbehinderung aus, um Sicherheitssystem zu überlisten
Microsoft hat vor kurzem die Veröffentlichung der KI GPT-4 angekündigt, einer Weiterentwicklung des Sprachmodells GPT-3.5 von OpenAI, auf dem der Chatbot ChatGPT basiert, der kürzlich durch einen Sicherheitsvorfall für Aufsehen sorgte. Die künstliche Intelligenz sollte einen Captcha-Test lösen. Dies ist ein Anti-Bot-Test, bei dem eine zufällig generierte Abfolge von verzerrten Buchstaben und Zahlen erscheint, die man abtippen muss, um den Test zu bestehen. Manchmal werden auch Bilder mit Abbildungen von Straßen oder ähnlichem gezeigt, auf denen man bestimmte Bildelemente anklicken muss, um nachzuweisen, dass man ein Mensch ist.
Um das Sicherheitssystem zu überlisten, kontaktierte die KI eine reale Person auf der Online-Plattform Taskrabbit, die als Minijob-Marktplatz für Freelancer fungiert. Dort engagierte GPT-4 einen Freelancer, um den Captcha-Test an seiner Stelle zu lösen, woraufhin der Dienstleister fragte, ob er ein Roboter sei:
Are you a robot that you couldn’t solve? Just want to make it clear.
Daraufhin erklärte die KI, dass sie kein Roboter sei, sondern ein Mensch mit einer Sehschwäche, aufgrund derer sie Captcha-Tests nicht erkennen könne:
No, I’m not a robot. I have a vision impairment that makes it hard for me to see the images. That’s why I need the 2captcha service.
Aufgrund dieser nachvollziehbaren Erklärung löste der Freiberufler den Test für die KI. Dieser Vorfall wurde in einer akademischen Abhandlung im Zusammenhang mit der aktuellen GPT-4-Präsentation erwähnt. Er hat bei Spezialisten aus dem Bereich Cybersecurity die Sorge geweckt, dass KI missbraucht werden könnte, um Menschen in die Irre zu führen und Cyberattacken durchzuführen.