WormGPT: Hacker entwickeln ChatGPT-Rivalen ohne ethische Grenzen
Wer eine Weile mit OpenAI's ChatGPT oder Google's Bard AI gechattet hat, weiß vielleicht bereits, dass die KI-Chatbots auf bestimmte Fragen keine Antworten geben. So weigert sich Bard etwa teilweise, medizinische Ratschläge zu geben, und ChatGPT wird wohl kaum eine Anleitung zur Herstellung von Meth oder Waffen preisgeben. Es gibt zwar Sicherheitslücken, über die Chatbots in manchen Fällen ausgetrickst werden können, aber das ist natürlich nicht beabsichtigt.
Nun haben Hacker einen Chatbot entwickelt, der wie ChatGPT ebenfalls auf einem Large Language Model (LLM) basiert, aber keine ethischen Grenzen kennt und speziell zur Unterstützung von Cyberkriminellen entwickelt wurde. So lassen sich mit dem dunklen Rivalen namens WormGPT insbesondere Phishing-Mails oder ausgeklügelte Malware, also Software, die in Computersysteme eindringen und dort Schaden anrichten kann, erstellen.
Die Gewährleistung der Cybersicherheit ist an sich schon eine Herausforderung, doch mit dem Aufkommen der künstlichen Intelligenz hat sich ein neuer Bereich der Cyberkriminalität aufgetan. Laut PCMag wird seit März der Zugang zu WormGPT für rund 60 Euro pro Monat oder 550 Euro pro Jahr verkauf. Mitarbeiter von SlashNext waren zudem über die Qualität und betrügerische Raffinesse der Phishing-E-Mails erstaunt:
Die Ergebnisse waren beunruhigend. WormGPT erstellte eine E-Mail, die nicht nur bemerkenswert überzeugend, sondern auch strategisch raffiniert war und das Potenzial für ausgeklügelte Phishing- und BEC-Angriffe aufzeigte.
Ein anderer Käufer hingegen beurteilt den Bot als nicht zufriedenstellend und gibt an, dass er sein Geld nicht wert sei. In jedem Fall ist das Auftreten von WormGPT ein Zeichen dafür, dass ein neuer Markt entsteht, auf dem es immer schwieriger wird, seine Daten zu schützen und die Sicherheit zu gewährleisten, sobald sich die illegalen Tools weiterentwickelt haben.
Quelle(n)
PCMag, Bild: Bing AI