Deepfakes: Deep-Learning gestützte Fake-Face-Generatoren sind nicht so Fake wie erwartet
Gerade bei der jüngeren Generation sind sogenannte Deepfake-Videos, mittels Künstlicher Intelligenz (KI), Generative Adversarial Networks (GAN) und Deep-Learning generierte und gefälschte Videos, der ganz große Renner. Apps wie Avatarify, Faceswap, Reface oder Wombo - nie war es so extrem leicht, sich blitzschnell in bekannte Personen und Stars wie Robert Downey Jr., Vin Diesel oder Lady Gaga zu verwandeln - die Möglichkeiten der KI-Fakes scheinen schier unbegrenzt.
Neben viel Klamauk und kurzweiligen Spaß zum Zeitvertreib und Ablachen haben derlei Fälschungen aber auch eine dunkle Seite. Die mit KI-Unterstützung generierten Fakes sind für Laien inzwischen kaum mehr von realen Inhalten zu unterscheiden und werfen viele Fragen auf, beispielsweise hinsichtlich dem Schutz biometrischer, medizinischer und persönlicher Daten oder Privatsphäre und Copyright. Jetzt zeigen Forscher, dass die Personen, mit deren "Trainigsdaten" derlei Deepfake-Anwendungen trainiert wurden, sehr wohl wiederentdeckt werden können. Ein Katz-und-Maus-Spiel der Algorithmen.
Wie MIT Technology Review berichtet, lassen sich beispielsweise die GAN-basierten und künstlich generierten Gesichter auf der Seite This Person Does Not Exist vergleichsweise leicht als Fakes entlarven und sogar auf die Gesichter derjenigen Personen zurückverfolgen, deren Identität für die Aufnahmen der Trainingsdaten verwendet wurden. Durch einen entsprechenden Algorithmus zur Umkehrung der Schritte der Datenverarbeitung sei es möglich, den KI-Modellen private Daten bis hin zu den Trainingsdaten der originalen Gesichter selbst zu entlocken.
Forscher der Universität von Caen in der Normandie haben in der Studie This Person (Probably) Exists dargelegt, wie sich Gesichter-Trainingsdaten mit Hilfe von sogenannten Identity Membership Attacks (Identitätsbasierte Zugehörigkeitsattacke) sehr genau und treffsicher rekonstruieren lassen. Die Ergebnisse der Forscher dokumentieren, dass persönliche und private Daten in solchen Deepfakes auch in falsche Hände geraten und eventuell sogar für Straftaten missbraucht werden können.