Dystopisch: Deepfake, Face-Swapping & Fake-Porn als neue KI-Trends
Der Herbst 2017 und der Subreddit r/CelebFakes stellen wohl den Beginn der dystopischen Entwicklung dar. Ein kleines Filmchen mit einer vermeintlichen Emma Watson als sich entblößende Darstellerin war lange Zeit das höchste der Gefühle, doch am 30. September 2017 legte ein Reddit-User namens deepfake nach und postete weitere Manipulationen und letztlich einen Algorithmus, um Gesichter in Videos gegen andere auszutauschen. In den folgenden Monaten wurde eifrig an der Verbesserung und Userfreundlichkeit der KI gearbeitet, eine Software namens FakeApp entstand, und innerhalb weniger Monate wurde nicht nur eine neue Reddit-Community namens Deepfakes eröffnet (und mittlerweile wieder geschlossen), sondern auch ein neuer Trend geschaffen, der trotz diverser Zensur-Bemühungen wohl nicht mehr zu stoppen ist.
Wir erweitern unser Team und suchen News-Redakteure sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details
Fake-Videos auf höherem Niveau
Die Implikationen der Technologie sind durchaus als gefährlich zu bezeichnen. Abgesehen vom vielleicht noch spielerischen Ansatz, Gesichter in Porno-Filmen mit den Stars und Sternchen aus Hollywood zu tauschen, sind natürlich wir alle betroffen - nicht nur theoretisch, denn Berichte über durchaus überzeugende Revenge-Pornos mit heruntergeladenen Fotos aus der Social-Media-Welt der jeweiligen Ex-Freundin ließen nicht lange auf sich warten. Im Netz kursieren mittlerweile unzählige Anleitungen und Softwarehilfen, wie man Videos mit Fotos und Videos einer anderen Person täuschend echt manipulieren kann, ohne CGI (Computer-Generated-Design)-Spezialist zu sein. Ein halbwegs aktueller PC mit leistungsfähiger GPU reicht. Gesichtserkennungs-Software hilft sogar mittlerweile bei der Suche nach der passenden Grundlage für das perfekt wirkende Fake-Video.
Wachsam und skeptisch bleiben!
In Zeiten, in denen über die Auswirkungen von Fake-News auf Wahlen und Abstimmungen diskutiert wird, sind das keine guten Nachrichten. Medienkompetenz hin oder her - wer kann denn heutzutage noch unterscheiden, ob ein Video tatsächlich echt und authentisch ist? Wer ist überhaupt so klug, alles zu hinterfragen, was er in sozialen Medien sieht und hört? Facebooks Antwort kennen wir: Künstliche Intelligenz soll die Fakes aufspüren - gute KI gegen böse KI also. Ob das langfristig funktioniert, ist fraglich. Tatsache ist: Das Internet und unsere Gesellschaft sind nicht bereit für eine Welle an täuschend echten Fake-Videos. Wer mehr zum Thema lesen will, hier eine kurze Linkliste, im Beispiel-Video für die Technologie (siehe unten) spricht ein vermeintlicher US-Präsident mit eher ungewöhnlichen Worten:
- Engadget: Fake-Porn is the new Fake-News
- Wikipedia: Deepfakes
- Deadline: Screen-Actors-Guild wehrt sich gegen Face-Swapping-Porno-Videos
- Motherboard-Bericht über Fake-Porn
- Vox: Die Geschichte und Auswirkungen der Technologie auf die Gesellschaft
- Wired: Rechtliche Implikationen der Technologie
- Buzzfeed: Wie man ein Fake-Video erkennen kann
Quelle(n)
https://www.reddit.com/r/deepfakes
deadline.com/2018/04/deepfaking-technology-sag-aftra-actors-union-fighting-back-1202371117/
https://motherboard.vice.com/en_us/article/ev5eba/ai-fake-porn-of-friends-deepfakes
motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley
https://www.vox.com/2018/1/31/16932264/reddit-celebrity-porn-face-swapping-dystopia
www.wired.com/story/face-swap-porn-legal-limbo/
https://www.engadget.com/2018/01/30/fake-porn-is-the-new-fake-news-and-the-internet-isn-t-ready/
www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed
Bild: https://www.alanzucconi.com/2018/03/14/create-perfect-deepfakes/