Netzgeflüster: Können wir bald unseren Augen nicht mehr trauen? (Deepfakes & Undeading)

Vielleicht muss ich meine Meinung über die Fortschritte von KI revidieren. Zwar denke ich immer noch, dass wenn die Öffentlichkeit von KIs redet und Alexa und Konsorten meint, dass sie da was verwechseln. Oder dass sich in den Köpfen der Menschen Terminator-Szenarien abspielen, wo längst nicht damit zu rechnen ist. Seit einer Weile beobachte ich gespannt die Deepfake-Technologie, die auf Künstlichen Neuronalen Netzen (KNN) beruht. Als ich selber vor Jahren mit KNN arbeitete, bekam ich den Eindruck, dass die Methoden des Maschinellen Lernens sich unangenehm im Kreis drehen und da wenig zu holen ist – von KI gar nicht zu sprechen. Nun beweisen aber Deepfakes, dass Maschinelles Lernen noch nicht zu Ende gedacht ist und zweifelhafte Trends nach sich zieht.

„Deepfakes“ – Die Dehnbarkeit der Wahrnehmung

Deepfake ist eine Wortneuschöpfung bzw ein Kofferwort aus Deep Learning und Fake. Man bezeichnet damit Medieninhalte, die Merkmale aus Bild- oder Videoquellen nutzen, um andere Medieninhalte zu manipulieren. Sowohl das Ergebnis als auch der Prozess werden als Deepfakes bezeichnet. Die Technologie wurde 2017 der Öffentlichkeit bekannt und ab 2018 auch einer breiteren Masse, dank der geballten Creepyness. Wenn Donald Trumps Worte und Mimik auf Obama oder Angela Merkel abgebildet wird und das ganze täuschend echt aussieht, dann werden Augen und Kopf auf höchst effektive Weise ausgetrickst. Beispiel gefällig? Hier imitiert der Schauspieler Jim Meskimen verschiedene andere Schauspieler wie Anthony Hopkins und George Clooney stimmlich, während ihre Gesichter in das Video ge-deefaked wurden. Viel Spaß:


„A Deeper Look Into The Life of An Impressionist“, via Jim Meskimen (Youtube)

Das wirkt schon ein bisschen magisch, oder? Auf den zweiten Blick aber zieht das einen ganzen Batzen an Problemen nach sich. Wird das auf Personen des öffentlichen Lebens wie Politiker angewendet, ist das der Stoff, der in den falschen Händen Kriege entfacht? Eins der ersten Videos, das die Runde machte und Deepfakes auf einem außerordentlich echt wirkenden Niveau zeigt war das Buzzfeed-Video mit dem clickbaitigen Titel You Won’t Believe What Obama Says In This Video! Dankbarerweise wird es von Jordan Peele und Buzzfeed genutzt, um darauf aufmerksam zu machen, was Deepfakes sind und dafür zu sensibilisieren, dass man nicht alles blind glauben soll, was einem das Internet weis machen will. 2018 erschien bereits der TED-Talk des Wissenschaftlers Supasorn Suwajanakorn, der mit Deepfakes arbeitet, ansatzweise erklärt woran man sie erkennen kann und der auch direkt auf die Konsequenzen aufmerksam macht. Aber solche Technologien sind viel zu verführerisch als das man aufhören würde, daran zu arbeiten, nicht wahr? Der Fortschritt, die Möglichkeiten, die schöne neue Welt. Ich kritisiere nicht ihn als Person. Würde er nicht daran forschen, würde es ein anderer tun. Er spricht immerhin über die Konsequenzen. Die Gesichter im Publikum zeigen, was vermutlich alle anfangs dachten: wie witzig! Wie Face Swapping, nur besser. Mhm, das ist das Problem.


„Fake videos of real people — and how to spot them | Supasorn Suwajanakorn“, via TED (Youtube)

Deepfakes basieren auf einer bestimmten Form Künstlicher Neuronaler Netze, die Generative Adversarial Networks (GAN) genannt werden und sowohl dem überwachten, maschinellen Lernen als auch dem Deep Learning zuzuordnen sind. Sie funktionieren nach dem Prinzip, dass zwei KNN miteinander kommunizieren. Eins generiert Werte, das andere spielt den Supervisor und bewertet das Ergebnis anhand von Training-Sets. Als Trainingssets wird Bildmaterial bzw die daraus extrahierten Daten von Gesichtern verwendet. Jedes Fältchen macht einen Deepfake ein Stück besser und realistischer. Mit der Täuschung der Wahrnehmung geht schließlich auch die Dehnbarkeit der Wahrheit einher. Und die Verletzung von Persönlichkeitsrechten. Schon 2017 machte sich ein Reddit-User den „Spaß“ die Gesichter Prominenter in Pornos zu deepfaken und Gal Gadot dort mit dem Antlitz ihres Stiefbruders Sex haben zu lassen. Gehören uns in Zeiten von Deepfaking unsere Gesichter nicht mehr? Kein Spaß.

Man kann einfach gestrickte Deepfakes daran erkennen, dass sich beispielsweise nur die Mundpartie bewegt, der Rest aber statisch bleibt. Oder wenn sie schlecht gemacht sind, bemerkt man es an digitalen Artefakten oder an einem wächsern wirkenden Gesicht ähnlich 3D-Animationen. Der kleine Trost bei der Verletzung der Persönlichkeitsrechte: es ist immer noch schwer und nicht ganz billig Deepfakes zu rendern. Stichworte: Maschinelles Lernen, Rechnerkapazität, etc. Aber wie geht’s weiter, wenn jeder die entsprechenden Apps auf dem Smartphone hat? Hups … die gibt es ja schon.

„Undeading“ – Widerspruch nicht möglich?

Wo wir gerade bei Persönlichkeitsrechten waren … insbesondere Prominente und Personen des öffentlichen Lebens sind an der Stelle arm dran. Die Masse an verfügbarem Bild- und Videomaterial, die für Deepfaking gebraucht wird, ist hier idR nur einen Klick entfernt. Aber das Problem besteht im Grunde allgemein und für jeden. Manche haben sehr weit voraus gedacht und dem entgegen zu wirken, was jetzt James Dean passiert. Wie kann James Dean etwas passieren, der ist doch lange verstorben? Auf Golem erschien im November 2019 der Artikel Wie Hollywood die Totenruhe stört, in dem berichtet wird, dass James Dean für den Film Finding Jack digital wieder zum Leben erweckt wird. Das muss nun nicht mal unbedingt über Deepfaking geschehen, sondern über Motion Capturing wie es aktuell schon in sehr vielen Filmen im Gebrauch ist. Aber es wäre sehr effektiv, sagen wir mal so. Und warum muss es nun ein Verstorbener sein? Der Regisseur gab an, dass nur James Dean die Rolle spielen könne. Zu dumm nur, dass man ihn nicht mehr fragen kann, was?

Robin Williams hat übrigens verfügt, dass sein Antlitz so an die 25 Jahre nach seinem Ableben nicht verwendet werden darf wie ebenfalls in dem Artikel auf golem nachzulesen ist. Ich wollte fast schreiben „Als hätte er es kommen sehen“, was verbal auf bittere Weise passt, bedenkt man wie er aus dem Leben geschieden ist. Der Film The Congress hat sowohl die technologische Möglichkeit als auch die Verletzung der Menschenrechte, die Implikation für die Einzigartigkeit und Unantastbarkeit des Menschen vorhergesehen. Bewegen wir uns willentlich auf den Verlust des Selbst zu?


„THE CONGRESS Offizieller Trailer Deutsch German | 2013 Official Film [HD]“, via KinoCheck (Youtube)

Deepfaking stellt an die Politik, Gesellschaft und Informatik allgemein nun vielleicht endlich die Anforderung nach wirklichem Copyrighting digitaler Medien und digitaler Verantwortung. Während der eine oder andere noch über die DSGVO weint, läuft das echte Leben der Theorie mal wieder davon. Natürlich schmerzt es auch mich, wenn das Internet unfreier wird, aber es wäre doch tatsächlich über eine Signatur von Dateiformaten nachzudenken, die eine Form des Copyrighting und der Persönlichkeitsrechte einschließt. Wäre das nicht mal ein interessantes Forschungsgebiet?

Wie steht ihr der Technologie gegenüber? Habt ihr bereits davon gehört oder sind Deepfakes bisher an euch vorbei gegangen? Habt ihr es vielleicht sogar schon selber ausprobiert? Was denkt ihr, wann der erste Instagram-Filter derart kommt? 😉 Wie kann das digitale Zeitalter Persönlichkeitsrechte schützen?

Netzgeflüster ist eine Kategorie meines Blogs in der ich mich immer zwischen dem 10. und 15. eines jedes Monats Themen aus IT, Forschung, Netzwelt und Internet widme genauso wie Spaß rund um die Arbeit mit Bits und Bytes. 🙂

3 Antworten

  1. Avatar von voidpointer
    voidpointer

    Ein freies Internet ist ein hohes gesellschaftliches Gut. Bei der Schaffung einer rechtlichen Infrastruktur sehe ich auch großen Handlungsbedarf. Je leichter und umfangreicher die automatische Datenerfassung praktziert wird umso größer wird dieser Handlungsbedarf.
    Es ist wichtig zu wissen, dass derart leicht Videokommunikation gefälscht werden kann, damit man bei wichtigen Dingen nicht darauf reinfällt. Der überwiegende Missbrauch wird wohl bei Geschmacklosigkeiten bleiben.

  2. […] wurde am 19. November berichtet: Neues Zeichenprogramm lässt Illustratoren um Job bangen. Dank DeepFakes sind wir ja vorher schon bei Bewegtbildern angekommen, aber scheinbar sind Anime auch schon nicht […]

  3. […] Umstand, dass sich die Industrie tatsächlich selbst kannibalisiert. Siehe hierzu meinen Beitrag zu „Undeading“. Ich habe mit Sicherheit bei Weitem nicht alle Referenzen […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert