Deepfakes – Fake News on Steroids?

Lisa Amann und Nikola John schreiben in ihrem Artikel aus der Vorlesung Digital Culture an der HfG Schwäbisch Gmünd über Deepfakes.
türkise, nebelartige Pixel über schlichter, weißer Gesichtsmaske vor blauem Hintergrund
türkise, nebelartige Pixel auf blauem Hintergrund

Wir, die Öffentlichkeit, ist sich mittlerweile durchaus dessen bewusst, dass man Fotos nicht mehr glauben kann. Selbst mit amateurhaften Photoshop-Skills ist es möglich, Bilder so zu verändern, dass sie einen täuschend echten Einfluss vermitteln können. Was aber macht es mit uns wenn wir nicht einmal mehr Bewegtbildern oder Stimmen trauen können?

Wir, die Öffentlichkeit, ist sich mittlerweile durchaus dessen bewusst, dass man Fotos nicht mehr glauben kann. Selbst mit amateurhaften Photoshop-Skills ist es möglich, Bilder so zu verändern, dass sie einen täuschend echten Einfluss vermitteln können. Was aber macht es mit uns wenn wir nicht einmal mehr Bewegtbildern oder Stimmen trauen können?

Deepfake Video Demonstration von Jordan Peele


We‘re entering an era in which our enemies can make anyone say anything at any point in time.

Dieses Zitat aus Jordan Peeles viralem Video zeigt, wie einfach es ist, einer anderen Person die eigenen Wörter in den Mund zu legen. In diesem Video sieht man Barack Obama, der auf den ersten Blick täuschend echt auf die Bedrohung durch manipulierte Videos aufmerksam machen möchte. Nach ein paar Sekunden wird Peeles’ Gesicht eingeblendet und man erkennt, dass es sich um ein Deepfake-Video handelt. Schon seit einigen Jahren kursiert der Begriff im Web, doch was sind Deepfakes eigentlich?

We‘re entering an era in which our enemies can make anyone say anything at any point in time.

Was sind Deepfakes?

Laut Wikipedia ist ein Deepfake, auch Deep Fake (engl. deep ‚tief‘ und fake ‚Fälschung‘) ein seit circa 2017 gebräuchlicher Ausdruck für die Technik, mit Hilfe von künstlicher Intelligenz täuschend echt wirkende Bilder oder Videos herzustellen, die nicht echt sind. Diese Technik basiert auf künstlichen neuronalen Netzwerken, die die gefälschten Medien weitgehend autonom erzeugen. Deepfake ist ein Kofferwort, wobei Deep mit Deep Learning assoziiert wird. Zum Erstellen von Deepfake-Videos wird ein Computer mit Daten „gefüttert“ (teilweise mit Millionen von Bildern oder Videosequenzen) und kann dadurch die Gestik eines Gesichtes auf ein anderes übertragen. Da es sich um künstliche Intelligenz handelt, entsteht hier ein Algorithmus, der selbst lernt. Mit der Zeit entwickelt sich diese Technologie so weit, dass immer weniger Daten benötigt werden, um einen realistischen und überzeugenden „AI-Synthesized-Fake“ erzeugen zu können.

So weit, so gut. Der eine oder andere hat in diesem Zusammenhang bestimmt auch schon einige dieser Videos zu sehen bekommen. Man kann es ja auch mit Sicherheit als sehr unterhaltsam bezeichnen, wenn plötzlich Jennifer Lawrence wie Steve Buscemi aussieht und Fragen bei der Golden Globe Verleihung beantwortet, oder das Gesicht von Nicolas Cageden Körper vieler Hollywood-Schönheiten noch attraktiver macht. Letztendlich haben wir als Normalverbraucher der Untiefen des Internets Deepfake-Videos lediglich im Kontext von einfacher Unterhaltung zu sehen bekommen, also warum sollten wir uns Gedanken machen?

Ursprünglich war die Technologie, Gesichter auf Körper anderer Menschen zu tracken dazu gedacht in der Film- und Videospielbranche genutzt zu werden. Eines der ältesten Beispiele ist eine Szene aus „Forrest Gump“ in der Hauptcharakter Forrest den damaligen Präsidenten John F. Kennedy trifft. Hier wurden Originalaufnahmen vom Präsidenten und dem damaligen Schauspieler Tom Hanks gemorpht. Dadurch wirkt die Szene so, als sei würde der Schauspieler tatsächlich mit dem Präsidenten interagieren. Das wohl bekannteste und auch tragische Beispiel ist Paul Walker, der während der Dreharbeiten für einen Teil der Fast And Furious-Reihe verstarb, mithilfe der Gestik und Mimik seiner Brüder doch noch seine finale Rolle einnehmen konnte. Was heute mit vergleichsweise wenig Daten-Input funktioniert war zu dieser Zeit noch mit immensem Aufwand in der Postproduktion verbunden.

Anders als herkömmliches Motion Tracking, welches sich die Filmindustrie zu nutze macht, stammen Deepfakes wie wir sie kennen von einem Account auf Reddit. Sie fand ihren Anfang 2017 und wurde in Form von pornografischen Aufnahmen weiblicher Berühmtheiten verbreitet. Der Begriff wurde tatsächlich durch den Reddit-Account namens „deepfake“ geprägt, der eben genannten Aufnahmen veröffentlichte. Woher die Technologie genau stammt, wissen wir leider nicht. Jedoch wurde sie, in Form einer freiverfügbaren App namens „FakeApp“ für die Öffentlichkeit zur Verfügung gestellt und seitdem 120.000 mal heruntergeladen.

Zu den bekanntesten Geschädigten dieser fragwürdigen Vorgehensweise gehört Scarlett Johansson. Diese beteuerte allerdings in einem Interview, dass sie keine großen Konsequenzen daraus ziehe, in einem Deepfake-Porno aufzutauchen, da im Allgemeinen jeder weiß, dass es sich nicht um sie handele. Sie halte es für ein nutzloses Bestreben, weil das Internet ein gewaltiges Wurmloch sei, dass kurz davor stehe sich selbst zu verschlucken.

2018 haben Seiten wie Reddit, Twitter und Pornhub jegliche Form von Deepfake Pronografie auf ihren Websiten verboten. Im Oktober 2019 ging Twitter einen Schritt weiter und beschloss weltweit keine politische Werbung mehr schalten zu wollen. Spekulativ kann man diese Reaktion auch auf die Einflussnahme von Fake News und dementsprechend auch Deepfakes zurückführen, da, abgesehen von pornografischem Gebrauch, politisch beeinflusste Deepfakes am häufigsten veröffentlicht werden, wie Jordan Peele in seinem Video aufmerksam machte.

Ursprünglich war die Technologie, Gesichter auf Körper anderer Menschen zu tracken dazu gedacht in der Film- und Videospielbranche genutzt zu werden.

96% aller enttarnten Deep Fake Videos sind pornografischen Inhalts und richten sich gegen Frauen
Analyseergebnis der Firma DEEPTRACE nach 14.700 als Deepfake enttarnten Videos

Aufgrund der ursprünglich doch sehr fragwürdigen Nutzung dieser Technologie stellt man sich als normaler Internetverbraucher die Frage, wohin uns der Umgang mit Deepfakes führen wird. Diese sind meist nur als visuelle Fakes bzw in Videoformat zu sehen. Da sich Technologien aber konstant weiterentwickeln ist nicht nur Bildmaterial, beziehungsweise das Abbild von Menschen in Videos, sondern auch deren Stimme in Gefahr.

Adobe Voco Demo

Die Firma Adobe befindet sich momentan in der Entwicklung einer Audio-Software namens Adobe Voco, die es einem ermöglicht, durch Daten in Form von Stimmproben ein Profil einer Person zu erstellen und diese quasi sagen zu lassen wonach das Herz begehrt. Angeblich sind nur 20 Minuten Sprachinput nötig, um die Betonung sowie Art und Weise des Sprechens eines Sprachprofils zu erschließen. Dies könnte im Zeitalter von Fake News noch gefährlicher werden. Obwohl sie sich vor ihrer Veröffentlichung bemühen wollen, die Software so transparent wie möglich gestalten zu wollen, kann die Technologie immer in falsche Hände geraten.

96% aller enttarnten Deep Fake Videos sind pornografischen Inhalts und richten sich gegen Frauen.

Die ganze Thematik kann einem als normaler Internetnutzer sehr einschüchternd vorkommen. In Zeiten von Photoshop sind wir uns alle dessen bewusst, dass digitale Manipulation keine Unmöglichkeit mehr darstellt. Wenn wir jetzt allerdings an einem Punkt angekommen sind, an dem man nicht einmal mehr der Stimme einer Person vertrauen kann, sofern man die Person nicht vor sich sitzen hat, ist es nur selbstverständlich, dass man sich immer unsicherer wird was die Verlässlichkeit von Online-Quellen angeht. Jeremy Kahn, ein amerikanischer Mathematiker ging sogar soweit, Deepfakes als Fake-News auf Steroiden zu betiteln, was der ganzen Unsicherheit zusätzlichen Nährboden verschafft.

Man kann und darf letztendlich nicht leugnen, dass viele Technologien natürlich immer die Möglichkeit mit sich bringen, damit Schindluder betreiben zu können. Das wird sich voraussichtlich auch nicht ändern. Nichtsdestotrotz sollte das Potenzial der Technologie nicht unterschätzt werden. Wir, als zukünftige Gestalter können dafür sorgen, dass sie auch in einen nützlichen Kontext gebracht werden kann, die Frage ist nur wie?

Google Duplex assistant

Nichtsdestotrotz sollte das Potenzial der Technologie nicht unterschätzt werden. Wir, als zukünftige Gestalter können dafür sorgen, dass sie auch in einen nützlichen Kontext gebracht werden kann, die Frage ist nur wie?

Mit gutem Beispiel voran ging beispielsweise Google, als sie den Duplex Assistenten veröffentlichten, der für den Nutzer Termine in Restaurants oder beim Friseur vereinbart. Hier könnten mithilfe von Deep Learning dessen Stimmmuster genutzt werden um einen personalisierten Assistenten zu erschaffen, der für den Nutzer diverse Aufgaben erledigt. Es gibt ein breites Spektrum wie die Technologie verwendet werden kann, dennoch besteht die große Gefahr darin, dass Sie in falsche Hände gerät und somit reinen Schaden anrichten kann, sei es im pornografischen Bereich oder im Bereich von Trickbetrügern. Man stelle sich auch einmal das Worst-Case-Szenario vor, in dem durch manipulierte Sprachaufnahmen (atomare) Kriege ausgelöst werden könnten, was nun wirklich keiner will.

Obwohl wir uns bewusst sind, dass Deepfakes meist für fragwürdige Dinge und sehr einfachen Humor genutzt werden, fragen wir uns ob die Chance besteht, sie für sinnvolle Zwecke zu nutzen. Wir glauben, dass die Unterhaltungsbranche wahrscheinlich auch weiterhin davon profitieren könnte. Wer würde denn nicht gerne mal Teil eines James Bond Blockbusters sein? 
Zusätzlich bestünde vielleicht auch die Möglichkeit, in Form eines digitalen Zwillings eine personalisierte Nutzung von Digitalen Umgebungen zu ermöglichen. Das könnte in Bezug auf Anonymität im Internet Vorteile generieren. 
Zusätzlich gibt es schon Ansätze, in denen die Deepfake Technologie im Gesundheitssektor seine Verwendung findet. Eine dieser Fälle ist das Projekt Revoice, das von der ALS Vereinigung ins Leben gerufen wurde. Hier werden die Stimmen der erkrankten Personen archiviert und mithilfe von Deepfakes für spätere Zwecke aufbereitet, um den Angehörigen die Möglichkeit zu bieten, den Verlust der erkrankten Person besser zu verarbeiten. Doch ist diese Vorgehensweise ethisch vertretbar? Ist es nicht auch so, dass manche Dinge oder Personen auch das Recht haben sollten, zu verschwinden? Vielleicht ist dieser Ansatz auch zu philosophisch für diesen Artikel. Aber letztendlich ist das Ausmaß von theoretischen Einsatzgebieten der Technologie unbegrenzt.

Dieser Artikel soll euch als Lesern keine Angst machen, allerdings ist er auch keine besonders große Hilfe dafür, wie man am besten mit der Thematik umgeht, denn dafür gibt es aktuell noch kein „Rezept“. Wir als Verfasser wissen auch noch nicht genau wie wir zu Deepfakes stehen, weil es uns natürlich je nach Kontext genauso verunsichert wie euch Leser. Der Sinn dieses Artikels ist letztendlich, euch zu Diskussionen anzuregen. Weswegen wir hier gerne mit einem Zitat von Henry Ajder, einem holländischen Deepfake-Spezialisten, der es sich zur Aufgabe gemacht hat den Deepfakes mit einem „Antivirus“ gegenüber zu treten (siehe DEEPTRACE), beenden möchten.

Deepfakes do pose a risk to politics in terms of fake media appearing to be real, but right now the more tangible threat is how the idea of deepfakes can be invoked to make the real appear fake.
Henry Ajder

Text und Bilder: Lisa Amann und Nikola John

Obwohl wir uns bewusst sind, dass Deepfakes meist für fragwürdige Dinge und sehr einfachen Humor genutzt werden, fragen wir uns ob die Chance besteht, sie für sinnvolle Zwecke zu nutzen.

Ich bin Lisa Amann

Portrait einer lächelnden jungen Freelancerin mit schwarzen mittellangen Locken vor schwarzem Hintergrund

Name: Lisa Amann

Alter: 27

Wohnort: Schwäbisch Gmünd

Beruf: Studentin & Freelancerin

Hauptcharakterzug: Ich besitze nur schwarze Klamotten

Lieblingsschrift: Acumin

Lieblingsfarbe: As I said...

Mehr lesen


Was ist Zeit?

von Katharina Payr