Newsletter erhalten

Netzwerkwissen: Deepfake Entertainment

Von Magnus Gebauer

Deepfakes, also Inhalte, die durch den Einsatz künstlicher Intelligenz verändert werden, können in den falschen Händen verheerende Folgen haben. Gleichzeitig lässt sich gerade im Satire- und Entertainmentbereich eine interessante Entwicklung beobachten: Denn die Deepfake-Technologie hat großes Unterhaltungspotenzial, das vor allem in den Sozialen Medien gut ankommt.

Der Gedanke an das Thema Deepfake löst im Kopf des Ein oder Anderen schnell eine Art Weltuntergangsszenario aus. Nicht ganz unberechtigt. Der potenzielle Schaden, der mit Deepfake-Medieninhalten angerichtet werden kann, ist enorm. Deepfakes sind Videos, aber auch Audiobeiträge und Fotos, die durch Techniken der künstlichen Intelligenz und des maschinellen Lernens abgeändert und verfälscht worden sind. Die Qualität der manipulierten Inhalte schwankt, zum Teil aber sind sie täuschend echt. Werden solche Inhalte in einer Desinformationskampagne über Social Media eingesetzt, besteht laut Konrad-Adenauer-Stiftung die Gefahr, unsere Demokratie zu gefährden.

Täuschend echt, aber umstritten

Genau auf diese Gefahr zielen zwei beeindruckende Deepfake-Videos der NGO „Represent US“ ab, die im Vorfeld der US-Wahlen veröffentlicht wurden. In den Spots erklären die Staatschefs von Nordkorea und Russland, dass nicht nur die Einmischung von außen die US-Demokratie gefährdet. Die Clips sorgten bereits vor der Veröffentlichung für Kontroversen. Auf YouTube wurden die Videos dennoch in Summe über eine halbe Million Mal aufgerufen. 

Kim Jong-Un und Vladimir Putin warnen als Deepfakes vor Demokratiegefährdung / Quelle: Screenshot YouTube

Mehr Humor wagen

Humorvoller geht es beim britischen Sender Channel 4 zu. In der satirischen Deepfake-Weihnachtsbotschaft des Senders weist die vermeintliche  Queen auf die Gefahren von Fake-Inhalten hin. Die Fake-Queen spricht in dem Clip unter anderem von ihrem Verhältnis zu Prinz Harry und Meghan Markle und liefert zum Schluss noch eine von TikTok inspirierte Tanzeinlage ab. Die Reaktionen auf den Beitrag fielen gemischt aus und sorgten ebenfalls für Diskussionen. Auf Twitter wurde das Video mehr als 2.000-mal geteilt, doch gab es auch negative Kommentare, die diese Art von Humor als Majestätsbeleidigung empfanden oder die technische Qualität bemängelten.

Großes Potenzial für Entertainment und Satire 

Wo Schatten ist, muss bekanntlich auch Licht sein. Und so finden Deepfakes langsam, aber sicher ihren Weg ins klassische Entertainment. Denn das kreative Potenzial, das in der Technologie steckt, ist groß – und unterhaltsam.

Ein besonders gelungenes Beispiel für Deepfake-Entertainment ist die Ende Oktober 2020 auf YouTube gestartete Deepfake-Comedy-Webserie „Sassy Justice“. Der britische Komiker und Protagonist Peter Serafinowicz spielt darin den fiktionalen Lokalfernsehreporter Fred Sassy, wobei sein natürliches Gesicht via Deepfake durch das Gesicht von Donald Trump ersetzt wurde. Im Rahmen seiner Arbeit führt Sassy absurde Interviews mit Medienpersönlichkeiten wie Al Gore oder Mark Zuckerberg, die bis unter die Gürtellinie reichen. Natürlich sind auch diese Personen reine Deepfakes.  

Das Format wurde von den Southpark-Schöpfern Trey Parker und Matt Stone produziert und sollte ursprünglich ein Spielfilm werden. Zu diesem Zweck wurde auch das 20-köpfige Deep Voodoo Studio gegründet. Doch die Corona-Pandemie  machte dem Vorhaben einen Strich durch die Rechnung. So wurde kurzerhand aus dem bereits vorhandenen Material und etwas Improvisation eine YouTube-Serie geschaffen. Das Christmas-Special, in dem Donald Trump eine Weihnachtsgeschichte liest, wurde bereits über 1,2 Mio. mal aufgerufen.

Sassy Justice Christmas Special / Quelle: Screenshot Youtube

Das Unterhaltungspotenzial von Deepfake haben auch die Macher:innen der Show „Jimmy Kimmel Live!“ erkannt. In der Show zur Amtseinführung von Joe Biden nutzten sie die Deepfake-Technologie, um dem neuen Präsidenten Reden von dessen Vorgänger Donald Trump in den Mund zu legen oder lassen in einem Musikvideo bekannte amerikanische Monumente und Abbildungen zum Song „Na Na Hey Hey Kiss Him Goodbye“ singen. Die Reaktionen der Zuschauer:innen und  Nutzer:innen fielen auch hier kontrovers aus.

Deepfakes in der Show von Jimmy Kimmel Live! Deepfakes / Quelle: Screenshot Youtube

Weniger kritisch sieht Visual-Effects-Spezialist Chris Umé, zumindest derzeit, die Deepfake-Entwicklungen zu Entertainment-Zwecken des Entertainments. Der Schöpfer der täuschend echten Deeptomcruise-Videos auf TikTok betont, dass jedes seiner Videos über mehrere Wochen in Bearbeitung gewesen sei. Per Knopfdruck sind gute Deepfakes aus seiner Sicht nicht möglich.  Im Februar gingen die Deepfake-Clips mit Fake-Tom Cruise auf TikTok viral.

Und was passiert sonst noch?

Auch in Deutschland gibt es erste Ansätze, die KI-basierte Technologie zu Entertainment-Zwecken zu nutzen. So wandte Kabarettist Chris Boettcher die Technik für seinen unterhaltsamen Jahresrückblick 2020 an. In einem Musikvideo singt er Seite an Seite mit Deepfake-Promis wie Angela Merkel, Boris Becker oder Florian Silbereisen.

Chris Boettcher singt mit Deepfakes / Quelle: Screenshot Youtube

Auch sonst tut sich einiges: Disney forscht gemeinsam mit der ETH Zürich an hochwertigen Deepfakes und dem High-Resolution Neural Face Swapping mit Megapixelauflösung. Reuters präsentierte vergangenes Jahr den ersten Deepfake-Nachrichtensprecher. Vogue Business widmete Deepfake-Advertising zum Start ins neue Jahr einen eigenen Beitrag und rechnet damit, dass Fashion-Werbung in 2021 durch die Technologie deutlich kreativer und personalisierter werden wird. Und in den sozialen Netzwerken ist eine Flut von mehr oder weniger gut gemachten Deepfakes in Form von Pranks, Goofs oder Memes zu finden. Auch ein Besuch des YouTube-Kanals von Ctrl Shift Face lohnt sich, um zu sehen, was die neue Technologie möglich macht.

Bedeutung für die Medienbranche in Bayern

In Deutschland wird die Technologie noch wenig genutzt. Ein thematischer Fokus in Bayern liegt auf den Gefahren durch und die Erkennung von Deepfake-Content. Berechtigt, denn es geht hier mit um die Verletzung von Persönlichkeitsrechten und ethisch-moralische Fragestellungen. Auch im Entertainment-Umfeld gibt es berechtigte Einwände: Wer bestimmt, was Satire und Ironie sind? Wer schützt Personen, die keine Satire verstehen, zum Beispiel aufgrund mangelnder Sprachkenntnisse oder eingeschränkter kognitiver Fähigkeiten? Was passiert, wenn eine Deepfake-Parodie aus dem ursprünglichen Kontext gerissen wird?

Trotzdem bietet die Technologie spannende Möglichkeiten für den Entertainment-Bereich. Mit seinen zahlreichen VFX-Studios und Produktionsgesellschaften verfügt der Medienstandort Bayern über gute Voraussetzungen, um vorne mitzuspielen. Zudem kann die TU München mit ihrem Visual Computing Lab ein interessanter Partner sein. Mit der Anfang 2020 vorgestellten Neural Voice Puppetry hat das Team um Justus Thies eine beeindruckende Methode vorgestellt, die Lippenbewegungen einer Zielperson auf Knopfdruck automatisch an die gewünschten Worte anzupassen.

Key Facts zu Deepfakes

Die Daten- und Studienlage rund um das Thema Deepfake ist eher niedrig. Dennoch ist erkennbar, dass die Anzahl an Deepfakes 2020 sehr stark angestiegen ist und diese vorwiegend im Entertainment-Bereich zum Einsatz kommen. Die USA, UK und Südkorea dominieren das Deepfake-Ranking mit großem Abstand. Ein Blick auf satirische Fake-Inhalte zeigt, dass diese im Vergleich zu anderen Medienphänomenen als am wenigsten problematisch bewertet werden. Doch auch hier gibt ein Viertel der Befragten an, sehr oder extrem besorgt zu sein. 

Quelle: https://sensity.ai/deepfake-threat-intelligence-a-statistics-snapshot-from-june-2020/
Quelle: https://sensity.ai/deepfake-threat-intelligence-a-statistics-snapshot-from-june-2020/
Quelle: https://sensity.ai/deepfake-threat-intelligence-a-statistics-snapshot-from-june-2020/
Quelle: Reuters Institute Digital News Report 2018, S.20

Quellen & nützliche Links

Abonniere jetzt unseren Newsletter
Bleibe auf dem Laufenden zu den Events und Projekten des MedienNetzwerk Bayern!