Reputationsmanagement: Wie man mit „Deepfakes“ umgeht

Reputationsmanagement: Wie man mit „Deepfakes“ umgeht
28. November 2018 Nina Walloch

Reputationsmanagement:
Wie man mit „Deepfakes“ umgeht

Reputation Management: What to do about "deepfakes"

Fake News sind seit geraumer Zeit ein viel diskutiertes Thema, aber derzeit breitet sich ein weiteres Phänomen aus – die sogenannten „Deepfakes“. Diese neue, umstrittene KI-basierte Technologie hat das Potenzial, die Art und Weise wie wir Content konsumieren erheblich zu verändern.

Was sind Deepfakes?

Deepfakes beziehen sich auf KI-basiertes Image-Swapping in unbewegten Bildern sowie in Videos. Betrachten Sie es als eine Weiterentwicklung des traditionellen Face-Swapping, das sich mit Snapchat und anderen Apps durchführen lässt.

Um einen Deepfake zu erstellen, brauchen Sie lediglich ein Quellbild oder -video einer Person sowie verschiedene Bilder und Videos einer anderen Person (deren Gesicht Sie auf das Gesicht der ursprünglichen Person übertragen möchten). Das neuronale Netzwerk Ihres Computers lernt dann die Bewegungen und Ausdrücke der Person aus dem Quellbild- oder video und ersetzt das Gesicht mit dem der anderen Person.

Deepfake-Technologien werden heute überwiegend für das sogenannte Face-Swapping eingesetzt, also das digitale Austauschen der Gesichter von zwei Personen. Die Technologie ermöglicht es aber auch ganz leicht die menschliche Sprache nachzuahmen. Mit der App Lyrebird ist es zum Beispiel möglich, realistische künstliche Stimmen zu erzeugen – und das bereits mithilfe eines einminütigen Audio-Beispiels.

Die Zunahme von Deepfakes und die dunkle Seite von Deep Learning

Deepfakes existieren bereits seit einiger Zeit. Ihre Popularität hat jedoch im Laufe des letzten Jahres erheblich zugenommen, als die Reddit-Community angefangen hat sich damit intensiv zu beschäftigen. Es fing damit an, dass ein Reddit-Nutzer verschiedene Deepfake-Pornovideos auf Reddit geteilt hat. Einige Monate später veröffentlichte ein anderer Nutzer das Tool FakeApp. Mit diesem Tool konnte jeder jedes beliebige Gesicht nahtlos in ein Video einfügen. Daraufhin tauchten immer mehr Deepfakes im Internet auf. Als Reaktion darauf wurde der zugehörige FakeApp-Subreddit von Reddit Anfang 2018 geschlossen. Heute ist auch die Software FakeApp offline, aber es gibt andere Tools, mit dem Deepfakes erstellt werden können: zum Beispiel Faceswap.

Seit langer Zeit kennen und profitieren wir von den Vorteilen von Machine Learning und Deep Learning. Es ermöglicht unter anderem Automatisierungs-Tools zu entwickeln und alltägliche, mühsame Aufgaben an diese auszulagern. Das führt zu einer gesteigerten Produktivität und mehr Effizienz. Deepfakes setzen uns allerdings der dunklen Seite von Deep Learning aus und zeigen, wie Deep Learning auf destruktive Weise eingesetzt werden kann. Jetzt wo Deep Learning so weit fortgeschritten ist, dass Software öffentlich und für jeden zugänglich geworden ist, stellt dies nicht nur ein Problem für jeden von uns (im Sinne des eigentlich notwendigen persönlichen Einverständnisses und der Verantwortlichkeit) dar. Auch professionelle Kommunikatoren müssen jetzt das mit Deepfakes einhergehende Risiko in ihre Kommunikationspläne miteinbeziehen.

Beispiele von Deepfakes

Im April 2018 hat Jordan Peele mit Buzzfeed zusammengearbeitet und einen Deepfake erstellt, in dem Präsident Obama sich in einer öffentlichen Ansprache dazu äußert, wie sich die Gesellschaft im Informationszeitalter weiterentwickelt und wie der Weitergang dieser Entwicklung darüber entscheiden wird, ob „wir zu einer abgefuckten Dystopie werden.“ Das Video wurde weltweit in den Nachrichten aufgegriffen und hat viel Aufmerksamkeit für das Thema Deepfakes generiert.

Interessanterweise gibt es verschiedene kürzlich veröffentlichte Filme, die ebenfalls Deepfake-Techniken eingesetzt haben. Ein bemerkenswertes Beispiel ist Star Wars: The Last Jedi, bei dem die Produzenten KI-Technologie nutzten, um eine 19-jährige Carrie Fischer nachzubilden.

Steigende Risiken durch Deepfakes

Mit Deepfakes sind viele Risiken verbunden. Politisch gesehen haben Deepfakes das Potenzial Wahlen zu beeinflussen oder in Städten, die von Unruhen betroffen sind, zu Gewalt anzustiften. Experten glauben, dass Deepfakes zu einer „Zero Trust“ Gesellschaft beitragen, in der Verbraucher grundsätzlich nichts und niemandem mehr vertrauen. Zudem gibt es noch datenschutzrechtliche Risiken und Bedenken darüber, wie Deepfakes-Technologie eingesetzt werden kann, um zum Beispiel Pornos oder andere vorsätzlich bösartige Face-Swaps zu Rachezwecken zu erstellen.

Deepfakes stellen außerdem ein erhebliches Problem für PR- und Kommunikationsteams dar, denn sie können dafür genutzt werden, um ein Unternehmen oder berühmte Persönlichkeiten in Verruf zu bringen. Vor diesem Hintergrund gehen wir davon aus, dass das Toolset des „Reputationsmanagements“ bald für einen effektiven Umgang mit Deepfakes erweitert werden muss.

Deepfakes und Ethik

Im Spannungsfeld von Deepfakes und Ethik ist eines der wichtigsten Konzepte das des Einverständnisses. Solange eine Person, deren Gesicht in Deepfakes abgebildet wurde, ihr Einverständnis für die Darstellung und Verbreitung des Videos nicht gegeben hat, verletzt dies die Rechte dieser Person. Es kann außerdem schwerwiegende Folgen für das persönliche und berufliche Leben dieser Person haben.

Das gilt sowohl für berühmte Persönlichkeiten (zahlreiche Schauspielerinnen, darunter Gal Gadot und Emma Watson waren bereits Opfer von Deepfake-Pornos), aber auch für jede andere Person. Wer meint Deepfakes von Freunden und Familie zu erstellen sei ein harmloser Scherz, der hat sich getäuscht. Alle Deepfakes, die ohne ein Einverständnis der betroffenen Person erstellt werden, sind generell problematisch und unethisch.

Wie PR- und Kommunikationsteams mit Deepfakes umgehen können

Da Deepfakes immer alltäglicher werden, sollten sich PR- und Kommunikationsexperten mit Deepfake-Technologien auseinandersetzen und Fähigkeiten aneignen, um Deepfakes zu erkennen und um zu lernen mit diesen umzugehen.

Seitens der Medien nimmt zum Beispiel das Wall Street Journal die Risiken, die von Deepfakes ausgehen, bereits sehr ernst und hat eine Deepfakes-Taskforce ins Leben gerufen, die als WSJ Media Forensics Committee bezeichnet und vom Ethics & Standards sowie den Research & Development-Teams geleitet wird. „Das Bewusstsein der Redaktion für neue Technologien zu stärken, ist sehr wichtig,“ sagt Christine Glancey, stellvertretende Redakteurin im Ethics & Standards-Team der Zeitung. „Wir wissen nicht, wo zukünftige Deepfakes auftauchen könnten, deshalb sollten wir eine mögliche Desinformation im Auge behalten.“ Sam Woolley vom Digital Intelligence Lab (Institute for the Future) fügt dem hinzu, dass „Tools wie künstliche Intelligenz, automatisierte Sprachsysteme, Machine Learning, Deepfakes, interaktive Memes, Virtual Reality und Augmented Reality die digitale Desinformation effektiver machen und es schwieriger wird diese zu bewältigen.“

Hier finden Sie einige hilfreiche Tipps für den Umgang mit Deepfakes:

Deepfakes erkennen

Da sich die Technologie für Deepfakes in einem frühen Stadium befindet, ist es bisher noch relativ leicht Deepfakes zu erkennen. Noch enthält die Mehrheit der Bilder und Videos offensichtliche Fehler, doch das wird sich in naher Zukunft ändern – Kommunikatoren müssen sich also jetzt darauf vorbereiten. Kommunikationsteams können verschiedene Schritte unternehmen, um Deepfakes zu erkennen. Sie können zum Beispiel die digitale Datei dahingehend untersuchen, ob ein Video und ein Bild künstlich miteinander verbunden wurden. Hierbei spielen Faktoren wie Beleuchtung und andere physikalische Elemente des Videos, die auf Widersprüche hindeuten, eine Rolle. Siwei Lyu, ein Informatik-Professor, der eine Software für die Identifikation von Deepfakes entwickelt hat, sagt außerdem, dass künstliche Charaktere in Deepfakes dazu neigen weniger und unnatürlicher zu blinzeln. Sogar die US-amerikanische Armee arbeitet an einem ähnlichen Projekt: die Defense Advanced Research Projects Agency (DARPA) hat vor kurzem weltweit führende Experten für digitale Forensik versammelt, um im Rahmen einer Übung Deepfakes zu identifizieren.

Die Reputation vor Deepfakes schützen

Deepfakes sind ein relativ neues Phänomen, deshalb gibt es leider keine bewährten Strategien für PR- und Kommunikationsteams, die von Deepfakes betroffen sind. Auch wenn es keine konkreten Methoden gibt, um ein Unternehmen oder eine Person vor Deepfakes zu schützen, sind wir zuversichtlich, dass es in naher Zukunft eine Lösung geben wird. Diese könnte zum Beispiel von Truepic kommen – einem Zertifizierungsstartup für die Bild- und Videoauthentifizierung, das sich 8.000.000 US-Dollar an Investititionen gesichert hat, um praktikable Lösungen für die Identifikation von Deepfakes zu entwickeln. Wenn Kommunikatoren die Kamerafunktion von Truepic nutzen, um Fotos zu machen, wird eine URL als Wasserzeichen hinzugefügt, die zu einer Kopie des Fotos führt. Auf diese Weise können Fotos verglichen werden, um sicherzustellen, dass es sich bei einem Bild um eine unverfälschte Version handelt. Der Social-News-Aggregator Reddit nutzt Truepic-Technologie zum Beispiel im Rahmen ihrer „Ask Me Anything Q&As.“

Außerdem ist es natürlich möglich eine Klage wegen Verleumdung, Belästigung, Urheberrechtsverletzung oder Verletzung der Privatsphäre einzureichen oder die jeweilige Plattform zu verklagen. Der mögliche Reputationsschaden lässt sich damit aber höchstwahrscheinlich nicht verhindern.

Ausblick: wie geht es weiter mit Deepfakes?

Es sieht so aus, als könnten einige Länder bald Gesetze gegen diese Technologie erlassen. US-Gesetzgeber haben kürzlich darüber beraten, dass Deepfakes ein Risiko für die nationale Sicherheit darstellen und forderten Geheimdienste auf sich der Herausforderung zu stellen.

Es gibt jedoch gute Argumente dafür, dass bestehende Gesetze bereits ausreichend sind. Dennoch ist es für PR- und Kommunikationsteams empfehlenswert, sich mit Deepfakes auseinanderzusetzen und geeignete Maßnahmen zu ergreifen. Deepfakes haben das Potenzial die Reputation eines Unternehmens oder einer Person in wenigen Sekunden zu zerstören und deshalb sollten sie unter keinen Umständen unterschätzt werden.

Marketing Manager