Reputationsmanagement: Wie Sie mit „Deepfakes“ umgehen

Reputationsmanagement: Wie Sie mit „Deepfakes“ umgehen
28. November 2018 Nina Walloch

Reputationsmanagement:
Wie Sie mit „Deepfakes“ umgehen

Reputation Management: What to do about "deepfakes"

Fake News sind seit geraumer Zeit ein viel diskutiertes Thema, aber¬†derzeit breitet sich ein weiteres Ph√§nomen aus¬†– die sogenannten „Deepfakes“. Diese neue, umstrittene¬†KI-basierte Technologie hat das Potenzial, die Art und Weise¬†wie wir Content konsumieren erheblich zu ver√§ndern.

Was sind Deepfakes?

Deepfakes beziehen sich auf KI-basiertes Image-Swapping in unbewegten Bildern sowie in Videos. Betrachten Sie es als eine Weiterentwicklung des traditionellen Face-Swapping, das sich mit¬†Snapchat¬†und anderen Apps durchf√ľhren l√§sst.

Um einen Deepfake zu erstellen, brauchen Sie lediglich ein Quellbild oder -video einer Person sowie verschiedene Bilder und Videos einer anderen Person (deren Gesicht Sie auf das Gesicht der urspr√ľnglichen Person √ľbertragen m√∂chten). Das neuronale Netzwerk Ihres Computers lernt dann die Bewegungen und Ausdr√ľcke der Person aus dem Quellbild- oder video und ersetzt das Gesicht mit dem der anderen Person.

Deepfake-Technologien werden heute √ľberwiegend f√ľr das sogenannte Face-Swapping eingesetzt, also das digitale Austauschen der Gesichter von zwei Personen. Die Technologie erm√∂glicht es aber auch ganz leicht die menschliche Sprache nachzuahmen.¬†Mit der App Lyrebird¬†ist es zum Beispiel m√∂glich, realistische k√ľnstliche Stimmen zu erzeugen – und das bereits mithilfe eines einmin√ľtigen Audio-Beispiels.

Die Zunahme von Deepfakes und die dunkle Seite von Deep Learning

Deepfakes existieren bereits seit einiger Zeit. Ihre Popularit√§t hat jedoch¬†im Laufe des letzten Jahres erheblich¬†zugenommen, als¬†die Reddit-Community angefangen hat sich damit intensiv zu besch√§ftigen. Es fing damit an, dass ein Reddit-Nutzer verschiedene Deepfake-Pornovideos auf Reddit geteilt hat. Einige Monate sp√§ter ver√∂ffentlichte ein anderer Nutzer das Tool FakeApp. Mit diesem Tool konnte jeder jedes beliebige Gesicht nahtlos in ein Video einf√ľgen. Daraufhin tauchten immer mehr Deepfakes im Internet auf. Als Reaktion darauf wurde der zugeh√∂rige FakeApp-Subreddit von Reddit Anfang 2018 geschlossen. Heute ist auch die Software FakeApp offline, aber es gibt andere Tools, mit dem Deepfakes erstellt werden k√∂nnen: zum Beispiel¬†Faceswap.

Seit langer Zeit kennen und profitieren wir von den Vorteilen von Machine Learning und Deep Learning. Es erm√∂glicht unter anderem Automatisierungs-Tools zu entwickeln und allt√§gliche, m√ľhsame Aufgaben an diese auszulagern. Das f√ľhrt zu einer gesteigerten Produktivit√§t und mehr Effizienz. Deepfakes setzen uns allerdings der dunklen Seite von Deep Learning aus und zeigen, wie Deep Learning auf destruktive Weise eingesetzt werden kann. Jetzt wo Deep Learning so weit forgeschritten ist, dass Software √∂ffentlich und f√ľr jeden zug√§nglich geworden ist, stellt dies nicht nur ein Problem f√ľr jeden von uns (im Sinne des eigentlich notwendigen pers√∂nlichen Einverst√§ndnisses und der Verantwortlichkeit) dar. Auch professionelle Kommunikatoren m√ľssen jetzt das mit Deepfakes einhergehende Risiko in ihre Kommunikationspl√§ne miteinbeziehen.

Beispiele von Deepfakes

Im April 2018 hat Jordan Peele mit Buzzfeed zusammengearbeitet und einen Deepfake erstellt, in dem Pr√§sident Obama sich in einer √∂ffentlichen Ansprache dazu √§u√üert, wie sich die Gesellschaft im Informationszeitalter weiterentwickelt¬†und wie der Weitergang dieser Entwicklung dar√ľber entscheiden wird, ob „wir zu einer¬†abgefuckten¬†Dystopie werden.“ Das Video wurde weltweit in den Nachrichten aufgegriffen und hat viel Aufmerksamkeit f√ľr das Thema Deepfakes generiert.

Interessanterweise gibt es verschiedene k√ľrzlich ver√∂ffentlichte Filme, die ebenfalls Deepfake-Techniken eingesetzt haben. Ein bemerkenswertes Beispiel ist Star Wars: The Last Jedi, bei dem die Produzenten KI-Technologie nutzten, um eine 19-j√§hrige Carrie Fischer nachzubilden.

Steigende Risiken durch Deepfakes

Mit Deepfakes sind¬†viele Risiken verbunden. Politisch gesehen haben Deepfakes das Potenzial Wahlen zu beeinflussen oder¬†in St√§dten, die von Unruhen betroffen sind, zu Gewalt anzustiften. Experten glauben, dass Deepfakes zu einer „Zero Trust“ Gesellschaft beitragen, in der Verbraucher grunds√§tzlich nichts und niemandem mehr vertrauen. Zudem gibt es noch datenschutzrechtliche Risiken und Bedenken dar√ľber, wie Deepfakes-Technologie eingesetzt werden kann, um zum Beispiel Pornos oder andere¬†vors√§tzlich b√∂sartige Face-Swaps zu Rachezwecken zu erstellen.

Deepfakes stellen au√üerdem ein erhebliches¬†Problem f√ľr PR- und Kommunikationsteams dar, denn¬†sie k√∂nnen daf√ľr genutzt werden, um ein Unternehmen oder ber√ľhmte Pers√∂nlichkeiten in Verruf zu bringen. Vor diesem Hintergrund gehen wir davon aus, dass das Toolset des „Reputationsmanagements“ bald f√ľr einen effektiven Umgang mit Deepfakes erweitert werden muss.

Deepfakes und Ethik

Im Spannungsfeld von Deepfakes und Ethik ist eines der wichtigsten Konzepte das des Einverst√§ndnisses. Solange eine Person, deren Gesicht in Deepfakes abgebildet¬†wurde, ihr Einverst√§ndnis f√ľr die Darstellung und Verbreitung des Videos nicht gegeben hat, verletzt¬†dies die Rechte dieser Person. Es kann au√üerdem schwerwiegende Folgen f√ľr das pers√∂nliche und berufliche Leben dieser Person haben.

Das gilt sowohl f√ľr ber√ľhmte Pers√∂nlichkeiten (zahlreiche Schauspielerinnen, darunter Gal Gadot und Emma Watson waren bereits Opfer von Deepfake-Pornos), aber auch¬†f√ľr jede andere Person. Wer meint Deepfakes von Freunden und Familie zu erstellen sei ein harmloser Scherz, der hat sich get√§uscht. Alle Deepfakes, die ohne ein Einverst√§ndnis der betroffenen Person erstellt werden, sind generell problematisch und unethisch.

Wie PR- und Kommunikationsteams mit Deepfakes umgehen können

Da Deepfakes immer alltäglicher werden, sollten sich PR- und Kommunikationsexperten mit Deepfake-Technologien auseinandersetzen und Fähigkeiten aneignen, um Deepfakes zu erkennen und um zu lernen mit diesen umzugehen.

Seitens der Medien nimmt zum Beispiel das Wall Street Journal die Risiken, die von Deepfakes ausgehen, bereits sehr ernst und hat eine Deepfakes-Taskforce ins Leben gerufen, die als WSJ Media Forensics Committee bezeichnet und vom Ethics & Standards sowie den Research & Development-Teams geleitet wird. „Das Bewusstsein der Redaktion f√ľr neue Technologien zu st√§rken, ist sehr wichtig,“ sagt¬†Christine Glancey, stellvertretende Redakteurin im Ethics & Standards-Team der Zeitung. „Wir wissen nicht, wo zuk√ľnftige Deepfakes auftauchen k√∂nnten, deshalb sollten wir eine m√∂gliche Disinformation im Auge behalten.“¬†Sam Woolley vom¬†Digital Intelligence Lab (Institute for the Future) f√ľgt dem hinzu, dass „Tools wie k√ľnstliche Intelligenz, automatisierte Sprachsysteme, Machine Learning, Deepfakes, interaktive Memes, Virtual Reality und Augmented Reality die digitale Disinformation effektiver machen und es schwieriger wird diese zu bew√§ltigen.“

¬†Hier finden Sie einige hilfreiche Tipps f√ľr den Umgang mit Deepfakes:

Deepfakes erkennen

Da sich die Technologie f√ľr Deepfakes in einem fr√ľhen Stadium befindet, ist es bisher noch relativ leicht Deepfakes zu erkennen. Noch enth√§lt die Mehrheit der Bilder und Videos offensichtliche¬†Fehler, doch das wird sich in naher Zukunft √§ndern – Kommunikatoren m√ľssen sich also jetzt darauf vorbereiten. Kommunikationsteams k√∂nnen verschiedene Schritte unternehmen, um Deepfakes zu erkennen. Sie k√∂nnen zum Beispiel die digitale Datei dahingehend untersuchen, ob ein Video und ein Bild k√ľnstlich miteinander verbunden wurden. Hierbei spielen Faktoren wie Beleuchtung und andere physikalische Elemente des Videos, die auf Widerspr√ľche hindeuten, eine Rolle. Siwei Lyu, ein Informatik-Professor, der eine Software f√ľr die Identifikation von Deepfakes entwickelt hat, sagt au√üerdem, dass k√ľnstliche Charaktere in Deepfakes dazu neigen weniger und unnat√ľrlicher zu blinzeln. Sogar die US-amerikanische Armee arbeitet an einem √§hnlichen Projekt: die Defense Advanced Research Projects Agency¬†(DARPA) hat vor kurzem weltweit f√ľhrende Experten f√ľr digitale Forensik versammelt, um im Rahmen einer √úbung Deepfakes zu identifizieren.

Die Reputation vor Deepfakes sch√ľtzen

Deepfakes sind ein relativ neues Ph√§nomen, deshalb gibt es leider keine¬†bew√§hrten Strategien f√ľr PR- und Kommunikationsteams, die von Deepfakes betroffen sind. Auch wenn es keine konkreten Methoden gibt, um ein Unternehmen oder eine Person vor Deepfakes zu sch√ľtzen, sind wir zuversichtlich, dass es in naher Zukunft eine L√∂sung geben wird. Diese k√∂nnte zum Beispiel von¬†Truepic kommen – einem Zertifizierungsstartup f√ľr die Bild- und Videoauthentifizierung, das sich 8.000.000 US-Dollar an Investititionen gesichert hat, um praktikable L√∂sungen f√ľr die Identifikation von Deepfakes zu entwickeln. Wenn Kommunikatoren die Kamerafunktion von Truepic nutzen, um Fotos zu machen, wird eine URL als Wasserzeichen hinzugef√ľgt, die zu einer Kopie des Fotos f√ľhrt. Auf diese Weise k√∂nnen Fotos verglichen werden, um sicherzustellen, dass es sich bei einem Bild um eine unverf√§lschte Version handelt. Der Social-News-Aggregator¬†Reddit nutzt Truepic-Technologie zum Beispiel im Rahmen ihrer „Ask Me Anything Q&As.“

Au√üerdem ist es nat√ľrlich m√∂glich eine Klage wegen Verleumdung, Bel√§stigung, Urheberrechtsverletzung oder Verletzung der Privatsph√§re einzureichen oder die jeweilige Plattform zu verklagen. Der m√∂gliche Reputationsschaden l√§√üt sich damit aber h√∂chstwahrscheinlich nicht verhindern.

Ausblick: wie geht es weiter mit Deepfakes?

Es sieht so aus, als k√∂nnten¬†einige L√§nder bald Gesetze gegen diese Technologie erlassen.¬†US-Gesetzgeber haben k√ľrzlich dar√ľber beraten, dass Deepfakes ein Risiko f√ľr die nationale Sicherheit darstellen und forderten Geheimdienste auf sich der Herausforderung zu stellen.

Es gibt jedoch gute Argumente daf√ľr, dass¬†bestehende Gesetze bereits ausreichend sind. Dennoch ist es f√ľr PR- und Kommunikationsteams empfehlenswert, sich mit Deepfakes auseinanderzusetzen und geeignete Ma√ünahmen zu ergreifen. Deepfakes haben das Potenzial die Reputation eines Unternehmens oder einer Person in wenigen Sekunden zu zerst√∂ren und deshalb sollten sie unter keinen Umst√§nden untersch√§tzt werden.

Junior Marketing Manager