Deepfake. Haben Sie diesen Begriff schon einmal zu Ohren bekommen? Umgangssprachlich versteht man darunter das künstliche Erzeugen von täuschend echt erscheinenden, aber gefälschten Videoinhalten mithilfe künstlicher Intelligenz. Doch nicht nur Videoinhalte lassen sich mithilfe der Deep-Learning-Technologie fälschen. Auch Bilder und Audiodateien können manipuliert werden, so dass von blossem Auge nicht erkennbar ist, ob diese echt oder gefälscht sind.

Für diese Fälschungen benötigt man Algorithmen, die umgangssprachlich auch Künstliche Intelligenz (KI) genannt werden. Diese artifizielle Intelligenz wird eingesetzt, um das vorhandene Rohmaterial sowohl auditiv als auch visuell zu analysieren und daraus einen Deepfake zu produzieren. Profis brauchen für einen solchen lebensechten Deepfake etwa 5000 Bilder aus möglichst unterschiedlichen Situationen. Was sich nach viel anhört, ist in Realität nur circa 3.5 Minuten Videomaterial.

Generell werden bei visuellen Deepfakes mit Bewegtbilder zwischen zwei verschiedenen Arten unterschieden. Beim sogenannten «Face Swapping» (auf Deutsch «Gesichter tauschen»), tauscht man die Gesichter zweier Personen aus. Dabei gilt eines der Gesichter als Muster für die Bewegungen sowie die Gesichtszüge und ein anderes (oftmals eine berühmte Persönlichkeit) als Referenz für das generelle Aussehen. Dieses Referenzgesicht wird dann auf die Gesichtszüge angepasst und auf das Mustergesicht transformiert.

Eine andere Methode nennt sich «Body Puppetry» (auf Deutsch «Körpermarionette»), welches technisch enorm anspruchsvoll ist. Dabei werden die kompletten Bewegungsabläufe eines ganzen Körpers einer Person übertragen. Dieses Verfahren ist vergleichbar mit einer Marionette.

Die Technologie rund um Deepfakes findet in unzähligen gesellschaftlichen Sparten Anwendung. Unzählige Schlagzeilen verdanken ihre Existenz der Deepfake-Technologie. Auf Sozialen Medien kursieren hunderte solcher Videos, die sich auf politische Entscheidungen oder Entscheidungsträger*innen beziehen. Zu den bekanntesten gehört eines über Barack Obama, in dem er sich lautstark über Donald Trump beschwert. Millionenfach wurde dieses angeschaut und sorgte vor allem in den Vereinigten Staaten von Amerika für Aufruhr und Empörung. Einen ähnlichen Deepfake gibt es auch vom ehemaligen US-Präsidenten Richard Nixon, der eine echte, aber bisher nie veröffentlichte Rede zum Tod der Apollo-11-Astronaten vorlas.

Ausserordentlich ausgeklügelt ist ein Fall von Betrug, mittels Deepfake, bei einer Bank in Hong Kong anfangs 2020. Dank der auditiven Deepfake Technologie konnte sich eine Gruppe von Betrügern wirklichkeitsgetreu als Firmendirektor ausgeben. Der angerufene Bankangestellte versprach seinem angeblichen Chef, die Geldsumme von 35 Millionen US-Dollar für eine Firmenübernahme zu transferieren. Völlig ahnungslos überwies er das Geld an die Betrüger.

Ein bekanntes Beispiel für Deepfakes in der Filmindustrie ist der Film «Fast and Furious 7». Nach dem tragischen Tod eines Hauptdarstellers, wurde mithilfe der Deepfake Technologie sein Gesicht auf das von zwei seiner ihm ähnelnden Brüder transformiert, um den Film noch zu Ende produzieren zu können. Durch die vergangenen Filme hatte man genug Bildmaterial, die für den Deepfake eingesetzt werden konnten. Dank dieser Technologie konnte für die eingefleischten «Fast and Furious» Fans doch noch ein ikonischer und würdiger Abschied produziert werden.

Wegen der stark zunehmenden Gefahren von Deepfake reagieren viele Unternehmen und Konzerne mit Algorithmen, die Fälschungen wie Deepfakes erkennen sollten. Darunter zählen beispielsweise Meta, Adobe, und Microsoft. Schon heute bietet Anthony D. Sahakian mit seiner Schweizer Unternehmung Quantum Integrity Erkennungsprogramme für Grossunternehmen an. Er vergleich dies mit dem Kampf gegen die Computerviren mittels Antivirenprogrammen, welcher nie ein Ende haben wird, da sich beide Seiten aus technologischer Sicht immer weiterentwickeln werden.

Gegenwärtig gibt es zum jetzigen Stand für Privatpersonen aber noch keine frei verfügbare Software zum Erkennen eines Deepfakes.

Das wesentliche Problem an Deepfakes ist der Mensch. Denn im Schnitt erkennen Menschen nur 53 Prozent der veränderten Gesichter. Im Gegensatz dazu erkennt das neuronale Netzwerk-Tool von Adobe in ersten Experimenten 99 Prozent. Zudem glauben Menschen viel eher an eine Information, die der eigenen Lebensauffassung nahekommt, auch wenn sie höchstwahrscheinlich gefälscht ist. Das hat sich in letzter Zeit auch stark während der Covid-Pandemie gezeigt.

Wie kann man sich trotzdem vor Deepfakes schützen?
Das FBI empfiehlt speziell auf Verzerrungen und Unstimmigkeiten bei Pupille sowie Ohrläppchen zu achten. Stark unscharfer oder mit Artefakten versehener Hintergrund kann auch ein Hinweis auf Deepfake bieten. Weiterführend sollte der Grundsatz verfolgt werden, kritische Berichterstattungen von Personen bei mehreren vertrauenswürdigen Quellen zu überprüfen und nicht leichtgläubig jede Information für bare Münze zu nehmen. So sollte eine Meinung nie auf nur einer Quelle basierend gefällt werden. Im geschäftlichen Umfeld sollte zwingend die 4-Augen-Methode eingeführt werden, bevor Zahlungen getätigt werden. Dies bietet eine weitere Sicherheitsbarriere gegenüber möglichen Betrügern.

Spannend was uns erwarten wird, erschreckend zugleich. Künstliche Intelligenz ist eine Technologie, welche Menschen in verschiedenen Bereichen unterstützen soll. Ein Thema, welches die Zukunft stark beeinflussen und prägen wird. So werden Personen von selbstlernenden Computern, die sich wie Menschen verhalten und handeln werden, von A nach B gebracht. Die Technologie wird ein Teil unserer Welt, dies ist nicht zu verhindern. So ist auch Deepfake ein Begriff den man bald mehr zu hören bekommt. Mit der richtigen Handhabung und gesundem Menschenverstand hat dieser einen vergleichsweise kleinen Einfluss auf unsere Gesellschaft. Doch sobald Informationen ohne Hinterfragung geglaubt werden, können auch solche Videos verheerende Konsequenzen mit sich bringen.

(Im Rahmen seiner Abschlussarbeit als Mediamatiker EFZ hat Fabio Wyss (Lernender Mediamatik) das Thema “Deepfakes” behandelt.

Nach oben scrollen