STRATEGIE INNOVATION

KI-generierte Lügen – ein Beitrag zur Fake-Kultur

ZUR ÜBERSICHT

»Eine Lüge ist bereits drei Mal um die Erde gelaufen, bevor sich die Wahrheit auch nur die Schuhe anzieht.«
– Donald Trump*

Fake News hier, getwitterte Lügen dort – wenn man heute Nachrichten liest, bekommt man leicht den Eindruck, als wären wir heutzutage nur noch von Unwahrheiten und Desinformationskampagnen umgeben. Dabei sind Fälschungen nichts Neues, sondern so alt wie die Menschheitsgeschichte selbst. Ob beim Grabtuch von Turin, den gefälschten Hitler-Tagebüchern oder der außerirdischen Besiedlung des Monds – gefälscht und gelogen wurde schon immer. Was sich dabei ändert, sind die Techniken und Methoden, also die Medien, mit denen Fälschungen angefertigt werden.

Um beispielsweise ein Gemälde von Vincent van Gogh zu fälschen, benötigt es – neben der künstlerisch versierten Hand der*des Fälschenden – auch der entsprechenden zeitgenössischen Materialien. Also z. B. Leinwand, Farben und Pinsel aus der Zeit des Originals. Dass sich derart kunstvoll elaborierte Fakes nur schwer enttarnen lassen, zeigt das Beispiel des ehemaligen Kunstfälschers Wolfgang Beltracchi, der nur anhand eines nicht-authentischen Weißtons in einer seiner Arbeiten als Schwindler entlarvt wurde. Und natürlich wurden und werden nicht nur alte Gemälde gefälscht, auch in der analogen Fotografie wurde bereits getrickst und manipuliert, was das Zeug hält – so ließ Stalin beispielsweise seinen missliebigen Konkurrenten Trotzki per Fotomontage aus einem Bild entfernen, auf dem dieser gemeinsam mit der verstorbenen Ikone Lenin zu sehen war.

Und dennoch war auch für die Manipulation von analogen Fotografien eine recht aufwändige Technik notwendig, die oftmals auch nur von wenigen, meist staatlichen Akteuren umgesetzt werden konnte. Für die Fakes der digitalen Bilder unserer Zeit hingegen genügen zumeist ein PC und Bildbearbeitungssoftware. Und mit der zunehmenden Digitalisierung und damit einhergehenden Komplexitätsreduktionen findet auch eine Verschiebung statt: Es bedarf oftmals keiner kunstfertigen Expert*innen mehr, um täuschend echte Fälschungen zu erstellen. Auch Lai*innen bekommen das schnell und einfach hin – im Zweifelsfall mithilfe des entsprechenden YouTube-Tutorials. Es sind also die Vereinfachung der Techniken und der problemlose Zugang, die sich geändert haben: Wir alle können ohne viel Aufwand Dinge fälschen. Und dank des Internets auch direkt in alle Welt publizieren.

ki-luegen-contentbild-1

Eine neue Qualität von Fälschungen

Was sich darüber hinaus noch massiv geändert hat, ist die Qualität von Fälschungen. Hiermit ist nicht nur deren Grad an vermeintlicher Authentizität gemeint, sondern auch die Qualitas – die eigentliche Beschaffenheit von Fälschungen. Denn auch wenn es Fälschungen schon immer gegeben hat – es macht schon einen Unterschied, ob es sich dabei um ein gefälschtes Kunstwerk, eine Fotomontage oder ein komplett gefälschtes Video, einen sogenannten Deepfake, handelt.

Deepfakes sind gefälschte Bilder und Videos, die mithilfe von künstlicher Intelligenz hergestellt wurden, der Begriff selbst ist dementsprechend eine Zusammensetzung aus Deep Learning und Fake. Mithilfe maschinellen Lernens auf Basis von artifiziellen neuronalen Netzwerken werden hier Algorithmen entwickelt, die sich selbst beibringen, immer perfektere und schwerer zu entlarvende Fakes zu entwickeln. Ein Beispiel hierfür ist das »face swapping«, bei dem Gesichter in Fotos oder Videos getauscht werden. Dies findet aktuell noch vorrangig in der Pornografie statt, wo Gesichter von Prominenten auf die Körper von Pornodarsteller*innen montiert werden. Aber solche Techniken finden auch Einzug in den Alltag – längst gibt es Apps, mit denen sich Deepfakes auf dem eigenen Smartphone erstellen und teilen lassen.

Zwar ist eine realistische Fälschung vor allem von bewegten Bildern auch heutzutage noch recht aufwändig, doch die Algorithmen lernen schnell und beständig. Und Experten warnen bereits seit einiger Zeit davor, dass sich die Deepfake-Technologien so schnell weiterentwickeln, dass bereits in ein bis zwei Jahren auch Durchschnitts-Nutzer*innen brauchbare Fälschungen werden erstellen können und wir dann einen Punkt erreichen, an dem wir nicht mehr zwischen Fake und Original unterscheiden können.

Der Krieg der Algorithmen

Diese Unterscheidungen können dann wiederum nur noch andere Algorithmen treffen, die ihrerseits mithilfe von Deep Learning darauf trainiert werden, die Fakes anhand spezifischer Merkmale zu enttarnen. Und doch ist dies ein ungleicher Kampf – denn einerseits gibt es schlicht mehr Fälscher*innen als solche, die an Gegen-Technologien arbeiten. Und andererseits werden diese oftmals open-source-entwickelten Technologien dann auch wieder von den Deepfaker*innen dafür verwendet, die Fälschungs-Algorithmen noch weiter zu verbessern. Und sie somit schlussendlich auch im Alltag zu verankern.

Und hier liegt auch eines der größten Gefahrenpotenziale von Deepfakes: denn neben der Gefahr der ideologischen Manipulation (z. B. durch rechtspopulistische Akteure) und politischen Horrorszenarien von gefälschten Videos, die einen atomaren Erstschlag auslösen sollen, bergen die Deepfakes zunehmend Möglichkeiten zur »Fakifizierung« unseres audiovisuellen Medienalltags. Fake-Videos, mit denen an Schulen gemobbt wird oder die zu Rufmordkampagnen oder im Rahmen von Privatfehden verwendet werden, sind eine ebensolche Gefahr für unsere Gesellschaft wie der weitere Glaubwürdigkeitsverlust traditioneller Medien: Spätestens wenn es das (abgesehen von Jan Böhmermanns genialem Varoufake) erste Deepfake-Video in die Tagesschau schafft und im Nachhinein enttarnt wird, bekommt die Diskussion um die Glaubwürdigkeit der Presse eine neue Dimension und schürt in der Konsequenz auch weiteres Misstrauen gegen sämtliche ungefälschten Nachrichten-Inhalte.

ki-luegen-contentbild-2

Gefahren für Unternehmen

Neben den gesellschaftspolitischen Problemen, die Deepfakes mit sich bringen werden, stellen sie zunehmend auch Unternehmen vor Herausforderungen. So gab es beispielsweise bereits einige Fälle, in denen Mitarbeiter*innen in der Buchhaltung gefälschte Anrufe von ihren Vorgesetzten erhielten, mit der Anweisung, einem Geschäftspartner Geld zu überweisen – dieser würde seit Kurzem auch ein anderes Konto als bisher benutzen. So plump diese spezielle Masche auf den ersten Blick auch erscheinen mag – Fake-Anrufe von vermeintlichen Chefs, die inzwischen sogar in Echtzeit manipuliert werden können, bergen schon heute ein enormes Risiko-Potenzial für Unternehmen.

Dabei spielt den Betrüger*innen auch in die Karten, dass viele der Mitarbeitenden nur wenig über die Potenziale wissen, die die künstliche Intelligenz bereits heute bietet. Viele können es sich schlicht nicht vorstellen, dass sie in ihrem Arbeitsalltag mit Manipulationen konfrontiert werden. Wichtig ist hier deshalb, Sensibilität und ein Bewusstsein für solche Themen zu schaffen. Auch Trainings oder Schulungen für Mitarbeiter*innen und spezielle Authentifizierungsverfahren für sensible Arbeitsprozesse könnten hier Abhilfe schaffen.

Denn eines ist klar: Deepfakes werden uns in der Wirtschaft und auch als Gesellschaft im Allgemeinen in der Zukunft noch einiges an Kopfzerbrechen bereiten. Um ihnen entgegenzuwirken, bedarf es eines möglichst breiten Pakets an Maßnahmen. Die politische Öffentlichkeit und Internet-Nutzer*innen müssen ein Bewusstsein für moderne KI-Technologien entwickeln, und die Risiken, die diese bergen. Medienkompetenz muss bestenfalls bereits in der Schule fest verankert werden. Die Zertifizierung von Videos mittels elektronischer Signaturen muss vorangetrieben werden. Und Social-Media-Plattformen müssen stärker für die Inhalte in die Pflicht genommen werden, die auf ihnen veröffentlicht werden. Ziel muss es sein, Deepfakes zu dekonstruieren und als das zu entlarven, was sie sind: KI-generierte Lügen.

 

*Dieses Zitat habe ich falsch zugeordnet. Es stammt in Wirklichkeit nicht von Donald Trump, sondern wird oftmals Mark Twain zugeschrieben. Ironischerweise stammt es ursprünglich aber gar nicht von ihm.

autor.

Autorenbild Michael Gsell

Seit Ende Mitte der 1980er Jahre weilt der mit Willy Brandt, Josef Stalin und Christina Aguilera Geburtstag feiernde gebürtige Fürther nun auf der Erde. Von seiner Grundschullehrerin als „zerstreuter Professor“ tituliert, bemühte sich der damals noch Blassedünnejunge nach dem erfolgreichen Abitur und 9 Monaten im Dienst der Zivilgesellschaft um eine akademische Gesellen- und Meisterausbildung auf dem Gebiet der Medienwissenschaft an der Uni Regensburg.

Mit dem Meisterbrief im Gepäck machte sich der von Kreuzbandrissen ausgebremste Profi-Fußball-Couch-Kommentator zurück in fränkische Gefilde und verdingte sich als freier Knipser und Schreiberling im Auftrag der Fürther Nachrichten, bis ihn Mitte 2014 schließlich der Ruf arsmediums ereilte und er dort seitdem fleißig diverse Contents managt und seine nahezu zwanghafte Klugscheiß-Ader zum Leidwesen seiner Kolleginnen in Form von »Qualitätssicherung« auslebt.

Privat trifft man den Pogo-affinen Punkrockfreund, Dudenrapper und Filmliebhaber im Chor der Fürther Musikschule, beim Studium des Karatedō und Kyusho Jitsu im Dojo und in der Zirndorfer ZAE, in der er Geflüchtete im Rahmen eines E-Learning-Kurses beim Erlernen der deutschen Sprache unterstützt.

»When the seagulls follow the trawler, it is because they think sardines will be thrown into the sea.«
Eric Cantona

Der Sprache misst er auch bei seiner Arbeit eine besondere Bedeutung zu, da diese unser Denken konstituiert und darüber auch maßgeblich unsere Emotionalität und unser Handeln steuert. Sie eröffnet uns neue Perspektiven und lässt uns eintauchen in andere emotionale Welten, die wie im obigen Zitat beispielsweise anthropozentrische Denkmuster zu unterminieren vermögen. In diesem Sinne plädiert er für eine möglichst reflektierte Verwendung von Sprachinhalten, die vor allem progressive Zwecke verfolgen möge, schließlich habe die Innovation das Leitmotiv jeglichen gestalterischen Schaffens zu sein – idealerweise verbunden mit einem Augenzwinkern.

Content Management | Quality Management