Künstliche Intelligenz (KI) spielt eine wichtige Rolle bei der Verbesserung von Deepfakes, aber sie kann auch zur Erkennung und Bekämpfung dieser Manipulationstechniken eingesetzt werden. So wurde durch die rasante Weiterentwicklung von Künstlicher Intelligenz und darauf basierend auch von Deepfakes die Beweislast in der öffentlichen Wahrnehmung umgekehrt.
Ein Kommentar von Morgan Wright, Chief Security Advisor bei SentinelOne
Die Opfer eines auf Deepfakes gestützten Cyberangriffs, also die Person deren Identität imitiert wurde, müssen nun beweisen, dass sie eine bestimmte Aussage nicht getätigt haben, die ihnen unterstellt wird – ein oftmals nahezu aussichtloses Unterfangen. Gerade aufgrund dieser Beweislastumkehr werden Deepfakes zunehmend attraktiver für Desinformationskampagnen.
Einer der ersten nationalstaatlichen Akteure, der diese Form der Desinformation nutzen wird, ist Russland. Das Land hat eine lange Tradition darin, aktiv Maßnahmen zu ergreifen, um die „Schwächen des Westens“ auszunutzen und Spaltungen in sozialen Fragen, Meinungsfreiheit und demokratischer Politik zu betreiben, indem es die eigene Propaganda-Maschinerie in Gang setzt.
Die grundsätzliche Verfügbarkeit von immer leistungsfähigeren Computern und KI-Tools, sowie die Menge des im Internet verfügbaren Audio- und Video- Materials von Staatsoberhäuptern, Prominenten und anderen Persönlichkeiten und auch Privatpersonen bedeutet jedoch, dass mittlerweile fast jeder Internet-Troll auch ein Bedrohungsakteur sein kann.
Selbst wenn der Deepfake irgendwann widerlegt wird, ist es dann oftmals schon zu spät. Nehmen wir an, er existiert lange genug, um viral zu gehen. In diesem Fall wird es äußerst schwierig sein, diese angebliche „Wahrheit“ wieder aus der Welt – oder zumindest aus dem Gedächtnis – zu schaffen.
Vor allem, nachdem sich ein bestimmter Narrativ in den Köpfen der Menschen verankert hat, die das gefälschte Material gesehen haben. Es besteht die Gefahr, dass der Eindruck erweckt wird, ein Staatsoberhaupt oder eine andere Person der Öffentlichkeit würde eine bestimmte Aussage treffen, die aus freien Stücken so niemals getroffen worden wäre.
Das Risiko das hierdurch entsteht ist, dass diese Aussage plötzlich unbewusst mit dem eigentlichen Opfer assoziiert wird, auch wenn es dafür keinerlei Grundlage gibt, abgesehen von einer erwiesenen Fälschung.
Glücklicherweise kann ein solcher Deepfake momentan noch schnell von anderen Medien widerlegt werden. Gründliche Recherche und das Hinzuziehen von weiteren Quellen erlauben es auch dem ungeübten Auge, Deepfakes zu entlarven.
Angesichts des aktuellen Konflikts (Russland-Ukraine) und potenzieller Konflikte (China-Taiwan), geht die größere Gefahr von einem Deepfake aus, der eine Authentizität nie zuvor dagewesener Qualität besitzt. Dadurch könnten Bedrohunsgakteure die Weltmeinung massiv beeinflussen und einen Krieg erzwingen, um ihre Interessen durchzusetzen.
Ausblick
Desinformation ist eine mächtige Waffe in der politischen Kriegsführung, die zwar nicht neu ist, allerdings enorm von jüngsten technologischen Entwicklungen und Meilensteinen profitieren kann. Das Verständnis des Gegners und seiner Ziele kann Verantwortlichen bei der Entwicklung von wirksamen Gegenmaßnahmen helfen.
Doch nicht alle Lösungen und Hilfen sind dabei technischer Natur. Einige sind verhaltensorientiert. Genau darauf wird ein raffinierter Gegner abzielen. Ganz gleich, ob es darum geht, die öffentliche Meinung schrittweise zu manipulieren oder den Vorwurf einer schrecklichen Tat zu erheben:
Die Angreifer setzen darauf, dass das menschliche Verhalten vorhersehbare Reaktionen hervorruft. Es könnte daher an der Zeit sein, Edgar Allen Poes Ratschlag „nichts zu glauben, was man hört, und nur die Hälfte zu glauben, von dem was man sieht“, in das Zeitalter der Künstlichen Intelligenz zu übertragen.