Kamala Harris, US-Vizepräsidentin und wahrscheinliche Präsidentschaftskandidatin, ist gegenwärtig massiven Deepfake-Angriffen ausgesetzt. So teilte jüngst Elon Musk, der Eigentümer von X, ein manipuliertes Video von Harris, ohne es als Deepfake zu kennzeichnen. Weiter entfernte die Social-Media-Plattform TikTok ein Deepfake-Video, das so manipuliert wurde, dass es scheint, als würde Harris inkohärent vor sich hin brabbeln.
Deepfakes sind durch künstliche Intelligenz erstellte falsche Bilder, Videos oder Stimmen real existierender Personen. Kritische Stimmen sehen darin eine ernsthafte Bedrohung für die Demokratie, während andere die Angst vor der Technologie für übertrieben halten.
Auch in der Schweiz ein Thema
Auch die Schweiz war schon von Deepfakes im Wahlkampf betroffen. Letztes Jahr kursierte vor den Parlamentswahlen ein Video der Nationalrätin Sibel Arslan in den sozialen Medien, das von ihrem politischen Gegner, Nationalrat Andreas Glarner, verbreitet wurde. Arslan zog daraufhin sofort vor Gericht. Glarner musste das Video entfernen und die Anwaltskosten übernehmen. Arslan wurde mit einem guten Resultat wiedergewählt.
Es ist offensichtlich, dass Deepfakes das Potenzial haben, Wahlen oder Abstimmungen zu beeinflussen. Laut einem Artikel von «Politico» gibt es jedoch keine zuverlässigen Belege dafür, welchen Einfluss die Verbreitung von Fälschungen tatsächlich auf Wahlergebnisse hat. Viele Deepfakes werden schnell durch Faktenchecker widerlegt, und die meisten Menschen ändern ihre politische Meinung auch nicht grundlegend allein wegen eines manipulierten Videos. Das bedeutet aber nicht, dass Deepfakes den demokratischen Prozess nicht beeinflussen.
Bisher hauptsächlich weibliche Opfer
Die Deepfake-Technologie darf keinesfalls verharmlost werden. So werden vor allem Frauen von künstlich hergestellten Nacktbildern angegriffen. Ein prominentes Opfer ist Taylor Swift, sie ist aber bei weitem nicht die einzige. Auch Politikerinnen sind betroffen, so zum Beispiel Cara Hunter, eine junge Politikerin aus Nordirland. 2022, einige Wochen vor den nordirischen Parlamentswahlen, verbreitete sich ein pornografisches Deepfake-Video von ihr. Zwar gewann sie die Wahl, doch wurden ihre Persönlichkeitsrechte gravierend verletzt, und sie musste zahlreiche verbale Übergriffe erdulden. Die Angst vor solchen Angriffen könnte vor allem junge Frauen davon abhalten, in die Politik einzusteigen.
Die Dividende der Lügner
Darüber hinaus können Deepfakes langfristig den politischen Prozess negativ beeinflussen, indem sie das Vertrauen in Medien untergraben. Dieser Effekt wird auf Englisch als «liar’s dividend» bezeichnet. Wenn es schwieriger wird, zwischen echten und gefälschten Inhalten zu unterscheiden, können auch echte Videos als Deepfakes abgetan werden, um politischen Schaden zu vermeiden. Zum Beispiel das Ibiza Video des österreichischen Politikers Heinz-Christian Strache oder die «grab ‘em by the pussy» Aussage von Donald Trump. Heutzutage könnten Trump oder Strache behaupten, die Aufnahmen seien Deepfakes.
Wie weiter?
Derzeit lassen sich viele Deepfakes mit etwas Aufwand noch erkennen. Die Technologie entwickelt sich jedoch rasant weiter. Um also zu verhindern, dass die Fälschungen eine echte Bedrohung für die Demokratie werden, müssen sowohl die Tech-Unternehmen, die die Technologie zur Verfügung stellen, als auch die sozialen Medien ihre Verantwortung wahrnehmen.
Dieselbe KI-Technologie, die Deepfake ermöglicht, kann nämlich auch dabei helfen, sie zu entlarven. Die Unternehmen, die Deepfake-Technologie entwickeln, erstellen auch Software zur Erkennung von Deepfakes. Allerdings ist dieses Vorgehen zum Teil noch unzuverlässig, wie ein Beispiel aus dem Gaza-Krieg zeigt, bei dem das Bild eines toten Kindes fälschlicherweise als Deepfake eingestuft wurde, obwohl es höchstwahrscheinlich echt war.
Ein vielversprechender Ansatz zur Bekämpfung von Deepfakes ist die Verwendung von kryptografischen Wasserzeichen, die bloss von Maschinen erkannt werden können. Dafür werden einzelne Pixel des Deepfakes in einem Muster verändert, ohne dass es von blossem Auge erkennbar wäre. Dieses Muster kann mithilfe eines kryptografischen Schlüssels entschlüsselt werden. Diese Wasserzeichen können nur mit erheblichem technischem Fachwissen entfernt werden. Wenn die Unternehmen, die Deepfake-Technologie entwickeln, automatisch solche Wasserzeichen einfügen würden, könnten Social-Media-Plattformen wie Instagram oder TikTok diese erkennen und die Videos entsprechend kennzeichnen.