2024 wurde als «Superwahljahr» bezeichnet, weil weltweit noch nie so viele Menschen wählen durften. Gleichzeitig haben Expert:innen vor den Gefahren künstlicher Intelligenz (KI) und Falschinformationen für die Demokratie gewarnt. Zoë van Doren ist Expertin für internationale Digitalpolitik bei der Friedrich-Naumann-Stiftung (D). Sie hat zum Einfluss von KI und Falschinformationen bei Wahlen weltweit geforscht. Im Gespräch erklärt sie, welche Rolle KI für die Wahlen 2024 gespielt hat und was uns in Zukunft noch erwartet.
Anfangs 2024 befürchteten viele, dass KI und Falschinformationen demokratische Prozesse verzerren würden. Was ist Ihre Einschätzung?
Zoë van Doren: Es gab diese Schlagzeilen, dass KI die Wahlen entscheiden würde. Aber wir hatten keine soliden Daten dazu – deshalb haben wir eine Studie durchgeführt und uns gefragt: Wo ist die Gesellschaft verletzbar? Welche Trends gibt es? Rückblickend zeigt sich, dass der Einfluss von KI weniger gravierend war, als zunächst angenommen. Dennoch sind klare Trends und Schwachstellen erkennbar, die in den kommenden Jahren zunehmend problematisch werden könnten – vor allem für demokratische Systeme.
Was heisst das konkret?
Eine wichtige Erkenntnis ist, dass Menschen Desinformationen oft glauben, selbst wenn diese als falsch gekennzeichnet sind. Das hängt stark mit der emotionalen Resonanz zusammen. Inhalte, die sich für Menschen «richtig» anfühlen oder in ihr Weltbild passen, werden ungeachtet ihrer Richtigkeit als wahr empfunden. Ein Beispiel dafür sahen wir in den USA: Es wurde offen zugegeben, dass die Aussage, dass Immigranten Haustiere essen würden, falsch war. Trotzdem hielten viele daran fest. Die Begründung lautete sinngemäss: «Wir wissen, dass es nicht wahr ist, aber es fühlt sich so an, als ob ein wahrer Kern darin steckt.» Diese Art von Argumentation ist gefährlich, weil sie falsche Inhalte legitimiert. Es wird behauptet, dass die zugrunde liegende Botschaft trotzdem wahr sei.
Zur Wahl von Donald Trump: Wie wirkt sich seine Wahl auf die globale Lage hinsichtlich Falschinformation aus?
Die Wahl von Trump zeigt, dass gefühlte Wahrheiten oft wichtiger sind als Fakten. Das verändert den politischen Diskurs massiv. Es geht weg von einer faktenbasierten Debatte hin zu emotionalen, populistischen Narrativen. Das ist eine grosse Herausforderung für demokratische Parteien. Sie müssen dagegenhalten, ohne selbst populistische Muster zu bedienen. Auch in der Wirtschaft sehen wir den Einfluss von Trump. Viele Akteure der Tech-Branche – etwa Elon Musk, Sam Altman (CEO von OpenAI; Anm. FM) oder Konzerne wie Meta (Facebook, Instagram; Anm. FM) und Alphabet (Google; Anm. FM) – versuchen sich bei ihm anzubiedern. Der Grund: Sie erwarten weniger Regulierung. Das betrifft vor allem die Weiterentwicklung von künstlicher Intelligenz. Innovationen könnten dadurch schneller vorangetrieben werden, aber ethische und gesellschaftliche Fragen drohen vernachlässigt zu werden.
Fairmedia-Newsletter abonnieren
Was denken Sie, wie wirken sich diese Entwicklungen auf demokratische Gesellschaften aus?
Der Vertrauensverlust in demokratische Institutionen ist kein neues Phänomen. Natürlich ermöglicht KI die effizientere Verbreitung von Desinformation, aber die grundlegende Frage bleibt: Wie gehen wir mit diesem Vertrauensverlust um? Es wäre falsch, in eine Schockstarre oder in Fatalismus zu verfallen. Stattdessen sollten wir bestehende Werkzeuge nutzen und weiterentwickeln. Denn es gibt eine klare Korrelation: Wer das Vertrauen in die Demokratie verliert, ist anfälliger für Desinformation und manipulative Narrative. Das Vertrauen hängt aber nicht nur von politischen Kampagnen ab. Es braucht funktionierende staatliche Strukturen, die den Menschen im Alltag zeigen, dass der Staat verlässlich ist. Wenn jemand etwa fünf Monate auf einen neuen Reisepass warten muss, ist das für viele der einzige direkte Kontakt mit dem Staat. Funktioniert das nicht, entsteht schnell der Eindruck: «Der Staat kriegt ja nicht mal das hin.» Solche Erfahrungen tragen massiv zum Vertrauensverlust bei. Wir müssen also mehrdimensional denken. KI kann hier durchaus helfen – etwa indem sie staatliche Abläufe effizienter gestaltet oder KI-generierte Inhalte auf den sozialen Medien erkennt und kennzeichnet. Aber darüber hinaus brauchen wir auch mehr gesamtgesellschaftliche Resilienz. Menschen müssen an die Demokratie und ihre Institutionen glauben. Nur so können wir den Herausforderungen durch Desinformation und hybriden Bedrohungen standhalten.
Was kann eine demokratische Gesellschaft tun, um dieses Vertrauen zu stärken?
In vielen Bereichen sind wir bereits auf einem guten Weg, Resilienz aufzubauen. Ein wichtiger Ansatz ist es, in Schulen verstärkt über Desinformation aufzuklären. Eine kürzlich durchgeführte, noch unveröffentlichte Umfrage zeigt, dass sich viele Jugendliche wünschen, dass dieses Thema im Unterricht mehr Beachtung findet. Wichtig ist jedoch, dass sich diese Bemühungen nicht auf Jugendliche beschränken. Es ist eine gesamtgesellschaftliche Aufgabe. Besonders die Rolle der Zivilgesellschaft wird meiner Meinung nach noch zu wenig diskutiert. Wir müssen uns fragen: Was bedeuten hybride Bedrohungen für unsere Gesellschaft? Wie können wir widerstandsfähigere Strukturen schaffen? Welche Verantwortung trägt die Zivilgesellschaft selbst?
Ein spannendes Beispiel dazu kommt aus Taiwan. Das Spiel Pokémon Go ist dort äusserst beliebt bei älteren Menschen. Vor den letzten Wahlen gingen Aktivist:innen deshalb gezielt an jene Orte, wo viele Personen, die das Spiel spielen, zusammenkommen. Sie verteilen Wasserflaschen und klärten dann im Gespräch über Desinformation auf. Solche Initiativen zeigen, wie die Zivilgesellschaft aktiv Verantwortung im öffentlichen Informationsraum übernehmen kann. Diese gemeinsame Verantwortung ist entscheidend. Es geht nicht nur darum, Desinformation zu bekämpfen, sondern den digitalen Raum aktiv zu gestalten. Der Informationsraum ist offen und frei – aber es liegt an uns, ihn positiv zu nutzen, statt ihn destruktiven Kräften zu überlassen. Das muss ein zentrales Ziel sein.
(Veröffentlicht am 14.1.2025 von Tobias König)