Mit seinem jüngsten Update vereinfacht ChatGPT die Bearbeitung von Bildern drastisch. Während KI-Systeme immer leistungsfähiger werden, bleibt die Regulierung in der Schweiz aber zögerlich.
Am vergangenen Mittwoch kündigte das Unternehmen OpenAI ein Update von ChatGPT an, einem Chatbot, der auf sogenannter künstlicher Intelligenz (KI) basiert. Das Update betrifft vor allem die Bildgenerierung, die sich nun nicht mehr auf DALL-E 3, sondern auf das multimodale Modell GPT-4o stützt. Abgesehen davon, dass nun komplexere Anfragen möglich sind, vereinfacht das Update auch die Bildbearbeitung. So lassen sich etwa auch existierende Bilder hochladen und mithilfe eines Prompts manipulieren. Entsprechend titelte das deutsche Medium BR24: «Photoshop war gestern: ChatGPT revolutioniert Bildbearbeitung». Das bedeutet: Es sind keine ausführlichen Vorkenntnisse, viel Geduld und starke Nerven mehr nötig, um ein Foto zu manipulieren.
Die schnelle Entwicklung der KI birgt grosses Potenzial – auch für Missbrauch. So besteht etwa die Befürchtung, dass durch die Verbreitung gefälschter Inhalte die öffentliche Meinung manipuliert und damit Einfluss auf Wahlen genommen werden könnte.
Wie gross ist also die Gefahr, die von der rasanten Entwicklung von KI für die Schweizer Demokratie ausgeht?
Dr. Angela Müller, Geschäftsleiterin von AlgorithmWatch Schweiz in Zürich, ordnet ein: Die Tatsache, dass Anbieter generativer KI-Systeme in der Lage seien, fotorealistische Bilder zu generieren, berge tatsächlich auch ein Missbrauchspotenzial – sowohl für die Gesellschaft als auch für Einzelne.
Im Hinblick auf das politische Missbrauchspotenzial relativiert sie zunächst: Obwohl die generierten Bilder irreführend sein könnten, werde wohl «ein einzelnes Deepfake-Bild nicht ganze Wahlen zum Kippen bringen oder die Menschen dazu verleiten, ihre Meinung grundlegend zu ändern.» Die eigentliche Gefahr liege vielmehr in der schleichenden Veränderung unseres Informationsökosystems durch die Flut zunehmend KI-generierter Inhalte. Darüber hinaus weist sie auf die Gefahr hin, die für Einzelne, vor allem für Frauen, durch sexualisierte und frauenfeindliche Inhalte bestehe, wie das bei Deepfake-Porn der Fall sei.
Missbrauchspotenzial entfaltet sich in Kombination mit den Sozialen Medien
Ein wichtiger Punkt sei zudem, dass sich das Missbrauchspotenzial von KI erst dann wirklich entfalten könne, wenn die mit ihrer Hilfe erzeugten Bilder über die Sozialen Medien verbreitet würden. Problematisch sei dabei vor allem, dass schockierende und aufwühlende Inhalte – was auf viele Falschinformationen zutrifft – von den Algorithmen der Sozialen Medien bevorzugt würden. Dies, weil die Betreiber wollten, dass die Nutzer möglichst lange auf ihrer Plattform verweilen.
Folglich müssten nicht nur die Anbieter von KI-Systemen, sondern auch die Betreiber Sozialer Medien stärker «in die Pflicht genommen und zur Rechenschaft gezogen werden». Dabei sei auch zu beachten, dass es sich bei den Betreibern von Sozialen Medien und den Anbieter von KI-Systemen oft um dieselben Unternehmen handle.
Schweiz hinkt bei Regulierung hinterher
Wie steht es also um die Regulierung Sozialer Medien und KI in der Schweiz? Während die EU bereits 2022 den Digital Services Act (DSA) verabschiedet hat, der klare Regeln für Soziale Medien und Onlineplattformen einführt, um Personen im digitalen Raum besser zu schützen, fehlt in der Schweiz eine vergleichbare Regelung. Eine entsprechende Vorlage hätte bis 2024 ausgearbeitet werden sollen, doch die Vernehmlassung wurde bereits mehrfach verschoben.
Was die Regulierung von KI betrifft, so unterzeichnete Bundesrat Albert Rösti am 27. März die Konvention des Europarats über Künstliche Intelligenz, die sich «für einen verantwortungsvollen und grundrechtskonformen Einsatz von KI-Technologien» einsetzt. Hier soll die entsprechende Vernehmlassungsvorlage bis Ende 2026 vorliegen.
(Publiziert am 31.3.2025; Tobias König)