Wie OpenAI den Missbrauch künstlicher Intelligenz im US-Wahlkampf verhindern will

18.01.2024 10:33

Durch künstliche Intelligenz lassen sich Wahlen so einfach manipulieren wie nie zuvor. Der ChatGPT-Betreiber OpenAI hat nun einen Plan vorgestellt, um das Missbrauchsrisiko zu minimieren. Der Zeitpunkt ist kein Zufall.

Dieses Jahr wird in so vielen Ländern gewählt wie selten: In über 50 Staaten stimmt die Bevölkerung über ihre politische Führung ab. Gleichzeitig ist die Manipulationsgefahr so hoch wie nie. Durch die Revolution bei generativer Künstlicher Intelligenz lassen sich im Nu Bilder, Texte und sogar Videos erstellen, um den Gegner schlecht aussehen zu lassen. Mit OpenAI hat sich nun eines der Unternehmen an der Speerspitze der KI-Entwicklung verpflichtet, dem einen Riegel vorzuschieben. 

Dass die Gefahr groß ist, war dem Betreiber von ChatGPT bereits länger bewusst. "Ich bin nervös, welche Auswirkungen KI auf künftige Wahlen haben wird", gestand OpenAI-Chef Sam Altman bereits im letzten Sommer beim Kurznachrichtendienst X, vormals Twitter. "Personalisierte Eins-zu-eins-Überredung wird zusammen mit hochqualitativ erstellten Medien eine gewaltige Macht entwickeln", glaubte er. Fünf Monate später verkündet das Unternehmen nun, welche Maßnahmen man genau ergreifen will, um das zu verhindern.

Angst vor Manipulation

Wahlen vor Manipulation zu schützen sei die Aufgabe aller, betont das Unternehmen in seinem Blogpost. "Und wir wollen sicherstellen, dass unsere Technologie nicht in einer Weise eingesetzt wird, die diesen Prozess unterminieren könnte." Dazu hat man gleich mehrere Ansätze entwickelt, um einen Missbrauch von ChatGPT – immerhin die mit Abstand bekannteste Texterstellungs-KI – sowie der Bilderstellungs-KI Dall-E zu verhindern.

So soll ChatGPT nicht mehr in der Lage sein, politische Kampagnen zu erstellen oder Lobbyismus-Texte zu verfassen. Auch das Erstellen von Chat-Bots, die politische Kandidaten imitieren, ist untersagt. Um aktuelle politische Informationen einbinden zu können, arbeitet die Firma zudem eng mit internationalen Nachrichtenverlagen zusammen. Informationen zum US-Wahlrecht bekommt die KI nun direkt von der überparteilichen Wahlorganisation NASS.

Da bereits im vergangenen Jahr mehrere KI-Bilder von Politikern viral gingen, soll Dall-E ebenfalls Schutzmaßnahmen erhalten. OpenAI arbeitet dazu mit einer Koalition von KI-Firmen zusammen, um Wasserzeichen in die mit Dall-E erstellten Bilder einzubauen. So sollen KI-Fakes schnell erkennbar werden. Ein sogenanntes "Herkunftsklassifizierungs"-Werkzeug soll helfen, mit Dall-E erstellte Bilder auch ohne Wasserzeichen zu erkennen. Die Maßnahmen sollen alle in der nächsten Zeit implementiert werden.

Überfällige Maßnahmen

Dass die KI-Branche erst jetzt mit der Umsetzung solcher Maßnahmen beginnt, ist eigentlich überraschend. Schon die Erfahrung der letzten Jahre in den sozialen Medien zeigte schließlich, in welchem Ausmaß politische Akteure Missbrauch betreiben, wenn neue Technologien das zulassen. Gerade Werkzeuge, mit denen sich im Nu neue Inhalte erstellen lassen, hätten also schon deutlich früher Möglichkeiten zum Missbrauch und entsprechende Gegenmaßnahmen mitdenken können.

Beispiele gibt es bereits genug. Schon im letzten Jahr machten KI-erstellte Bilder von einer Verhaftung Donald Trumps die Runde, die AfD nutzte Bilder vermeintlicher Flüchtlinge zur Stimmungsmache. Nach dem Gründen-Parteitag sorgten Bilder zurückgelassener Pizzaschachteln in den sozialen Medien für Wut – auch nachdem die Bilder als KI-erstellt identifiziert worden waren (hier erfahren Sie mehr).

Weltweites Super-Wahljahr 

Viel länger hätten die Maßnahmen also nicht auf sich warten lassen sollen: Mit den USA, Indien, Großbritannien, Russland und zahlreichen weiteren Staaten wird in über 50 Ländern knapp die Hälfte der Weltbevölkerung dieses Jahr an die Wahlurnen gerufen. Vor allem die Wahl in den USA zwischen dem aktuellen Präsidenten Joe Biden und seinem wahrscheinlichen Herausforderer Donald Trump gilt als richtungsweisend – und gleichzeitig als enorm manipulationsgefährdet.

Wie gut die Pläne OpenAIs den Missbrauch tatsächlich im Zaum halten können, muss sich zeigen. Social-Media-Firmen wie Meta kämpfen seit Jahren mit immer neuen Mitteln gegen die Manipulation. Trotz messbarer Erfolge haben sie die größte Gefahr bislang nicht in den Griff bekommen: Wenn Wähler die Falschmeldungen glauben wollen, hält sie oft auch ein Faktencheck nicht davon ab. 

Quelle