OpenAI hat kürzlich eine Reihe von iranischen Accounts aufgedeckt und entfernt, die den ChatGPT-Chatbot missbrauchten, um eine ausländische Einflusskampagne im Vorfeld der US-Präsidentschaftswahlen zu führen. Diese Aktion verdeutlicht erneut, wie einfach künstliche Intelligenz (KI) in politischen Kontexten eingesetzt werden kann, um die öffentliche Meinung gezielt zu manipulieren.
Laut Bloomberg nutzten die betroffenen Accounts ChatGPT, um Inhalte zu erstellen, die sowohl liberale als auch konservative Ansichten widerspiegelten. Dazu gehörten unter anderem Beiträge, die behaupteten, der frühere Präsident Donald Trump werde in sozialen Medien zensiert und plane, sich selbst zum König der USA zu ernennen.
Ein weiterer Beitrag spekulierte, dass die Wahl von Tim Walz durch Vizepräsidentin Kamala Harris als „kalkulierte Entscheidung zur Einheit“ getroffen wurde (OpenAI).
Kapitel in diesem Beitrag:
Mangelnde Resonanz und technologische Hürden
Trotz dieser Bemühungen blieb die Resonanz auf die Kampagne gering. Ben Nimmo, Hauptuntersucher im Intelligence- und Investigationsteam von OpenAI, erklärte auf einer Pressekonferenz, dass die Beiträge kaum Beachtung fanden, was möglicherweise auf die noch unausgereifte Nutzung der KI-Tools zurückzuführen sei.
Nimmo stellte fest:
„Die Operation versuchte, beide Seiten zu bespielen, aber es sah nicht so aus, als ob sie von einer der beiden Seiten Engagement erhalten hätte.“
Es ist natürlich nur eine Frage der Zeit, bis die Personen die technische Expertise haben, um die KI effektiv zu nutzen und dann sollte man Wege haben, um dies zu unterbinden.
Hintergrund: KI und politische Einflussnahme
Es ist nicht das erste Mal, dass KI in solch sensiblen Kontexten eingesetzt wird. Bereits im Mai dieses Jahres berichtete OpenAI über ähnliche Operationen aus Russland, China, Iran und Israel, bei denen ebenfalls KI-Technologie zur Verstärkung von Propaganda genutzt wurde.
Dass solche Fälle vermehrt auftreten, macht deutlich, dass sie für Regierungen von Staaten durchaus ein effektives Werkzeug sind, um die Meinung der Bewohner anderer Länder zu manipulieren.
Maßnahmen von OpenAI
Um weitere Versuche zu unterbinden, hat OpenAI nicht nur die betroffenen Accounts gesperrt, sondern auch relevante Informationen mit Regierungen und anderen wichtigen Akteuren geteilt. Diese proaktive Vorgehensweise zeigt, wie ernst das Unternehmen die Bedrohung durch den missbräuchlichen Einsatz von KI nimmt.
Bei dem von Elon Musks xAI entwickelten KI-Modell Grok 2 dürfte man vergeblich auf ähnliche Maßnahmen warten. Musk hat sich in der Vergangenheit zurückhaltend gezeigt, wenn es darum ging, Desinformation auf X zu bekämpfen. Es bleibt daher fraglich, ob er eingreifen würde, sollte sein Sprachmodell für politische Manipulation genutzt werden.
Fazit für die Zukunft
Obwohl die aktuelle Aktion keine signifikante Wirkung erzielen konnte, bleibt die Frage offen, wie effektiv künftige KI-gestützte Kampagnen zur Einflussnahme auf politische Ereignisse sein könnten.
OpenAI und andere Unternehmen müssen konstant überprüfen, wie ihre Modelle verwendet werden. Es ist entscheidend, innovative Lösungen zu entwickeln, um den Missbrauch von KI zu verhindern.
Die beste Lösung wäre natürlich, eine globale Zusammenarbeit ins Leben zu rufen, die sich diesem Problem annimmt.
Weitere Quellen: OpenAI, Iran International, Voice of America
Meine Tipps & Tricks rund um Technik & Apple
Ähnliche Beiträge
Seit 2012 betreibe ich meinen Blog als Sir Apfelot und helfe meinen Lesern bei technischen Problemen. In meiner Freizeit flitze ich auf elektrischen Einrädern, fotografiere mit meinem iPhone, klettere in den hessischen Bergen oder wandere mit meiner Familie. Meine Artikel behandeln Apple-Produkte, Drohnen-News und Lösungen für aktuelle Bugs.