OpenAI entfernt iranische ChatGPT-Accounts, die US-Wahl beeinflussen sollten

OpenAI hat kürzlich eine Reihe von iranischen Accounts aufgedeckt und entfernt, die den ChatGPT-Chatbot missbrauchten, um eine ausländische Einflusskampagne im Vorfeld der US-Präsidentschaftswahlen zu führen. Diese Aktion verdeutlicht erneut, wie einfach künstliche Intelligenz (KI) in politischen Kontexten eingesetzt werden kann, um die öffentliche Meinung gezielt zu manipulieren.

Laut Bloomberg nutzten die betroffenen Accounts ChatGPT, um Inhalte zu erstellen, die sowohl liberale als auch konservative Ansichten widerspiegelten. Dazu gehörten unter anderem Beiträge, die behaupteten, der frühere Präsident Donald Trump werde in sozialen Medien zensiert und plane, sich selbst zum König der USA zu ernennen.

Ein weiterer Beitrag spekulierte, dass die Wahl von Tim Walz durch Vizepräsidentin Kamala Harris als „kalkulierte Entscheidung zur Einheit“ getroffen wurde (OpenAI).

iPhone mit OpenAI Logo

Mangelnde Resonanz und technologische Hürden

Trotz dieser Bemühungen blieb die Resonanz auf die Kampagne gering. Ben Nimmo, Hauptuntersucher im Intelligence- und Investigationsteam von OpenAI, erklärte auf einer Pressekonferenz, dass die Beiträge kaum Beachtung fanden, was möglicherweise auf die noch unausgereifte Nutzung der KI-Tools zurückzuführen sei.

Nimmo stellte fest:

„Die Operation versuchte, beide Seiten zu bespielen, aber es sah nicht so aus, als ob sie von einer der beiden Seiten Engagement erhalten hätte.“

Es ist natürlich nur eine Frage der Zeit, bis die Personen die technische Expertise haben, um die KI effektiv zu nutzen und dann sollte man Wege haben, um dies zu unterbinden.

Hintergrund: KI und politische Einflussnahme

Es ist nicht das erste Mal, dass KI in solch sensiblen Kontexten eingesetzt wird. Bereits im Mai dieses Jahres berichtete OpenAI über ähnliche Operationen aus Russland, China, Iran und Israel, bei denen ebenfalls KI-Technologie zur Verstärkung von Propaganda genutzt wurde.

Dass solche Fälle vermehrt auftreten, macht deutlich, dass sie für Regierungen von Staaten durchaus ein effektives Werkzeug sind, um die Meinung der Bewohner anderer Länder zu manipulieren.

Maßnahmen von OpenAI

Um weitere Versuche zu unterbinden, hat OpenAI nicht nur die betroffenen Accounts gesperrt, sondern auch relevante Informationen mit Regierungen und anderen wichtigen Akteuren geteilt. Diese proaktive Vorgehensweise zeigt, wie ernst das Unternehmen die Bedrohung durch den missbräuchlichen Einsatz von KI nimmt.

Bei dem von Elon Musks xAI entwickelten KI-Modell Grok 2 dürfte man vergeblich auf ähnliche Maßnahmen warten. Musk hat sich in der Vergangenheit zurückhaltend gezeigt, wenn es darum ging, Desinformation auf X zu bekämpfen. Es bleibt daher fraglich, ob er eingreifen würde, sollte sein Sprachmodell für politische Manipulation genutzt werden.

Fazit für die Zukunft

Obwohl die aktuelle Aktion keine signifikante Wirkung erzielen konnte, bleibt die Frage offen, wie effektiv künftige KI-gestützte Kampagnen zur Einflussnahme auf politische Ereignisse sein könnten.

OpenAI und andere Unternehmen müssen konstant überprüfen, wie ihre Modelle verwendet werden. Es ist entscheidend, innovative Lösungen zu entwickeln, um den Missbrauch von KI zu verhindern.

Die beste Lösung wäre natürlich, eine globale Zusammenarbeit ins Leben zu rufen, die sich diesem Problem annimmt.

Weitere Quellen: OpenAI, Iran International, Voice of America

Meine Tipps & Tricks rund um Technik & Apple

Hat dir der Artikel gefallen und helfen dir die Anleitungen im Blog? Dann würde ich mich freuen, wenn du das Blog über eine Steady-Mitgliedschaft unterstützen würdest.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Im Sir Apfelot Blog findest du Ratgeber, Anleitungen und Testberichte zu Apple Produkten wie iPhone, iPad, Apple Watch, AirPods, iMac, Mac Pro, Mac Mini und Mac Studio.

Specials
Shopping
  •  
  •  

Meine Tipps & Tricks rund um Technik & Apple