Die Entwickler der KI-Software ChatGPT haben eigenen Angaben zufolge in den vergangenen drei Monaten fünf Desinformations-Kampagnen staatlich unterstützter Akteure gestoppt. Diese wollten demnach Künstliche Intelligenz (KI) von ChatGPT für ihre Aktivitäten nutzen.
OpenAI, der Betreiber von ChatGPT, teilte in einem Blog mit, dass die vereitelten Kampagnen ihren Ursprung in Russland, China, im Iran und der bei der israelischen Handelsgesellschaft STOIC haben. Sie versuchten, die fraglichen Akteure Sprachmodelle von OpenAI für Aufgaben wie die Generierung von Kommentaren, Artikeln, Profilen in Online-Netzwerken und das Austesten von Codes für Bots und Webseiten zu nutzen. Die erstellten Inhalte hätten wohl aber keine hohen Reichweiten erzielt, heißt es weiter.
Weiter heißt es von OpenAI, dass die Zusammenarbeit und der Austausch von Geheimdienstinformationen und in die Anwendung des Unternehmens eingebaute Schutzvorrichtungen es möglich machten, den Missbrauch aufzudecken.
Zu diesen Desinformations-Kampagnen gehört laut OpenAI „Bad Grammar“, einer unbekannten russischen Kampagne, die sich gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Sie nutzen die Modelle und Werkzeuge von OpenAI, um politische Kommentare in Englisch und Russisch in dem Messengerdienst Telegram zu generieren. Das bekannte russische Netzwerk „Doppelgänger“ nutzte die KI von OpenAI, um Kommentare auf der Plattform X (ehemals Twitter) auf Deutsch, Englisch, Französisch und Polnisch zu erzeugen.
KI-Unternehmen wie OpenAI stehen wegen wichtiger Wahlen in diesem Jahr unter strenger Beobachtung. Es wird befürchtet, dass Software wie ChatGPT oder der Bildgenerator Dall-E in kürzester Zeit und in einem großen Umfang manipulierte Inhalte produzieren können, wie Texte, Bilder oder mehr. Menschen glauben dann, dass diese echt seien und dies auch glauben. Russland und China sowie der Iran nutzen gezielt Online-Plattformen zur Desinformation, um Wahlen für sich zu manipulieren.
Quelle: Tagesschau.de