OpenAI hat nach eigenen Angaben im Jahr der globalen Wahlen mehr als 20 betrügerische Operationen und Netzwerke gestört, um Bedrohungsakteure daran zu hindern, ihre Ziele zu erreichen.
In einem im Oktober veröffentlichten Bericht erklärte das Unternehmen hinter ChatGPT, es sei sich „der Bedeutung der Entwicklung robuster, mehrschichtiger Abwehrmechanismen gegen staatlich unterstützte Cyber-Akteure und verdeckte Einflussnahme bewusst, die versuchen könnten, unsere Modelle zur Förderung betrügerischer Kampagnen in sozialen Medien und anderen Internetplattformen zu nutzen“.
Bedrohliche Akteure sind eine Gruppe von Personen, die absichtlich Schaden im Cyberspace anrichten.
Seit Mai hat das Unternehmen kontinuierlich neue KI-gestützte Tools entwickelt, die bei der Erkennung und Analyse potenziell schädlicher Aktivitäten helfen.
Obwohl Bedrohungsakteure identifiziert wurden, hat das KI-Forschungsunternehmen „keine Beweise dafür gesehen, dass dies zu bedeutenden Durchbrüchen in ihrer Fähigkeit geführt hat, substanziell neue Malware zu erstellen oder virale Zielgruppen aufzubauen“.
OpenAI hat Aktivitäten unterbrochen, die Social-Media-Inhalte zu den Wahlen in den Vereinigten Staaten, Ruanda, Indien und der Europäischen Union generiert haben.
OpenAI bleibt in hoher Alarmbereitschaft“, um Bedrohungsakteure zu identifizieren und zu stören
Seit Anfang des Jahres wurden vier verschiedene Netzwerke, die zumindest in gewissem Umfang wahlbezogene Inhalte enthielten, unterbrochen. Nur eines dieser Netzwerke in Ruanda soll sich ausschließlich auf Wahlfragen konzentriert haben, während die anderen auch Inhalte zu anderen Themen produzierten und veröffentlichten.
Im Mai und Juni wurden zwei Aktivitäten beanstandet, die sich zwar teilweise auf demokratische Prozesse bezogen, aber einen anderen Schwerpunkt hatten.
Ebenfalls im Juni, vor den Wahlen zum Europäischen Parlament, wurde eine zuvor nicht gemeldete Operation gestört, die darin bestand, „Kommentare zu den Wahlen zum Europäischen Parlament in Frankreich und zur Politik in Italien, Polen, Deutschland und den Vereinigten Staaten zu generieren“.
Im Juli wurden dann mehrere ChatGPT-Accounts mit Sitz in Ruanda gesperrt, nachdem dort Kommentare zu den dortigen Wahlen generiert worden waren. Die Kommentare wurden dann von mehreren Accounts auf X gepostet, aber die meisten erhielten nur wenige oder gar keine Likes, Shares oder Kommentare.
Angesichts der bevorstehenden Wahlen in den USA erklärt das KI-Unternehmen, wie es seinen Ansatz der verantwortungsvollen Störung fortsetzen wird. „Wir haben Informationen über Bedrohungen mit Industriepartnern und relevanten Interessengruppen geteilt. Wir werden in höchster Alarmbereitschaft bleiben, um weitere Versuche, in demokratische Wahlprozesse einzugreifen, zu erkennen, zu stören und Erkenntnisse darüber auszutauschen.“
Featured Image: KI-generiert via Midjourney