Ein Hacker soll sich Zugang zu den internen Nachrichtensystemen von OpenAI verschafft und vertrauliche Informationen über den Designprozess bei der Entwicklung der KI-Produkte des Unternehmens gestohlen haben.
Wie die New York Times berichtet, wurde ein Online-Forum kompromittiert, in dem sich die Mitarbeiter über die neuesten Entwicklungen des ChatGPT-Herstellers austauschen, doch der Tech-Riese hat angedeutet, dass der böswillige Akteur keinen Zugang zu den wichtigsten Repository-Systemen für die Speicherung und den Aufbau seiner KI hatte.
Führungskräfte von OpenAI, die kürzlich CriticGPT auf den Markt gebracht haben, informierten den Vorstand und die Mitarbeiter über den Einbruch, der im April 2023 stattgefunden haben soll. In dem Bericht heißt es weiter, dass die Geschäftsführung davon ausging, dass es sich um das Werk einer Privatperson handelte, die keine Verbindung zu einem staatlichen Auftraggeber hatte und auch nicht als Bedrohung für die nationale Sicherheit angesehen wurde.
OpenAI informierte auch nicht die Strafverfolgungsbehörden des Bundes über den Vorfall.
Potenzielle Gefährdung der nationalen Sicherheit
Das Unternehmen ist mit einer gewissen Alarmstimmung vertraut, nachdem es im Mai bestätigt hatte, dass es fünf verdeckte Einflussnahmen aufgedeckt hatte, die darauf abzielten, seine KI-Modelle für “betrügerische Aktivitäten” im Internet zu nutzen.
Einige Mitarbeiter äußerten die Befürchtung, dass diese Sicherheitslücke dazu führen könnte, dass geopolitische Rivalen wie China das KI-Eigentum des Unternehmens stehlen könnten.
Obwohl die Technologie in erster Linie ein Arbeits- und Recherchewerkzeug ist, entwickelt sie sich in einem rasanten Tempo weiter, was letztendlich zu einem nationalen Sicherheitsrisiko führen könnte. Es wurde die Frage aufgeworfen, wie ernst OpenAI Sicherheitsfragen nimmt, und die Ergebnisse zeigten Schwachstellen innerhalb des Unternehmens in Bezug auf die Risiken von KI.
Leopold Aschenbrenner, ein technischer Manager, der an einem Projekt zur Sicherung der Zukunft der KI-Technologie arbeitete, wandte sich an den Vorstand von OpenAI, um ihn zu warnen, dass nicht genug getan werde, um das Eindringen feindlicher ausländischer Akteure in die Systeme des Unternehmens zu verhindern.
Aschenbrenner wurde Anfang des Jahres wegen der Weitergabe von Informationen entlassen, beharrte jedoch darauf, dass seine Entlassung politisch motiviert gewesen sei.
Image credit: Via Ideogram