Eine Koalition aktueller und ehemaliger Mitarbeiter/innen von OpenAI, der Muttergesellschaft von ChatGPT, warnt in einem Brief vor den existenziellen Bedrohungen durch fortschrittliche künstliche Intelligenz, einschließlich des potenziellen Aussterbens der Menschheit.
In einem ausführlichen Brief, der (4. Juni) veröffentlicht wurde, beschreibt die Gruppe, die aus 13 ehemaligen und aktuellen Mitarbeitern von Firmen wie OpenAI, Anthropic und Googles DeepMind besteht, eine Reihe von Bedrohungen, die mit KI trotz ihrer potenziellen Vorteile verbunden sind.
In dem Brief heißt es: “Wir sind aktuelle und ehemalige Mitarbeiter von KI-Unternehmen und glauben an das Potenzial der KI-Technologie, der Menschheit beispiellose Vorteile zu bringen. Es werden aber auch Bedenken geäußert: “Diese Risiken reichen von der weiteren Verstärkung bestehender Ungleichheiten über Manipulation und Fehlinformation bis hin zum Kontrollverlust über autonome KI-Systeme, der zum Aussterben der Menschheit führen könnte”.
Neel Nanda, Leiter der Abteilung für maschinelle Interpretation bei DeepMind und zuvor bei AnthropicAI, gehörte zu den Unterzeichnern. “Ich habe dies NICHT getan, weil ich derzeit etwas an meinen derzeitigen oder früheren Arbeitgebern auszusetzen habe oder ihre Haltung gegenüber Whistleblowern besonders kritisieren möchte”, schrieb er auf X. “Aber ich glaube, dass AGI unglaublich folgenreich sein wird und, wie alle Labore erkennen, eine existenzielle Bedrohung darstellen könnte. Jedes Labor, das AGI durchführen will, muss beweisen, dass es des öffentlichen Vertrauens würdig ist, und ein starkes und geschütztes Recht der Mitarbeiter, Hinweise zu geben, ist ein wichtiger erster Schritt”.
I signed this appeal for frontier AI companies to guarantee employees a right to warn.
This was NOT because I currently have anything I want to warn about at my current or former employers, or specific critiques of their attitudes towards whistleblowers.https://t.co/hyEBuy3YDj
— Neel Nanda (@NeelNanda5) June 4, 2024
Mangelnde Rechenschaftspflicht und Regulierung von KI
Die Befürworterinnen und Befürworter argumentieren, dass KI-Unternehmen und Regierungen auf der ganzen Welt diese Gefahren zwar erkannt haben, die derzeitigen unternehmerischen und regulatorischen Maßnahmen jedoch nicht ausreichen, um sie zu verhindern. “KI-Unternehmen haben starke finanzielle Anreize, sich einer wirksamen Aufsicht zu entziehen, und wir glauben nicht, dass maßgeschneiderte Corporate-Governance-Strukturen ausreichen, um dies zu ändern”, argumentieren sie.
Der Bericht kritisiert die Transparenz der KI-Unternehmen und behauptet, dass sie “über beträchtliche nicht-öffentliche Informationen über die Fähigkeiten und Grenzen ihrer Systeme, die Angemessenheit ihrer Schutzmaßnahmen und das Risikoniveau verschiedener Arten von Schäden” verfügen. Er weist darauf hin, dass diese Unternehmen nicht verpflichtet sind, diese wichtigen Informationen offen zu legen: “Sie sind derzeit nur schwach verpflichtet, einige dieser Informationen mit Regierungen, aber nicht mit der Zivilgesellschaft zu teilen.”
Die Arbeiter fordern dringend mehr staatliche Kontrolle und öffentliche Rechenschaftspflicht. “Solange es keine effektive staatliche Aufsicht über diese Unternehmen gibt, gehören die derzeitigen und ehemaligen Beschäftigten zu den wenigen Personen, die sie gegenüber der Öffentlichkeit zur Rechenschaft ziehen können”, so die Gruppe. Sie zeigten auch die Grenzen des bestehenden Schutzes für Whistleblower auf, der die unregulierten Risiken von KI-Technologien nicht vollständig abdeckt.
OpenAI in der Kritik
Der offene Brief kommt inmitten eines Umbruchs bei führenden KI-Unternehmen, insbesondere bei OpenAI, das KI-Assistenten mit erweiterten Funktionen auf den Markt gebracht hat, die in der Lage sind, Live-Sprachkonversationen mit Menschen zu führen und auf visuelle Eingaben wie Videoübertragungen oder schriftliche Matheaufgaben zu reagieren.
Scarlett Johansson, die in dem Film “Her” eine KI-Assistentin spielt, hat OpenAI vorgeworfen, eines ihrer Produkte nach ihrer Stimme zu modellieren, obwohl sie einen solchen Vorschlag ausdrücklich zurückgewiesen hat. Obwohl der CEO von OpenAI während der Markteinführung des Sprachassistenten das Wort “Her” getwittert hatte, hat das Unternehmen inzwischen die Behauptung zurückgewiesen, Johanssons Stimme als Modell verwendet zu haben.
Im Mai löste OpenAI auch ein spezielles Team auf, das gegründet worden war, um die langfristigen Bedrohungen durch KI zu untersuchen – weniger als ein Jahr nach seiner Gründung. Im Juli letzten Jahres trat auch Dave Willner, der Leiter für Vertrauen und Sicherheit bei OpenAI, zurück.
Featured image: Canva