Chinesische Forschungseinrichtungen, die mit der Volksbefreiungsarmee (PLA) in Verbindung stehen, haben Berichten zufolge das Open-Source-Sprachmodell Llama 2 13B von Meta verwendet, um ein KI-Tool mit potenziellen militärischen Anwendungen zu entwickeln. Wie Reuters berichtet, geht aus einem im Juni veröffentlichten Forschungsbericht hervor, dass Forscher, darunter einige aus der Forschungsabteilung der PLA, eine frühe Version von Metas Llama als Grundlage für ein Tool namens „ChatBIT“ verwendet haben.
Die sechs chinesischen Forscher sollen aus drei Institutionen stammen, darunter die Akademie der Militärwissenschaften (AMS).
PLA-nahe chinesische Institutionen “adaptieren Metas KI
Dem Bericht zufolge haben sie Metas Llama-Modell mit einzigartigen Parametern angepasst, um ein militärisches KI-Tool zu entwickeln, das Informationen sammelt und verarbeitet, um genaue und zuverlässige Informationen für operative Entscheidungen zu liefern.
Der Bericht beschreibt, wie ChatBIT verfeinert und „für Dialog- und Frage-Antwort-Aufgaben im militärischen Bereich optimiert“ wurde.
Das Modell habe einige andere KI-Systeme übertroffen und fast 90 Prozent der ChatGPT-4-Fähigkeiten von OpenAI erreicht. Die Autoren nannten jedoch keine spezifischen Leistungskennzahlen und bestätigten auch nicht, ob ChatBIT derzeit aktiv eingesetzt wird, wie in einem Reuters-Bericht erwähnt.
Sunny Cheung, ein Associate Fellow der Jamestown Foundation, der sich auf den Einsatz von Technologie in China spezialisiert hat, wird mit den Worten zitiert:
„Dies ist das erste Mal, dass es substantielle Beweise dafür gibt, dass Militärexperten der Volksbefreiungsarmee in China systematisch die Möglichkeiten von Open-Source-LLMs, insbesondere von Meta, erforschen und versuchen, sie für militärische Zwecke zu nutzen“.
Herausforderungen für Meta bei der Durchsetzung von Nutzungsbeschränkungen
Meta, das sich für ein Open-Release-Modell für viele seiner KI-Systeme, einschließlich Llama, einsetzt, legt spezifische Nutzungsbeschränkungen fest. So müssen Organisationen mit mehr als 700 Millionen Nutzern eine Lizenz von Meta erwerben, und die Bedingungen verbieten ausdrücklich die Nutzung dieser Modelle für militärische, nukleare, Spionage- oder andere sensible Zwecke.
Dennoch räumt das Unternehmen ein, dass es aufgrund der Offenheit seiner Modelle nur begrenzt in der Lage ist, die Einhaltung der Regeln durchzusetzen. Molly Montgomery, Direktorin für öffentliche Politik bei Meta, erklärte gegenüber Reuters: „Jegliche Nutzung unserer Modelle durch die Volksbefreiungsarmee ist nicht erlaubt und verstößt gegen unsere Richtlinien zur akzeptablen Nutzung“.
Die Forscher wiesen darauf hin, dass das Modell nur mit 100.000 militärischen Dialogen trainiert wurde – ein relativ kleiner Datensatz im Vergleich zu anderen großen Sprachmodellen.
Anfang dieser Woche berichtete ReadWrite, dass die Biden-Administration Beschränkungen eingeführt hat, um US-Investitionen in fortgeschrittene Technologien in China, wie KI, zu begrenzen. Unter Berufung auf nationale Sicherheitsbedenken wurden die Regeln im Laufe des letzten Jahres in Betracht gezogen und sollen nun am 2. Januar in Kraft treten.
ReadWrite bat Meta um einen Kommentar.
Featured image: Canva