OpenAI, das Unternehmen hinter ChatGPT, hat ein Tool entwickelt, mit dem sich feststellen lässt, ob das große Sprachmodell einen Text erzeugt hat, aber aufgrund negativer Kundenreaktionen zögert, ihn zu veröffentlichen.
Das Erkennungswerkzeug basiert auf Text-Wasserzeichen, d.h. es werden geringfügige Änderungen an der Wortwahl von ChatGPT vorgenommen, die von einem Werkzeug, das das Wasserzeichen kennt, mit hoher Genauigkeit erkannt werden können.
Laut dem Wall Street Journal wäre die Aktivierung des Erkennungstools “nur eine Frage des Knopfdrucks”, aber die Ergebnisse einer Umfrage zeigen, dass fast 30% der ChatGPT-Benutzer das KI-Tool weniger nutzen würden, wenn es Wasserzeichen verwenden würde, während konkurrierende Chatbots dies nicht tun.
Warum hat OpenAI das ChatGPT-Erkennungstool nicht veröffentlicht?
Eine Sprecherin von OpenAI sagte: “Die von uns entwickelte Methode der Text-Wasserzeichen ist technisch vielversprechend, birgt aber auch erhebliche Risiken, die wir bei der Suche nach Alternativen abwägen”, sagte sie. “Wir glauben, dass der bewusste Ansatz, den wir gewählt haben, angesichts der Komplexität und der wahrscheinlichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus notwendig ist.”
Das Unternehmen hat auch eine Seite auf seiner Website aktualisiert, um einige seiner Argumente zu erläutern. Ein Hauptanliegen ist, dass das Wasserzeichen “unverhältnismäßige Auswirkungen auf bestimmte Gruppen” haben könnte, insbesondere auf Nicht-Muttersprachler, die KI als Schreibwerkzeug verwenden.
Sie drückten auch ihre Besorgnis darüber aus, wie leicht das Wasserzeichen umgangen werden könnte, und erklärten: “Während es sehr genau und sogar wirksam gegen lokale Manipulationen wie Paraphrasierung ist, ist es weniger robust gegen globale Manipulationen wie die Verwendung von Übersetzungssystemen, die Umformulierung mit einem anderen generativen Modell oder die Anweisung an das Modell, ein bestimmtes Zeichen zwischen jedem Wort einzufügen und dieses Zeichen dann zu entfernen – was es für böswillige Akteure trivial macht, es zu umgehen”.
Auf derselben Seite erwähnt OpenAI auch, dass der Schwerpunkt auf der Entwicklung von Werkzeugen zur Erkennung audiovisueller Inhalte liegt, da Bilder, Audio und Video “in diesem Stadium der Fähigkeiten unserer Modelle weithin als riskanter angesehen werden”.
Warum ist effektive KI-Erkennung so wichtig?
Wie das Wall Street Journal berichtet, hat eine kürzlich vom Center for Democracy and Technology durchgeführte Umfrage ergeben, dass 59 % der Lehrer an Sekundarschulen und Gymnasien davon überzeugt sind, dass einige Schüler KI bei ihrer Arbeit einsetzen.
Eines der Probleme ist der Mangel an wirksamen Werkzeugen zur Erkennung von KI – es gibt zwar viele, aber die leistungsfähigsten sind hinter Bezahlschranken versteckt, und selbst diese sind nicht immun gegen falsch positive Ergebnisse und andere Fehler. Es gibt einige Möglichkeiten festzustellen, ob eine KI einen Text geschrieben hat, aber je ausgefeilter die Technologie hinter diesen LLMs wird, desto schwieriger wird es, sie zu erkennen.
In dem Maße, in dem OpenAI-interne Parteien erkennen, dass die Wasserzeichenmethode die Qualität der ChatGPT-Ergebnisse nicht beeinträchtigt, wächst der interne Widerstand gegen die Zurückhaltung des Tools. “Unsere Fähigkeit, das Fehlen von Text-Wasserzeichen zu verteidigen, ist schwach, jetzt, da wir wissen, dass es die Ergebnisse nicht beeinträchtigt”, sagten Mitarbeiter, die am Testen des Tools beteiligt waren, laut internen Dokumenten, die dem Wall Street Journal zugänglich gemacht wurden. “Ohne dies riskieren wir unsere Glaubwürdigkeit als verantwortungsbewusste Akteure”, heißt es in einer Zusammenfassung eines kürzlich abgehaltenen Treffens zum Thema KI-Erkennung.
Featured image: Ideogram