OpenAI hat eine Warnung an seine Nutzer herausgegeben, nachdem bekannt wurde, dass einige begonnen haben, Gefühle für seinen Chatbot GPT-4o zu entwickeln.
In einem „System Card“-Blogpost wies das KI-Unternehmen auf die Risiken hin, die mit „Anthropomorphisierung und emotionaler Bindung“ verbunden sind, d.h. mit der Zuschreibung menschlicher Verhaltensweisen und Eigenschaften an nicht-menschliche Entitäten wie KI-Modelle.
OpenAI erklärte, dass das Risiko durch die erweiterten Audiofähigkeiten von GPT-4o, die realistischer erscheinen, erhöht werden könnte. Nach Angaben des Technologieunternehmens haben frühe Tests gezeigt, dass Nutzer eine Sprache verwenden, die darauf hindeutet, dass sie eine Bindung mit dem OpenAI-Modell eingehen. Dazu gehört beispielsweise eine Sprache, die gemeinsame Bindungen ausdrückt, wie „Dies ist unser letzter gemeinsamer Tag“.
We’re sharing the GPT-4o System Card, an end-to-end safety assessment that outlines what we’ve done to track and address safety challenges, including frontier model risks in accordance with our Preparedness Framework. https://t.co/xohhlUquEr
— OpenAI (@OpenAI) August 8, 2024
Das Phänomen könnte weiterreichende soziale Auswirkungen haben. „Eine menschenähnliche Sozialisierung mit einem KI-Modell kann zu externen Effekten führen, die sich auf zwischenmenschliche Interaktionen auswirken“, so OpenAI weiter. „Zum Beispiel könnten Nutzer soziale Beziehungen mit der KI eingehen und so ihr Bedürfnis nach menschlicher Interaktion verringern – was möglicherweise einsamen Menschen zugute kommt, aber auch gesunde Beziehungen beeinträchtigen könnte.“
Omni-Modelle wie GPT-4o bedeuten, dass die KI in der Lage ist, sich wichtige Details einer Konversation zu merken, was aber auch zu einer übermäßigen Abhängigkeit von technologischen Interaktionen führen kann.
OpenAI fügte hinzu, dass es das Potenzial für emotionale Abhängigkeit untersuchen werde und wie eine tiefere Integration der Funktionen seines Modells und seiner Systeme mit dem Audio-Tool das Verhalten der Menschen beeinflussen und sie dazu bringen könnte, eine Bindung zu ihm aufzubauen.
Das Unternehmen behauptet jedoch, dass die Modelle „respektvoll“ seien und dass der Benutzer sie jederzeit unterbrechen und das Mikrofon entfernen könne.
OpenAI hat auch festgestellt, dass GPT-4o manchmal „unbeabsichtigt eine Ausgabe erzeugt, die die Stimme des Benutzers imitiert“. Das bedeutet, dass es dazu verwendet werden kann, sich als jemand anderes auszugeben, was von Kriminellen bis hin zu böswilligen Ex-Partnern für schädliche Aktivitäten ausgenutzt werden kann.
Das Leben imitiert die Kunst – GPT-4o im Vergleich zu Her
Einige Nutzer kommentierten diese seltsame Entwicklung auf X mit den Worten, sie sei „gruselig“ und ähnele der Handlung des Films „Her“ aus dem Jahr 2013. Ein anderer verglich die Auswirkungen mit der Science-Fiction-Serie „Black Mirror“.
This is creepy…
From the OpenAI GPT-4osystem card – https://t.co/2pGz84dMUk
"During testing, we also observed rare instances where the model would unintentionally generate an output emulating the user’s voice" pic.twitter.com/xMyfywkatC
— Axel Hunter (@axelphunter) August 10, 2024
OpenAI just leaked the plot of Black Mirror's next season. https://t.co/kfOQ4jLkwa pic.twitter.com/ZG2SoZA7yY
— Max Woolf (@minimaxir) August 8, 2024
Zufälligerweise entfernte OpenAI eine der von GPT-4o verwendeten Stimmen, nachdem sie mit der Schauspielerin Scarlett Johansson und der von ihr gespielten Figur in „Her“ verglichen worden war.
Featured image: Canva / Ideogram