Home OpenAI warnt Nutzer vor emotionaler Bindung an Chatbot GPT-4o

OpenAI warnt Nutzer vor emotionaler Bindung an Chatbot GPT-4o

Highlights

  • OpenAI hat Nutzer gewarnt, nachdem sie emotionale Bindungen zu ihrem Chatbot GPT-4o festgestellt haben, was zu ethischen Bedenken geführt hat.
  • Die Nutzer haben Anzeichen dafür gezeigt, dass sie die KI vermenschlichen, was sich auf menschliche Beziehungen und Sozialisierung auswirken könnte.
  • OpenAI plant, diese emotionale Bindung und die Auswirkungen einer tieferen Integration von KI-Funktionen zu untersuchen.

OpenAI hat eine Warnung an seine Nutzer herausgegeben, nachdem bekannt wurde, dass einige begonnen haben, Gefühle für seinen Chatbot GPT-4o zu entwickeln.

In einem „System Card“-Blogpost wies das KI-Unternehmen auf die Risiken hin, die mit „Anthropomorphisierung und emotionaler Bindung“ verbunden sind, d.h. mit der Zuschreibung menschlicher Verhaltensweisen und Eigenschaften an nicht-menschliche Entitäten wie KI-Modelle.

OpenAI erklärte, dass das Risiko durch die erweiterten Audiofähigkeiten von GPT-4o, die realistischer erscheinen, erhöht werden könnte. Nach Angaben des Technologieunternehmens haben frühe Tests gezeigt, dass Nutzer eine Sprache verwenden, die darauf hindeutet, dass sie eine Bindung mit dem OpenAI-Modell eingehen. Dazu gehört beispielsweise eine Sprache, die gemeinsame Bindungen ausdrückt, wie „Dies ist unser letzter gemeinsamer Tag“.

Das Phänomen könnte weiterreichende soziale Auswirkungen haben. „Eine menschenähnliche Sozialisierung mit einem KI-Modell kann zu externen Effekten führen, die sich auf zwischenmenschliche Interaktionen auswirken“, so OpenAI weiter. „Zum Beispiel könnten Nutzer soziale Beziehungen mit der KI eingehen und so ihr Bedürfnis nach menschlicher Interaktion verringern – was möglicherweise einsamen Menschen zugute kommt, aber auch gesunde Beziehungen beeinträchtigen könnte.“

Omni-Modelle wie GPT-4o bedeuten, dass die KI in der Lage ist, sich wichtige Details einer Konversation zu merken, was aber auch zu einer übermäßigen Abhängigkeit von technologischen Interaktionen führen kann.

OpenAI fügte hinzu, dass es das Potenzial für emotionale Abhängigkeit untersuchen werde und wie eine tiefere Integration der Funktionen seines Modells und seiner Systeme mit dem Audio-Tool das Verhalten der Menschen beeinflussen und sie dazu bringen könnte, eine Bindung zu ihm aufzubauen.

Das Unternehmen behauptet jedoch, dass die Modelle „respektvoll“ seien und dass der Benutzer sie jederzeit unterbrechen und das Mikrofon entfernen könne.

OpenAI hat auch festgestellt, dass GPT-4o manchmal „unbeabsichtigt eine Ausgabe erzeugt, die die Stimme des Benutzers imitiert“. Das bedeutet, dass es dazu verwendet werden kann, sich als jemand anderes auszugeben, was von Kriminellen bis hin zu böswilligen Ex-Partnern für schädliche Aktivitäten ausgenutzt werden kann.

Das Leben imitiert die Kunst – GPT-4o im Vergleich zu Her

Einige Nutzer kommentierten diese seltsame Entwicklung auf X mit den Worten, sie sei „gruselig“ und ähnele der Handlung des Films „Her“ aus dem Jahr 2013. Ein anderer verglich die Auswirkungen mit der Science-Fiction-Serie „Black Mirror“.

Zufälligerweise entfernte OpenAI eine der von GPT-4o verwendeten Stimmen, nachdem sie mit der Schauspielerin Scarlett Johansson und der von ihr gespielten Figur in „Her“ verglichen worden war.

Featured image: Canva / Ideogram

Redaktionelle Richtlinien von ReadWrite

Die ReadWrite Redaktionspolitik beinhaltet die genaue Beobachtung der Technologiebranche im Hinblick auf wichtige Entwicklungen, neue Produkteinführungen, Fortschritte bei der künstlichen Intelligenz, die Veröffentlichung von Videospielen und andere Ereignisse mit Nachrichtenwert. Die Redakteure weisen wichtige Entwicklungen fest angestellten Autoren oder freiberuflichen Mitarbeitern zu, die über Fachwissen in den jeweiligen Themenbereichen verfügen. Vor der Veröffentlichung werden die Artikel einer strengen Prüfung auf Genauigkeit und Klarheit unterzogen, um die Einhaltung der Stilrichtlinien von ReadWrite zu gewährleisten.

Suswati Basu
Tech journalist

Suswati Basu is a multilingual, award-winning editor and the founder of the intersectional literature channel, How To Be Books. She was shortlisted for the Guardian Mary Stott Prize and longlisted for the Guardian International Development Journalism Award. With 18 years of experience in the media industry, Suswati has held significant roles such as head of audience and deputy editor for NationalWorld news, digital editor for Channel 4 News and ITV News. She has also contributed to the Guardian and received training at the BBC As an audience, trends, and SEO specialist, she has participated in panel events alongside Google. Her…

Die wichtigsten Tech-Schlagzeilen des Tages direkt in Ihren Posteingang

    Door u aan te melden, gaat u akkoord met onze voorwaarden en ons privacybeleid. U kunt zich op elk gewenst moment afmelden.

    Tech News

    Entdecken Sie das Neueste aus der Welt der Technik mit unseren Tech News. Wir bieten präzise, relevante Updates, die Sie über die sich dynamisch entwickelnde Tech-Landschaft informieren, mit ausgewählten Inhalten.

    Ausführliche Tech Stories

    Erfahren Sie mehr über die Bedeutung der Technik in ausführlichen Reportagen. Datenjournalismus bietet umfassende Analysen und enthüllt die Geschichten hinter den Daten. Verstehen Sie Branchentrends und gewinnen Sie einen tieferen Einblick in die komplizierten Beziehungen zwischen Technologie und Gesellschaft.

    Experten Berichte

    Expertenberichte, die Branchenkenntnisse und aufschlussreiche Analysen kombinieren, erleichtern die Auswahl. Erfahren Sie mehr über die technischen Feinheiten, holen Sie sich die besten Angebote und bleiben Sie mit unserem zuverlässigen Leitfaden für den sich ständig verändernden Technologiemarkt immer einen Schritt voraus.