Von der Empfehlung, Steine zu essen, bis hin zu Vorschlägen, Pizzas mit Klebstoff zu belegen – Googles neueste KI-Suchfunktion funktioniert nicht ganz so wie geplant.
In einer einfacheren Zeit konnten die Menschen bei Google nach Antworten auf brennende Fragen, Fakten zu interessanten Themen oder nach Lösungen für schwierige Aufgaben suchen, aber die neueste Ergänzung macht alles noch schlimmer.
Am 14. Mai gab das Unternehmen offiziell bekannt, dass KI-gestützte Änderungen vorgenommen werden sollen. Dazu gehörte auch die Ankündigung von „KI-Übersichten“, die durch den Einsatz von künstlicher Intelligenz eine schnelle Antwort auf jede Suche liefern sollen.
Als das Team die Neuigkeit auf Googles jährlicher Entwicklerkonferenz mitteilte, wurde die Funktion für alle Nutzer in den Vereinigten Staaten eingeführt, und anderen Ländern wurde gesagt, dass sie bald darauf zugreifen können.
Googles KI-Übersicht spuckt falsche Informationen aus
Nachdem die Nutzer die Funktion mit einer ganzen Reihe von Fragen und Suchanfragen selbst getestet haben, ist die KI-Funktion katastrophal ausgefallen.
Bei einer Suche, bei der jemand „Käse klebt nicht an der Pizza“ in Google eingab, blinkte das KI-Übersichtstool auf und sagte: „Der Käse kann aus verschiedenen Gründen von der Pizza rutschen, z. B. wegen zu viel Soße, zu viel Käse oder verdickter Soße. Hier sind einige Dinge, die Sie ausprobieren können…“
Nach dem Vorschlag, die Soße unterzumischen, sagte die KI dann: „Du kannst auch etwa ⅛ Tasse ungiftigen Klebstoff in die Soße geben, um ihr mehr Klebrigkeit zu verleihen.“
Warum versteht Google das so falsch? Nun, es scheint das, was Redditors posten, als Tatsache zu betrachten. In einem 11 Jahre alten Thread auf der Forumsseite antwortet ein Nutzer namens „f**ksmith“ auf einen Beitrag mit dem Titel „Mein Käse rutscht zu leicht von der Pizza“, indem er dem ursprünglichen Poster (offensichtlich) scherzhaft rät, Klebstoff zu verwenden, wenn er die Soße macht.
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
In einer anderen Suche antwortete die KI-Übersicht auf die Frage „Wie viele Steine soll ich essen?“ mit „Laut Geologen der UC Berkeley sollten Sie mindestens einen kleinen Stein pro Tag essen…“.
I couldn’t believe it before I tried it. Google needs to fix this asap.. pic.twitter.com/r3FyOfxiTK
— Kris Kashtanova (@icreatelife) May 23, 2024
Obwohl die Funktion noch in den Kinderschuhen steckt, stellt sich die Frage, ob sie ordnungsgemäß getestet wurde oder nur zu schnell auf den Markt gebracht wurde, um die Vorteile des aktuellen KI-Hypes zu nutzen.
Featured Image: Via Google AI