Generative KI kann “halluzinieren”, wenn sie die Antwort auf eine Frage nicht weiß.
Forscher der Universität Oxford haben eine neue Methode entwickelt, mit der Nutzer herausfinden können, wann generative KI “halluziniert”. Das passiert, wenn ein KI-System eine Frage gestellt bekommt, auf die es die Antwort nicht kennt und deshalb eine falsche Antwort erfindet.
Glücklicherweise gibt es Tricks, um dies zu erkennen und zu verhindern.
KI-Halluzinationen verhindern
Eine neue Studie des Teams der Universität Oxford hat ein statistisches Modell entwickelt, das erkennen kann, wann Fragen an generative KI-Chatbots mit hoher Wahrscheinlichkeit zu einer falschen Antwort führen.
Dies ist ein echtes Problem für generative KI-Modelle, da sie aufgrund der fortgeschrittenen Art ihrer Kommunikation falsche Informationen als Fakten ausgeben können. Dies wurde deutlich, als ChatGPT im Februar mit falschen Antworten auffiel.
Da immer mehr Menschen aus allen Lebensbereichen KI-Tools nutzen, um sich in der Schule, bei der Arbeit und im täglichen Leben unterstützen zu lassen, fordern KI-Experten wie die an dieser Studie Beteiligten klarere Möglichkeiten, um zu erkennen, ob KI Antworten erfindet, insbesondere bei ernsten Themen wie Gesundheit und Recht.
Die Forscher der Universität Oxford behaupten, dass ihre Forschung den Unterschied zwischen einem korrekten Modell und einem Modell, das sich etwas ausdenkt, erkennen kann.
“LLMs sind sehr gut darin, ein und dieselbe Sache auf viele verschiedene Arten zu sagen, was es schwierig machen kann, zu erkennen, wann sie sich ihrer Antwort sicher sind und wann sie sich buchstäblich etwas ausdenken”, sagte der Autor der Studie, Dr. Sebastian Farquhar, dem Evening Standard. “Mit bisherigen Ansätzen war es nicht möglich, zwischen einem Modell zu unterscheiden, das sich nicht sicher ist, was es sagen soll, und einem Modell, das sich nicht sicher ist, wie es es sagen soll. Unsere neue Methode überwindet dieses Problem.
Aber natürlich muss noch mehr getan werden, um die Fehler zu korrigieren, die KI-Modelle machen können.
“Semantische Unsicherheit hilft bei bestimmten Zuverlässigkeitsproblemen, aber das ist nur ein Teil der Geschichte”, fügt er hinzu. “Wenn ein LLM ständig Fehler macht, kann diese neue Methode das nicht ausgleichen. Die gefährlichsten KI-Fehler treten dann auf, wenn ein System etwas falsch macht, aber zuversichtlich und systematisch ist.”
“Es bleibt noch viel zu tun.”
Featured image: Ideogram