In einer Welt, die künstliche Intelligenz immer mehr zu Mainstream macht und nicht mehr nur eine Fantasie aus Filmen ist, ist es wichtiger denn je, zu wissen, welche Elemente des täglichen Lebens und der täglichen Erfahrung von KI beeinflusst werden.
ChatGPT von OpenAI ist das erste Mainstream-Beispiel dafür, wie nützlich KI für eine Vielzahl von Menschen, Unternehmen und Branchen sein kann. Doch das bedeutet nicht, dass sie perfekt, genau oder der ultimative Assistent für unsere täglichen Bedürfnisse ist.
ChatGPT ist nicht unumstritten, denn es gibt mitunter falsche, ungenaue oder unsachliche Antworten auf Fragen, die Menschen in Schwierigkeiten bringen können. Es hat sogar seine Schöpfer, OpenAI, in Schwierigkeiten gebracht.
Im Jahr 2023 wurde fälschlicherweise behauptet, ein amerikanischer Juraprofessor habe während eines Schulausflugs unangemessene Bemerkungen und sexuelle Annäherungsversuche gegenüber einer Studentin gemacht, und sogar die Zeitung Washington Post wurde als Quelle für diese Information genannt. Es gab weder eine Klassenfahrt noch einen Artikel in der Washington Post. Anders ausgedrückt: Sie hat die ganze Sache erfunden.
Dies ist nur einer von mehreren sehr beunruhigenden Mängeln in den beeindruckenden Fähigkeiten des Chatbots. Insgesamt kann er eine sehr nützliche Informationsquelle sein, aber was er sagt, kann und sollte nicht immer als Tatsache angesehen werden.
Da jedoch immer mehr Menschen ChatGPT nutzen, um alltägliche Aufgaben online oder am Arbeitsplatz zu erledigen, ist es gut möglich, dass Sie jedes Mal im Netz mindestens eine Information konsumieren, die von KI und wahrscheinlich auch von ChatGPT selbst generiert oder geschrieben wurde.
Das Internet wird so schnell zu einem Minenfeld, in dem die Grenzen zwischen menschlichem Text und von KI geschriebenem Text verschwimmen. Vielleicht wird das irgendwann in der Zukunft kein Problem mehr sein, aber im Moment müssen die Menschen wachsam sein und wissen, wann etwas von ChatGPT geschrieben wurde.
Was sind die Anzeichen dafür, dass etwas von ChatGPT geschrieben wurde?
Da die Eingabeaufforderung für ChatGPT von Menschen stammt, wird die Antwort des Chatbots oft durch die Details der Eingabeaufforderung bestimmt, die er erhält. Wenn ihm die Anweisungen fehlen, insbesondere bei detaillierteren Themen, wird er wahrscheinlich eine vage oder ungenaue Antwort geben.
Für das ungeschulte Auge, etwa für jemanden, der kein spezielles Hintergrundwissen zu dem Thema hat, mag dies nicht offensichtlich sein. Aber für andere könnte es offensichtlich sein, dass der Text von ChatGPT geschrieben wurde.
Hier sind die wichtigsten Punkte, auf die man achten sollte…
Allgemeine Sprache und Wiederholungen
ChatGPT ist eine sogenannte “geschlossene” KI. Sie ist nicht in der Lage, menschliche Emotionen oder Verhaltensweisen zu verstehen oder nachzuahmen, und sie kann nicht für sich selbst denken, was bedeutet, dass ihre Antworten oft keine Persönlichkeit oder kreative Sprache haben.
Zwar kommen Fehler vor. Doch um diese so gering wie möglich zu halten, sind die Antworten daher oft weniger komplex und etwas roboterhaft, um Fehler und Ungenauigkeiten zu minimieren.
Dies wird besonders deutlich, wenn eine Rezension über Ihren Lieblingsfilm oder Ihr Lieblingsprodukt zu schreiben lassen wollen. Er könnte wichtige Informationen über das Produkt, das er bespricht, auslassen, sei es die Namen der Schauspieler oder die Größe des Produkts.
Achten Sie beim Lesen der nächsten Rezension mal genauer darauf und Sie werden schnallen, dass wichtige Informationen ausgelassen wurden. Hier ist es dann möglich, dass ChatGPT das geschrieben hat.
Dasselbe gilt für die Wiederholung von Wörtern oder Sätzen. ChatGPT ist darauf trainiert, mit großen Daten- und Sprachmengen umzugehen. Daher kann es sich schnell wiederholen, besonders in großen Textblöcken, besonders mit Blick auf die immergleichen Satzanfänge.
Halluzinationen
Der bereits erwähnte Fall eines Juraprofessors ist ein Paradebeispiel für eine KI-Halluzination, bei der sich die KI in ihrer Antwort etwas komplett ausdenkt. Dies ist nach wie vor eines der größten Probleme mit generativen Chatbots wie ChatGPT.
KI-Experten empfehlen, die Richtigkeit der Antworten von ChatGPT zu überprüfen, insbesondere wenn es um Nischeninformationen und -themen geht. Es gibt viel mehr Fälle von Halluzinationen, einige schwerer als andere, weswegen es stets sinnig ist, die Antworten mit anderen Informationsquellen zu vergleichen, bevor man sich auf ihre Richtigkeit verlässt.
Wenn Sie über ein Thema lesen, mit dem Sie sich gut auskennen, ist es viel einfacher, dies zu erkennen. Wenn Sie einen Bericht über ein Fußballspiel lesen, das Sie kürzlich gesehen haben, können Sie wahrscheinlich leicht feststellen, ob es sachliche Ungenauigkeiten gibt. Sollten Sie aber etwa über thermische Wirkungen von Lebensmitteln recherchieren, kann es schwieriger sein zu erkennen, ob der Bericht von einem Menschen oder einer künstlichen Intelligenz erstellt wurde.
Kopieren und Einfügen
Dieser Fehler ist wahrscheinlich am leichtesten zu erkennen. Es ist bekannt, dass Leute versehentlich die ChatGPT-Antwort und die dazugehörigen Kommentare kopieren und einfügen. Der folgende Satzanfang ist besonders beliebt: “Natürlich, hier ist eine Filmkritik für ….”.
Dies ist eine todsichere Methode, um herauszufinden, ob das, das Sie lesen, von ChatGPT oder einem Menschen geschrieben wurde. Der menschliche Makel besteht halt immer noch.
Text sorgfältig lesen
ChatGPT ist darauf trainiert, wie ein Mensch zu klingen und zu reagieren. Daher ist es fast unmöglich zu erkennen, ob etwas von einer KI geschrieben wurde, wenn man nur einen oder zwei Sätze liest. Deutlicher wird es, wenn man den ganzen Artikel sorgfältig liest, was besondere Halluzinationen, Wiederholungen, Umgangssprache oder Kopier-Fehler hervorheben kann.
Zwar können Menschen ChatGPT-Antworten editieren, um vieles zu entfernen und den Text menschlicher zu machen, aber das ist oft mit so viel Mehrarbeit verbunden, wodurch es fast einfacher ist, den Text selber zu schreiben.
Wie man ChatGPT-Inhalte erkennt
Der Aufstieg von ChatGPT und ähnlichen KI-Chatbots hat zu einer Reihe von KI-Inhaltsdetektoren geführt, die alle behaupten, erkennen zu können, ob ein Text von einem Menschen oder einer KI geschrieben wurde.
Wir haben uns bereits die besten KI-Inhaltsdetektoren angesehen, die sogar genau angeben können, welche Teile eines Textes von einem Menschen und welche von einer KI stammen. Einige geben eine prozentuale Schätzung des Anteils an menschlicher und künstlicher Intelligenz im analysierten Text an.
Keiner dieser KI-Inhaltsdetektoren ist jedoch zu 100 % perfekt, und es wird immer wieder vorkommen, dass er menschlichen Text fälschlicherweise als KI erkennt und umgekehrt.
Die Verwendung eines KI-Detektors ist allerdings ein guter Weg, um festzustellen, ob es Anzeichen für KI in dem Text gibt. Insbesondere wenn Sie nach der Überprüfung auf Wiederholungen, Halluzinationen und allgemeine Sprache immer noch verdächtig sind.
Doch das Wichtigste ist, dass Sie immer die Fakten überprüfen, die ChatGPT Ihnen mitteilt, besonders wenn es sich um Nischenthemen handelt, mit denen Sie nicht ganz vertraut sind. Vorsicht ist besser als Nachsicht.
Featured image: Ideogram