Da sich die künstliche Intelligenz in rasantem Tempo weiterentwickelt, kann man sich leicht fragen, wohin dieses neue Zeitalter führt.
Unternehmen wie ChatGPT, Midjourney und Sora verändern die Art und Weise, wie wir arbeiten, durch Chatbots, Text-zu-Bild- und Text-zu-Video-Generatoren, während Roboter und selbstfahrende Autos uns bei alltäglichen Aufgaben helfen. Letztere sind noch nicht so weit verbreitet wie die ersteren, aber es ist nur eine Frage der Zeit.
Aber wo ist die Grenze? Steuern wir auf eine dystopische Welt zu, die von Computern und Robotern beherrscht wird? Künstliche allgemeine Intelligenz (AGI) ist im Grunde der nächste Schritt, aber so wie es aussieht, sind wir noch ein Stück weit davon entfernt, dass dies Realität wird.
AGI erklärt
AGI wird als “starke” KI betrachtet, während “enge” KI das ist, was wir als generative Chatbots, Bildgeneratoren und Kaffeekochroboter kennen.
Starke KI bezieht sich auf Software, die über die gleichen oder bessere kognitive Fähigkeiten wie ein Mensch verfügt, d. h. sie kann Probleme lösen, Ziele erreichen, selbstständig denken und lernen, ohne dass ein Mensch eingreifen oder helfen muss. Enge KI kann jeweils nur ein Problem lösen oder eine Aufgabe erledigen, ohne dass sie ein Gefühl oder Bewusstsein hat.
Diese Stufe der KI ist derzeit nur in Filmen zu sehen, aber wahrscheinlich werden wir uns in der Zukunft auf diese Stufe der KI-gesteuerten Technologie zubewegen. Wann das sein wird, bleibt umstritten – einige Experten behaupten, es sei noch Jahrhunderte entfernt, andere glauben, es könne nur noch Jahre dauern. In Ray Kurzweils Buch “The Singularity is Near” (Die Singularität ist nah) wird sie jedoch für den Zeitraum zwischen 2015 und 2045 vorhergesagt, was 2007 von der AGI-Forschungsgemeinschaft als plausibler Zeitrahmen angesehen wurde… obwohl es sich dabei um einen ziemlich breiten Zeitrahmen handelt.
Angesichts der rasanten Entwicklung der Künstlichen Intelligenz ist es leicht vorstellbar, dass es in den nächsten 20 Jahren eine Form von AGI in der Gesellschaft geben wird.
It is increasingly clear that all roads lead to AGI. Tesla is building an extremely compute-efficient mini AGI for FSD.
— Elon Musk (@elonmusk) December 29, 2023
Was kann eine AGI leisten?
Obwohl sie noch nicht existieren, können AGI theoretisch Leistungen erbringen, die von denen des Menschen nicht zu unterscheiden sind und die die menschlichen Fähigkeiten aufgrund des schnellen Zugriffs auf riesige Datensätze wahrscheinlich übertreffen werden. Auch wenn es so aussieht, als würde man mit einem Menschen kommunizieren, wenn man etwas wie ChatGPT benutzt, wäre eine AGI theoretisch in der Lage, mit Menschen zu kommunizieren, ohne dass ein Mensch eingreifen muss.
Zu den Fähigkeiten eines AGI-Systems gehören gesunder Menschenverstand, Hintergrundwissen und abstraktes Denken, aber auch praktische Fähigkeiten wie Kreativität, Feinmotorik, natürliches Sprachverständnis (NLU), Navigation und Sinneswahrnehmung.
When will we see Artificial General Intelligence, or AGI — when AI can do nearly anything the human brain can do (and perhaps do it better) — become a reality?
We asked 33 AI-focused YC founders, and here’s what they had to say.
▶️ https://t.co/ciLInPGglj pic.twitter.com/gBSU5mO8vi
— Y Combinator (@ycombinator) November 21, 2023
Eine Kombination all dieser Fähigkeiten wird AGI-Systemen im Wesentlichen High-Level-Fähigkeiten verleihen, wie z. B. die Fähigkeit, Symbolsysteme zu verstehen, feste Strukturen für alle Aufgaben zu schaffen, verschiedene Arten von Wissen zu nutzen, Metakognition zu betreiben, verschiedene Arten von Lernalgorithmen zu handhaben und Glaubenssysteme zu verstehen.
Das bedeutet, dass AGI-Systeme ultraintelligent sein werden und auch zusätzliche Eigenschaften wie Vorstellungskraft und Autonomie besitzen können, während physische Eigenschaften wie die Fähigkeit zu spüren, zu erkennen und zu handeln ebenfalls vorhanden sein könnten.
AGI vs. KI?
Wir wissen, dass enge KI-Systeme heute in der Öffentlichkeit weit verbreitet sind und schnell Teil des täglichen Lebens werden, aber sie benötigen derzeit einen Menschen, um auf allen Ebenen zu funktionieren. Sie benötigt maschinelles Lernen und die Verarbeitung natürlicher Sprache, bevor sie menschliche Aufforderungen zur Ausführung einer Aufgabe benötigt. Sie führt die Aufgabe auf der Grundlage dessen aus, was sie zuvor gelernt hat, und kann im Grunde nur so intelligent sein, wie die Informationen, die ihr der Mensch gibt.
Die Ergebnisse, die wir mit Hilfe von KI-Systemen erzielen, gehen jedoch nicht über das hinaus, was mit dem menschlichen Gehirn möglich ist. Sie ist lediglich dazu da, uns zu unterstützen, nicht um den Menschen zu ersetzen oder intelligenter zu sein als er.
Theoretisch sollte eine KI in der Lage sein, jede Aufgabe zu übernehmen und ohne menschliches Zutun ein hohes Maß an Intelligenz zu zeigen. Sie wird in der Lage sein, bessere Leistungen als der Mensch zu erbringen und die KI auf fast jeder Ebene zu übertreffen.
Was ist die Zukunft von AGI?
Stephen Hawking warnte 2014 in einem Interview mit der BBC vor den Gefahren der KI: “Die Entwicklung einer vollständigen künstlichen Intelligenz könnte das Ende der menschlichen Rasse bedeuten.
“Sie würde sich selbständig machen und sich in immer schnellerem Tempo umgestalten. Der Mensch, der durch die langsame biologische Evolution begrenzt ist, könnte da nicht mithalten und würde verdrängt werden.”
Im Anschluss an seine Vorhersage in “The Singularity is Near” (Die Singularität ist nah) sagte Kurzweil 2017, dass Computer bis 2029 das Niveau menschlicher Intelligenz erreichen werden. Er sagte voraus, dass sich die KI selbst exponentiell verbessern wird, so dass sie in der Lage sein wird, auf einem Niveau zu operieren, das jenseits des menschlichen Verständnisses und der Kontrolle liegt.
Er fuhr dann fort zu sagen: “Ich habe das Jahr 2045 für die ‘Singularität’ festgelegt, in dem wir unsere effektive Intelligenz um das Milliardenfache steigern werden, indem wir mit der von uns geschaffenen Intelligenz verschmelzen.”
Diese Diskussionen und Vorhersagen haben natürlich Debatten über den verantwortungsvollen Einsatz von CGI ausgelöst. Die KI, die wir heute kennen, wird als “verantwortungsvoll” angesehen, und es gibt Forderungen, viele KI-Unternehmen zu regulieren, um sicherzustellen, dass diese Systeme nicht außer Kontrolle geraten. Wir haben bereits gesehen, wie kontrovers und unethisch der Einsatz von KI sein kann, wenn er in die falschen Hände gerät. Es ist daher nicht überraschend, dass die gleiche Debatte auch um die KI geführt wird.
In Wirklichkeit muss die Gesellschaft die Entwicklung von AGI mit großer Vorsicht angehen. Die ethischen Probleme, die derzeit mit KI verbunden sind, wie z. B. die Fähigkeit, Verzerrungen innerhalb ihrer Wissensbasis zu kontrollieren, deuten sicherlich auf ein ähnliches Problem mit AGI hin, allerdings auf einer noch schädlicheren Ebene.
Wenn ein AGI-System im Wesentlichen selbständig denken kann und nicht mehr von Menschen beeinflusst werden muss, besteht die Gefahr, dass Stephen Hawkings Vision Wirklichkeit wird.
Featured Image: Ideogram