Safe Superintelligence (SSI), ein Start-up-Unternehmen für künstliche Intelligenz (KI), das vom ehemaligen Chefwissenschaftler von OpenAI, Ilya Sutskever, mitbegründet wurde, hat eine Milliarde Dollar an Kapital für sein Ziel, sichere superintelligente KI-Systeme zu entwickeln, eingeworben.
Sutskever gründete das Unternehmen vor nur drei Monaten zusammen mit Daniel Gross, der die KI-Bemühungen bei Apple leitete, und Daniel Levy, der zuvor bei OpenAI arbeitete. Laut Reuters wird das Unternehmen derzeit mit 5 Milliarden Dollar bewertet.
SSI beschäftigt derzeit nur 10 Mitarbeiter, einschließlich der drei Mitbegründer, und die Anwerbung weiterer Top-KI-Talente ist eine der Prioritäten für die neue Finanzierung, ebenso wie die Erhöhung der Rechenleistung. Sutskever ist der Chefwissenschaftler des Unternehmens, Levy der leitende Wissenschaftler, und Gross ist für die Rechenleistung und die Mittelbeschaffung zuständig.
Es ist das erste Mal, dass ein Start-up-Unternehmen in einer Seed-Runde die stolze Summe von einer Milliarde Dollar einsammelt. Doch mit Sutskever, Gross und Levy an der Spitze erwarten die Investoren enorme Renditen. Insbesondere Sutskever ist maßgeblich am Erfolg von OpenAI beteiligt und es wird erwartet, dass SSI diesen Erfolg wiederholen kann.
Zu den Investoren gehören die Risikokapitalgesellschaften Andreessen Horowitz, Sequoia Capital, DST Global und SV Angel. Und das, obwohl die Investoren zunehmend erkennen, dass der KI-Boom nicht genug Gewinn abwerfen wird, um mit den steigenden Kosten Schritt zu halten.
„Für uns ist es wichtig, von Investoren umgeben zu sein, die unsere Mission verstehen, respektieren und unterstützen, nämlich den direkten Weg zur sicheren Superintelligenz zu gehen und vor allem einige Jahre in die Forschung und Entwicklung unseres Produkts zu investieren, bevor wir es auf den Markt bringen“, sagt Gross in einem Interview und räumt ein, dass es einige Zeit dauern wird, bis die Investoren eine Rendite sehen.
Warum verließ Ilya Sutskever OpenAI?
Sutskever verließ OpenAI, das Unternehmen, das er mitgegründet hatte, im Mai dieses Jahres, nachdem er zu einer Gruppe gehört hatte, die dafür stimmte, CEO Sam Altman aus dem Vorstand zu entfernen.
Nachdem diese Entscheidung rückgängig gemacht worden war, wurde Sutskever aus dem Vorstand entfernt und beschloss, das Unternehmen zu verlassen. OpenAI löste daraufhin das Safe Superintelligence-Team auf, das Sutskever beaufsichtigt hatte.
Safe Superintelligence stellt nach eigenen Angaben vor allem Leute ein, die zu ihrer Kultur passen, und Gross erklärt, dass sie stundenlang Kandidaten auf ihren „guten Charakter“ hin überprüft haben.
Man suche Leute, die an der Arbeit selbst und nicht am KI-Hype interessiert seien, und Leute mit Fähigkeiten und nicht mit KI-Erfahrung. „Was uns begeistert, ist, wenn wir Leute finden, die sich für die Arbeit interessieren und nicht für die Szene oder den Hype“, sagte Gross.