Nvidia könnte im Bereich der KI-Chips bald ernsthafte Konkurrenz bekommen. Amazon versucht nun, seine eigenen Chips auf den Markt zu bringen, um sich von dem Chip-Riesen abzusetzen.
Diese Bemühungen werden von Amazons 2015 erworbenem Unternehmen Annapurna Labs angeführt, das es für 350 Millionen Dollar übernommen hat. Das Unternehmen ist vor allem dafür bekannt, dass es Amazons Web Services (AWS) mit seiner Hypervisor-Hardware (Verwaltung virtueller Maschinen), Nitro, versorgt.
Außerdem hat es Graviton entwickelt, eine stromsparende ARM-basierte Alternative zu den herkömmlichen Serverchips von AMD und Intel.
Jetzt testet Annapurna Trainium 2, das neueste Gerät, das Amazons Fuß in der KI-Sphäre festigen soll. Der Name „Trainium“, der 2023 vorgestellt wird, bezieht sich auf seinen Zweck in der AWS-Pipeline. Amazon beabsichtigt, KI-Modelle zu trainieren, die angeblich viermal schneller trainiert werden können als die Vorgängerversion, die 2020 auf den Markt kam.
Anthropic, die Firma hinter dem ChatGPT-Alternativ-KI-Bot Claude, testet derzeit das Trainium 2. Der OpenAI-Konkurrent hat eine Investition von 4 Milliarden Dollar von Amazon erhalten.
Amazon trying to feed its investment dollars directly back into Amazon Web Services and force Anthropic to use their chips instead of NVIDIA. Just incredible levels of financial manipulation, 100% sure they book this as revenue https://t.co/S0K97g6YIe pic.twitter.com/r0N8x02hXi
— Ed Zitron (@edzitron) November 7, 2024
Das Unternehmen versucht nun, einen Deal mit Anthropic auszuhandeln, bei dem es seine KI-Modelle auf dem neuen Trainium 2 trainieren lässt, obwohl es Nvidia-Hardware bevorzugt.
Ähnlich wie OpenAI und Microsoft versucht Amazon verzweifelt, seine eigenen Chips zu bauen. Nvidia dominiert derzeit den Markt mit einem Umsatz von satten 26,3 Milliarden Dollar im zweiten Quartal 2024.
Indem man Nvidia aus der Gleichung herausnimmt, will man nicht nur die Ausgaben für die Produktion, sondern auch für den Betrieb der Chips senken.
In einem Gespräch mit der Financial Times sagte Dave Brown, Vizepräsident für Rechen- und Netzwerkdienste bei AWS: „Wenn man 40 Prozent von 1000 Dollar spart, hat das keinen Einfluss auf die Wahl. Aber wenn man 40 Prozent bei zig Millionen Dollar spart, dann schon.“
Tech-Giganten geben viel Geld für totale Kontrolle im KI-Rennen aus
Ein weiteres Ziel ist es, mehr Kontrolle über die Chips selbst zu haben. Wir haben bereits gesehen, wie Apple einen Großteil der Kontrolle über seine Produkte zurückerobert hat, als es Intel im Jahr 2020 aus seinen Mac-Maschinen entfernte. Allein für die Entwicklung des M3-Chips hat das Unternehmen 1 Milliarde Dollar ausgegeben.
Der Chip der M-Serie von Apple wird als einer der besten auf dem Markt gepriesen. Das neueste M4-Modell wurde speziell entwickelt, um die Leistung beim Einsatz von künstlicher Intelligenz zu steigern.
Allerdings hat Amazon, ähnlich wie seine Konkurrenten im Bereich der KI, seine Ausgaben drastisch erhöht. Im Jahr 2023 gab der Shopping-Gigant 48 Milliarden Dollar aus, und es wird erwartet, dass diese Ausgaben bis 2024 auf 75 Milliarden Dollar ansteigen werden.
Microsoft verzeichnete sogar einen noch größeren Anstieg: von 10,7 Milliarden Dollar im Jahr 2023 auf unglaubliche 56 Milliarden Dollar im August 2024. Der Wettlauf besteht nicht nur darin, das beste KI-Angebot zu entwickeln, sondern auch darin, die anhaltenden Probleme mit der Energieinfrastruktur und den Rechenzentren zu bekämpfen.
Es wird erwartet, dass Amazon in den kommenden fünfzehn Jahren rund 150 Milliarden Dollar für die Infrastruktur von Rechenzentren ausgeben wird. AWS versorgt derzeit einen Großteil des Internets mit Strom, und mit den ständig steigenden KI-Anforderungen will das Unternehmen diesen Anteil exponentiell ausbauen.