OpenAI nutzt Googles KI-Chips
OpenAI setzt erstmals in grösserem Umfang auf KI-Chips von Google und überrascht damit im Wettbewerb der Tech-Giganten.

OpenAI hat begonnen, künstliche Intelligenz-Chips von Google zu mieten, um ChatGPT und weitere Produkte zu betreiben. Dies berichtet «Reuters» unter Berufung auf eine mit der Angelegenheit vertraute Person.
Bislang setzte OpenAI vor allem auf Grafikprozessoren von Nvidia, die sowohl für das Training als auch für Inferenzberechnungen genutzt werden.
Der Schritt markiert eine Abkehr von der bisherigen ausschliesslichen Abhängigkeit von Microsofts Rechenzentren. Laut «Marketscreener» könnten Googles Tensor Processing Units (TPUs) eine kostengünstigere Alternative zu Nvidias GPUs werden.
Überraschende Zusammenarbeit im KI-Sektor
Die Zusammenarbeit zwischen OpenAI und Google gilt als bemerkenswert, da beide Unternehmen direkte Konkurrenten im Bereich der Künstlichen Intelligenz sind.
Google vermietet nicht seine leistungsstärksten TPUs an OpenAI. Ein Mitarbeiter von Google Cloud bestätigte dies.

Für Google ist die Öffnung der TPU-Infrastruktur ein strategischer Schritt. So konnte der Tech-Konzern bereits Kunden wie Apple sowie Start-ups wie Anthropic und Safe Superintelligence gewinnen, so «Reuters».
Ziel: Kosten senken und Rechenleistung sichern
OpenAI erhofft sich, durch die Nutzung der über Google Cloud gemieteten TPUs die Kosten für Inferenzprozesse zu senken. Weder Google noch OpenAI haben bislang auf Anfragen von «Reuters» zu diesem Deal reagiert.
Die Aufnahme von OpenAI in die Kundenliste zeigt, wie Google seine KI-Technologie nutzt, um das Wachstum seines Cloud-Geschäfts zu beschleunigen. Das berichtet «Marketscreener» weiter.