OpenAI: Strategiewechsel – KI-Chips von Google und eigene Hardware
OpenAI setzt erstmals in grossem Umfang auf spezialisierte KI-Chips. Neben Nvidia-GPUs kommen nun Google-TPUs und eigene Hardware zum Einsatz.

OpenAI hat seine Strategie bei der Rechenzentrums-Hardware grundlegend geändert. Das Unternehmen setzt seit Kurzem auf Tensor Processing Units (TPUs) von Google, wie «futurezone» berichtet.
Bis Anfang 2025 liefen die meisten KI-Anwendungen von OpenAI, darunter ChatGPT, auf Nvidia-GPUs in Microsofts Azure-Cloud. Engpässe bei Nvidia und der wachsende Bedarf an Rechenleistung führten dazu, dass OpenAI nun auch Google-Chips mietet.
TPUs als Alternative – Kosten und Flexibilität
Laut Insidern ist es das erste Mal, dass OpenAI auf Chips eines anderen Herstellers als Nvidia setzt. Die TPUs gelten als günstigere Alternative zu den Nvidia-GPUs, was die Kosten für KI-Inferenzen deutlich senken könnte, wie «futurezone» berichtet.
OpenAI will sich zudem unabhängiger von Microsoft machen. Die Nutzung der Google-Cloud-Infrastruktur bietet mehr Flexibilität und reduziert das Risiko von Lieferengpässen.
OpenAI: Eigene KI-Chips in Entwicklung
Parallel dazu arbeitet OpenAI an eigenen KI-Chips. Laut Reuters befindet sich das Projekt in einer fortgeschrittenen Phase, die Massenproduktion ist für 2026 geplant, wie «connect» berichtet.

Der geplante Chip wird mit modernster Technologie gefertigt und soll speziell für das Training grosser KI-Modelle optimiert sein. OpenAI arbeitet dabei eng mit Broadcom und TSMC zusammen, um die Leistungsfähigkeit und Effizienz weiter zu steigern, wie «letemsvetemapplem.eu» berichtet.
Im Mai 2025 hat OpenAI zudem das Hardware-Startup «io» von Jony Ive übernommen. Ziel ist die Entwicklung eines völlig neuen KI-Geräts ohne Display, das per Sprache und Sensorik gesteuert wird, wie «kileague.de» berichtet.