Amazon Web Services und OpenAI schließen einen mehrjährigen Vertrag über 38 Milliarden US-Dollar mit sofortigem Zugriff auf Hunderttausende von NVIDIA-GPUs. Amazon Web Services and OpenAI in $38B Multi-year agreement with immediate access to hundreds of thousands of NVIDIA GPUs.
Amazon Web Services und OpenAI haben am 3. November 2025 eine strategische Partnerschaft vereinbart, in der das KI-Unternehmen seine Kern-Workloads im Rahmen eines mehrjährigen Vertrags über 38 Milliarden US-Dollar auf die AWS-Infrastruktur migrieren wird.

Der Vertrag verschafft OpenAI sofortigen Zugriff auf AWS-Rechenressourcen, darunter Hunderttausende von NVIDIA-GPUs – sowohl GB200 als auch GB300 –, die über Amazon EC2 UltraServers bereitgestellt werden. Die Infrastruktur kann auf mehrere zehn Millionen CPUs skaliert werden, wenn OpenAI seinen Betrieb in den nächsten sieben Jahren ausweitet.

Gemäß der Vereinbarung soll die gesamte Kapazität bis Ende 2026 bereitgestellt werden, mit der Option auf eine weitere Erweiterung bis 2027 und darüber hinaus. Die Infrastruktur wird verschiedene Workloads unterstützen, von der Bearbeitung von Inferenzanfragen für ChatGPT bis hin zum Training zukünftiger KI-Modelle.

„Die Skalierung von KI an der Grenze erfordert massive, zuverlässige Rechenleistung“, sagte Sam Altman, Mitbegründer und CEO von OpenAI. „Unsere Partnerschaft mit AWS stärkt das breite Rechenökosystem, das diese nächste Ära vorantreiben und fortschrittliche KI für alle zugänglich machen wird.“

Matt Garman, CEO von AWS, sagte, die Infrastruktur des Unternehmens werde „als Rückgrat für ihre KI-Ambitionen dienen“ und wies darauf hin, dass die Breite und sofortige Verfügbarkeit der Rechenressourcen die Positionierung von AWS auf dem Markt unterstreiche.

Die Partnerschaft baut auf der bestehenden Zusammenarbeit zwischen den Unternehmen auf. Anfang 2025 wurden die offenen Weight Foundation-Modelle von OpenAI auf Amazon Bedrock, dem verwalteten KI-Dienst von AWS, verfügbar gemacht. Das Unternehmen hat Tausende von Kunden für die Plattform gewonnen, darunter Bystreet, Comscore, Peloton, Thomson Reuters, Triomics und Verana Health, die die Modelle für Aufgaben von agentenbasierten Workflows bis hin zu wissenschaftlichen Analysen nutzen.

Die Infrastrukturumgebung umfasst NVIDIA-GPU-Cluster, die über dasselbe Netzwerk verbunden sind, um eine geringe Latenz zwischen den miteinander verbundenen Systemen zu ermöglichen. AWS verfügt über Erfahrung mit dem Betrieb von KI-Infrastrukturen in großem Maßstab mit Clustern von mehr als 500.000 Chips.

Die Vereinbarung stellt ein bedeutendes Engagement dar, da KI-Unternehmen einem wachsenden Bedarf an Rechenleistung für die Entwicklung und den Einsatz immer komplexerer Modelle gegenüberstehen.

Amazon Web Services and OpenAI announced a strategic partnership on November 3, 2025, that will see the AI company migrate its core workloads to AWS infrastructure under a $38 billion, multi-year agreement.

The deal provides OpenAI with immediate access to AWS compute resources, including hundreds of thousands of NVIDIA GPUs—both GB200s and GB300s—deployed via Amazon EC2 UltraServers. The infrastructure can scale to tens of millions of CPUs as OpenAI expands its operations over the next seven years.

According to the agreement, all capacity is targeted for deployment by the end of 2026, with the option to expand further into 2027 and beyond. The infrastructure will support various workloads, from serving inference requests for ChatGPT to training future AI models.

„Scaling frontier AI requires massive, reliable compute,“ said Sam Altman, OpenAI co-founder and CEO. „Our partnership with AWS strengthens the broad compute ecosystem that will power this next era and bring advanced AI to everyone.“

Matt Garman, CEO of AWS, said the company’s infrastructure „will serve as a backbone for their AI ambitions,“ noting that the breadth and immediate availability of compute resources demonstrates AWS’s positioning in the market.

The partnership builds on existing collaboration between the companies. Earlier in 2025, OpenAI’s open weight foundation models became available on Amazon Bedrock, AWS’s managed AI service. The company has attracted thousands of customers on the platform, including Bystreet, Comscore, Peloton, Thomson Reuters, Triomics, and Verana Health, who use the models for tasks ranging from agentic workflows to scientific analysis.

The infrastructure deployment features NVIDIA GPU clusters connected via the same network to enable low-latency performance across interconnected systems. AWS has experience running AI infrastructure at scale, with clusters exceeding 500,000 chips.

The agreement represents a significant commitment as AI companies face growing demand for computing power to develop and deploy increasingly sophisticated models.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner