| AMD und Nutanix haben eine mehrjährige strategische Partnerschaft vereinbart, um gemeinsam eine offene KI-Infrastrukturplattform für Unternehmen zu entwickeln. | AMD and Nutanix have agreed to a multi-year strategic partnership to develop an open AI infrastructure platform for businesses. |
| Der Halbleiterhersteller AMD und das Cloud-Software-Unternehmen Nutanix wollen ihre Kräfte bündeln, um Unternehmen eine Alternative zu den geschlossenen KI-Infrastrukturen der großen Technologiekonzerne zu bieten.
Kernstück der Vereinbarung ist eine gemeinsame Full-Stack-Plattform, die KI-Workloads flexibel in Rechenzentren, hybriden Umgebungen und an der Edge betreiben soll – ohne Abhängigkeit von einem einzelnen Anbieter. AMD verpflichtet sich im Rahmen der Partnerschaft zu einer Direktinvestition von 150 Millionen US-Dollar in Nutanix-Stammaktien zu einem Preis von 36,26 US-Dollar je Anteil. Weitere bis zu 100 Millionen Dollar fließen in gemeinsame Entwicklungsprojekte und Vermarktungsaktivitäten. Der Abschluss der Kapitalbeteiligung wird für das zweite Quartal 2026 erwartet, vorbehaltlich behördlicher Genehmigungen. Offenheit als strategisches PrinzipTechnisch setzt die Partnerschaft auf AMDs Prozessor- und GPU-Portfolio: Die Nutanix Cloud Platform (NCP) und die Nutanix Kubernetes Platform (NKP) werden für AMD EPYC-Prozessoren und AMD Instinct-GPUs optimiert. Dazu integrieren beide Unternehmen das AMD ROCm-Software-Ökosystem sowie die AMD Enterprise AI-Plattform in die Full-Stack-Lösungen von Nutanix. Unterstützt werden die Systeme von einer Reihe etablierter OEM-Serverhersteller. Das erklärte Ziel beider Unternehmen ist ein offenes KI-Ökosystem, das auf standardisierten Software-Frameworks und interoperablen Schnittstellen basiert. Unternehmen sollen damit in der Lage sein, sowohl quelloffene als auch kommerzielle KI-Modelle einzusetzen, ohne sich an vertikal integrierte Stacks eines einzelnen Anbieters zu binden. „Unternehmenskunden brauchen die Freiheit, Modelle und Workloads, die für ihr Geschäft am wichtigsten sind, zu betreiben, ohne Kompromisse eingehen zu müssen“, sagte Dan McNamara, Senior Vice President und General Manager of Compute and Enterprise AI bei AMD. KI-Inferenz als Wachstumsmarkt im RechenzentrumDer Zeitpunkt der Partnerschaft ist kein Zufall: Im Enterprise-Computing gewinnt KI-Inferenz – also das Ausführen trainierter Modelle im Produktivbetrieb – rasant an Bedeutung. Infrastrukturanbieter reagieren auf diesen Wandel mit Lösungen, die skalierbare Leistung, Energieeffizienz und einfache Betriebsführung kombinieren müssen. Die gemeinsame Plattform von AMD und Nutanix zielt genau auf diesen Anforderungskatalog: hohe Prozessorkerndichte, GPU-beschleunigte Inferenz und ein einheitliches Lifecycle-Management über Nutanix Enterprise AI. Die Partnerschaft positioniert AMD und Nutanix als Gegengewicht zu den dominierenden, geschlossenen KI-Infrastrukturen am Markt. Für Unternehmen, die Agentic-AI-Anwendungen – also KI-Systeme, die eigenständig Aufgaben ausführen – in verschiedenen Umgebungen betreiben wollen, könnte das Angebot eine praktikable Alternative darstellen. Die erste gemeinsam entwickelte Plattform soll planmäßig Ende 2026 verfügbar sein. |
The semiconductor manufacturer and the cloud software company want to join forces to offer companies an alternative to the closed AI infrastructures of major tech corporations.
The agreement centers on a joint, full-stack platform designed to flexibly run AI workloads in data centers, hybrid environments, and at the edge without dependence on a single provider. As part of the partnership, AMD will invest 150 million U.S. dollars directly in Nutanix common stock at a price of 36.26 U.S. dollars per share. An additional 100 million dollars will go toward joint development projects and marketing activities. Completion of the capital participation is expected in the second quarter of 2026, pending regulatory approval. Openness as a strategic principle Technically, the partnership relies on AMD’s processor and GPU portfolio. The Nutanix Cloud Platform and the Nutanix Kubernetes Platform are optimized for AMD EPYC processors and AMD Instinct GPUs. Both companies are integrating the AMD ROCm software ecosystem and the AMD Enterprise AI platform into Nutanix’s full-stack solutions to this end. These systems are supported by several established OEM server manufacturers. Both companies‘ stated goal is to create an open AI ecosystem based on standardized software frameworks and interoperable interfaces. This will allow companies to deploy open-source and commercial AI models without being restricted to a single provider’s vertically integrated stacks. „Enterprise customers need the freedom to run the models and workloads that are most important to their business without having to make compromises,“ said Dan McNamara, Senior Vice President and General Manager of Compute and Enterprise AI at AMD. AI Inference as a Growth Market in the Data Center The timing of the partnership is no coincidence. In enterprise computing, AI inference — running trained models in production — is rapidly becoming more important. Infrastructure providers are responding with solutions that combine scalable performance, energy efficiency, and ease of operation. AMD and Nutanix’s joint platform precisely targets these requirements with high processor core density, GPU-accelerated inference, and unified lifecycle management through Nutanix Enterprise AI. This collaboration establishes AMD and Nutanix as competitors to the dominant, closed AI infrastructures on the market. For companies looking to deploy agentic AI applications—i.e., AI systems that perform tasks autonomously—in various environments, this offering could be a viable alternative. The first jointly developed platform is scheduled to be available by the end of 2026. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de