NVIDIA kündigte an, dass Systemhersteller KI-fähige Server liefern werden, die die VMware Private AI Foundation unterstützen. | NVIDIA announced that system manufacturers will deliver AI-ready servers that support the VMware Private AI Foundation. |
---|---|
Die neuen NVIDIA AI-Ready Server enthalten NVIDIA® L40S Grafikprozessoren, NVIDIA BlueField®-3 DPUs und NVIDIA AI Enterprise Software, um Unternehmen die Feinabstimmung generativer KI-Foundation-Modelle und den Einsatz generativer KI-Anwendungen wie intelligente Chatbots, Such- und Zusammenfassungs-Tools zu ermöglichen. Diese Server bieten auch eine von NVIDIA beschleunigte Infrastruktur und Software, um die VMware Private AI Foundation mit NVIDIA zu betreiben. NVIDIA L40S-betriebene Server der weltweit führenden Systemhersteller – Dell Technologies, Hewlett Packard Enterprise und Lenovo – werden bis Ende des Jahres verfügbar sein, um die KI in Unternehmen zu beschleunigen. „Eine neue Ära des Computings hat begonnen“, sagt Jensen Huang, Gründer und CEO von NVIDIA. „Unternehmen aus allen Branchen sind dabei, generative KI einzuführen. Mit unserem Ökosystem aus weltweit führenden Software- und Systempartnern bringen wir generative KI in die Unternehmen der Welt.“ NVIDIA AI-Ready Server sind eine ideale Plattform für Unternehmen, die die VMware Private AI Foundation mit NVIDIA einsetzen. „Generative KI beschleunigt die digitale Transformation, und Unternehmen brauchen eine vollständig integrierte Lösung, um sicherer Anwendungen zu entwickeln, die sie in die Lage versetzen, ihr Geschäft voranzutreiben“, sagt Raghu Raghuram, CEO von VMware. „Mit dem kombinierten Fachwissen von VMware, NVIDIA und unseren Partnern unter den Serverherstellern werden Unternehmen in der Lage sein, KI mit Datenschutz, Sicherheit und Kontrolle zu entwickeln und einzusetzen.“ Antrieb für die generative KI-Transformation im Unternehmen Die NVIDIA AI-Ready Server bieten eine umfassende beschleunigte Infrastruktur und Software für Branchen, die generative KI für eine Vielzahl von Anwendungen einsetzen wollen, darunter Arzneimittelforschung, Produktbeschreibungen im Einzelhandel, intelligente virtuelle Assistenten, Fertigungssimulationen und Betrugserkennung.
Die Server enthalten NVIDIA AI Enterprise, das Betriebssystem für die NVIDIA KI-Plattform. Die Software bietet produktionsreifen Unternehmens-Support und Sicherheit für mehr als 100 Frameworks, vortrainierte Modelle, Toolkits und Software, darunter NVIDIA NeMo™ für LLM, NVIDIA Modulus für Simulation, NVIDIA RAPIDS™ für Data Science und NVIDIA Triton™ Inference Server für Produktions-KI. Die L40S-GPUs sind für komplexe KI-Workloads mit Milliarden von Parametern ausgelegt und verfügen über Tensor-Cores der vierten Generation und eine FP8-Transformer-Engine, die eine Tensor-Verarbeitungsleistung von über 1,45 Petaflops und eine bis zu 1,7-fache Trainingsleistung im Vergleich zur NVIDIA A100 Tensor-Core-GPU bieten. Für generative KI-Anwendungen wie intelligente Chatbots, Assistenten, Suchfunktionen und Zusammenfassungen ermöglicht der NVIDIA L40S eine bis zu 1,2-fach höhere generative KI-Inferenzleistung als der NVIDIA A100 Grafikprozessor. Die Integration von NVIDIA BlueField DPUs sorgt für weitere Geschwindigkeitssteigerungen, indem sie die enorme Rechenlast von Virtualisierung, Netzwerk, Speicher, Sicherheit und anderen Cloud-nativen KI-Diensten beschleunigt, auslagert und isoliert. NVIDIA ConnectX®-7 SmartNICs bieten fortschrittliche Hardware-Offloads und eine extrem niedrige Latenz, die eine erstklassige, skalierbare Leistung für datenintensive generative KI-Workloads ermöglichen. Breites Ökosystem zur Beschleunigung generativer KI-Implementierungen in Unternehmen Die weltweit führenden Computerhersteller bauen NVIDIA KI-fähige Server, darunter der Dell PowerEdge R760xa, HPE ProLiant Gen11 Server für VMware Private AI Foundation mit NVIDIA und Lenovo ThinkSystem SR675 V3. „Generative KI ist ein Katalysator für Innovationen und hilft, einige der dringendsten Herausforderungen der Welt zu lösen“, sagt Michael Dell, Chairman und Chief Executive Officer von Dell Technologies. „Die generativen KI-Lösungen von Dell mit NVIDIA-KI-fähigen Servern werden eine entscheidende Rolle dabei spielen, den Fortschritt der Menschheit voranzutreiben, indem sie ein noch nie dagewesenes Maß an Produktivität ermöglichen und die Art und Weise revolutionieren, wie Branchen arbeiten.“ „Generative KI wird eine neue Dimension der Produktivität für Unternehmen einläuten, vom Einsatz von Chatbots und digitalen Assistenten bis hin zur Unterstützung bei der Konzeption und Entwicklung neuer Lösungen“, sagt Antonio Neri, Präsident und CEO von HPE. „Wir freuen uns, weiterhin eng mit NVIDIA zusammenzuarbeiten, um die GPUs und Software des Unternehmens in einer Reihe von Lösungen für Tuning- und Inferenz-Workloads einzusetzen, die den Einsatz von generativer KI beschleunigen werden.“ „Unternehmen sind sehr daran interessiert, generative KI einzusetzen, um die intelligente Transformation voranzutreiben“, sagte Yang Yuanqing, Chairman und CEO von Lenovo. „Durch die Zusammenarbeit mit NVIDIA und VMware baut Lenovo seine Führungsposition im Bereich der generativen KI weiter aus und festigt seine einzigartige Position, wenn es darum geht, Kunden bei ihrer KI-Reise zu unterstützen.“ Verfügbarkeit NVIDIAs KI-fähige Server mit L40S-GPUs und BlueField DPUs werden bis zum Jahresende verfügbar sein, Instanzen bei Cloud-Service-Anbietern werden in den kommenden Monaten erwartet. | The new NVIDIA AI-ready servers will include NVIDIA® L40S GPUs, NVIDIA BlueField®-3 DPUs, and NVIDIA AI Enterprise software to enable organizations to fine-tune generative AI foundation models and deploy generative AI applications such as intelligent chatbots, search, and summarization tools. These servers also provide NVIDIA-accelerated infrastructure and software to power the VMware Private AI Foundation with NVIDIA. NVIDIA L40S-powered servers from the world’s leading system manufacturers – Dell Technologies, Hewlett Packard Enterprise and Lenovo – will be available by the end of the year to accelerate enterprise AI. „A new era of computing has begun,“ said Jensen Huang, founder and CEO of NVIDIA. „Enterprises across all industries are racing to adopt generative AI. With our ecosystem of world-leading software and system partners, we are bringing generative AI to the world’s enterprises.“ NVIDIA AI-Ready servers are an ideal platform for organizations deploying the VMware Private AI Foundation with NVIDIA. „Generative AI is accelerating digital transformation, and enterprises need a fully integrated solution to more securely build applications that enable them to drive their business forward,“ said Raghu Raghuram, CEO, VMware. „With the combined expertise of VMware, NVIDIA and our server manufacturer partners, enterprises will be able to build and deploy AI with data privacy, security and control.“ Powering the Generative AI Transformation in the Enterprise NVIDIA AI-Ready servers are designed to provide full-stack accelerated infrastructure and software for industries racing to adopt generative AI for a wide range of applications, including drug discovery, retail product description, intelligent virtual assistants, manufacturing simulation, and fraud detection.
The servers include NVIDIA AI Enterprise, the operating system for the NVIDIA AI platform. The software provides production-ready enterprise support and security for more than 100 frameworks, pre-trained models, toolkits, and software, including NVIDIA NeMo™ for LLM, NVIDIA Modulus for simulation, NVIDIA RAPIDS™ for data science, and NVIDIA Triton™ Inference Server for production AI. Built to handle complex AI workloads with billions of parameters, L40S GPUs include fourth-generation Tensor Cores and an FP8 Transformer Engine, delivering over 1.45 petaflops of tensor processing power and up to 1.7x training performance compared with the NVIDIA A100 Tensor Core GPU. For generative AI applications such as intelligent chatbots, assistants, search and summarization, the NVIDIA L40S enables up to 1.2x more generative AI inference performance than the NVIDIA A100 GPU. Integrating NVIDIA BlueField DPUs drives further speedups by accelerating, offloading and isolating the tremendous compute load of virtualization, networking, storage, security and other cloud-native AI services. NVIDIA ConnectX®-7 SmartNICs offer advanced hardware offloads and ultra-low latency, delivering best-in-class, scalable performance for data-intensive generative AI workloads. Broad Ecosystem to Speed Enterprise Generative AI Deployments „Generative AI is a catalyst for innovation, helping to solve some of the world’s most pressing challenges,” said Michael Dell, chairman and chief executive officer, Dell Technologies. “Dell Generative AI Solutions with NVIDIA AI-ready servers will play a critical role in advancing human progress by driving unprecedented levels of productivity and revolutionizing the way industries operate.“ “Generative AI will usher in a new scale of productivity for enterprises, from powering chatbots and digital assistants to helping with the design and development of new solutions,” said Antonio Neri, president and CEO of HPE. “We are pleased to continue working closely with NVIDIA to feature its GPUs and software in a range of enterprise tuning and inference workload solutions that will accelerate deployments of generative AI.” “Businesses are eager to adopt generative AI to power intelligent transformation,” said Yang Yuanqing, chairman and CEO of Lenovo. “In collaboration with NVIDIA and VMware, Lenovo is further extending our leadership in generative AI and solidifying our unique position in helping customers in their AI journey.” Availability |
Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de