Hewlett Packard Enterprise und NVIDIA lancieren auf der HPE Discover 2024 „NVIDIA AI Computing by HPE“, um die industrielle Revolution der generativen KI zu beschleunigen.

Hewlett Packard Enterprise and NVIDIA announce at  HPE Discover 2024 ‘NVIDIA AI Computing by HPE’ to accelerate generative AI industrial revolution.

Hewlett Packard Enterprise (HPE) und NVIDIA AI Computing, bringen „NVIDIA AI Computing by HPE“ auf den Markt, ein Portfolio gemeinsam entwickelter KI-Lösungen mit gemeinsamer Vermarktung, um die Einführung generativer KI in Firmen und Verwaltungen zu beschleunigen.

Zu den wichtigsten Angeboten des Portfolios gehört HPE Private Cloud AI, eine einzigartige Lösung mit der bisher tiefsten Integration von NVIDIAs Computing-, Netzwerk- und Software-Technologien mit den Speichern und Servern von HPE sowie mit der HPE GreenLake Cloud. Das neue Angebot wurde entwickelt für Inferenz, Feintuning und Retrieval-Augmented Generation (RAG) auf der Grundlage von proprietären Daten. Es ist für Unternehmen und Verwaltungen jeder Größe geeignet. Mit HPE Private Cloud AI haben sie Kontrolle und Souveränität hinsichtlich Datenschutz, Sicherheit, Transparenz und Governance.

Unterstützt durch einen neuen KI-Kopiloten auf der Grundlage von OpsRamp bietet HPE Private Cloud AI eine Self-Service-Umgebung mit Cloud-Nutzererfahrung und ein vollständiges Lebenszyklusmanagement. Die Lösung ist in vier Konfigurationen erhältlich, um eine breite Palette von KI-Anwendungen zu unterstützen.

Die Angebote und Dienstleistungen im Rahmen von NVIDIA AI Computing by HPE werden von HPE und NVIDIA gemeinsam mit Channel-Partnern und einem globalen Netzwerk von Systemintegratoren – darunter Deloitte, HCLTech, Infosys, TCS und Wipro – vermarktet.

NVIDIA AI Computing by HPE wurde während der Keynote der Konferenz HPE Discover in Las Vegas von Antonio Neri, President und CEO von HPE, und NVIDIA-Gründer und -CEO Jensen Huang angekündigt.

„Generative KI birgt ein immenses Transformationspotenzial, aber die Komplexität der fragmentierten KI-Technologie birgt viele Risiken und Barrieren – das erschwert die großflächige Einführung und gefährdet das wertvollste Kapital von Firmen und Verwaltungen: ihre proprietären Daten“, sagte Neri. „Deshalb haben HPE und NVIDIA gemeinsam eine schlüsselfertige Private Cloud für KI entwickelt, die es Kunden ermöglicht, sich auf die Entwicklung neuer KI-Anwendungen zu konzentrieren, die ihre Produktivität steigern und neue Einnahmequellen erschließen.“

„Generative KI und beschleunigtes Computing treiben einen grundlegenden Wandel voran, da jede Branche darum wetteifert, an der industriellen Revolution teilzuhaben“, sagte Huang. „Noch nie zuvor haben NVIDIA und HPE unsere Technologien so tief integriert wie mit dieser Kombination des gesamten NVIDIA AI Computing Stacks mit der Private-Cloud-Technologie von HPE. Damit statten wir Kunden mit dem führenden Infrastruktur- und Dienstleistungsangebot aus, sodass sie die Grenzen der KI erweitern können.“

Der Technologie-Stack von HPE Private Cloud A

Zum KI- und Daten-Software-Stack von HPE Private Cloud AI gehört zum einen die Softwareplattform NVIDIA AI Enterprise. Sie beschleunigt Daten-Pipelines und die Entwicklung von Kopiloten und anderen Anwendungen der generativen KI. NVIDIA AI Enterprise umfasst auch die Inferenz-Microservices von NVIDIA NIM, die einen reibungslosen Übergang vom Prototyp zum Betrieb von KI-Modellen unterstützen.

Als Ergänzung zu NVIDIA AI Enterprise und NVIDIA NIM bietet die Software HPE AI Essentials eine Reihe von kuratierten KI- und Datenwerkzeugen, die über eine einheitliche Steuerungsebene verwaltet werden. Diese Werkzeuge dienen dazu, Compliance, Erklärbarkeit und Reproduzierbarkeit von KI-Modellen sicherzustellen.

HPE Private Cloud AI beruht auf einem vollständig integrierten KI-Infrastruktur-Stack, der unter anderem die folgenden Komponenten umfasst: Spectrum-X-Ethernet-Netzwerke von NVIDIA, HPE GreenLake for File Storage und HPE-ProLiant-Server mit Unterstützung für die Grafikprozessoren NVIDIA L40S und NVIDIA H100 NVL Tensor Core sowie für die Superchip-Plattform NVIDIA GH200 NVL2.

Cloud-Nutzererfahrung und AIOps mit HPE GreenLake Cloud und OpsRamp

HPE Private Cloud AI bietet eine Self-Service-Nutzererfahrung. Grundlage dafür ist die HPE GreenLake Cloud, eine einheitliche Steuerungsplattform, mit der sich Endpunkte, Anwendungen und Daten in hybriden Umgebungen überwachen, automatisieren, orchestrieren und verwalten lassen. Dazu gehören auch Nachhaltigkeitsmetriken für Anwendungen und Endpunkte.

Die Softwarelösung OpsRamp ist in die HPE GreenLake Cloud integriert und bietet Überwachung und AIOps für den gesamten Technologie-Stack der HPE Private Cloud AI, einschließlich aller NVIDIA-Komponenten. IT-Administratoren können damit zum Beispiel Anomalien identifizieren und ihre KI-Infrastruktur und -Anwendungen in hybriden Multi-Cloud-Umgebungen überwachen.

Der neue OpsRamp-Kopilot nutzt die beschleunigte Computing-Plattform von NVIDIA und einen Chatbot, um große Datensätze zu analysieren und damit die Produktivität des Betriebsmanagements zu steigern. OpsRamp wird auch in CrowdStrike-APIs integriert, sodass Kunden eine einheitliche Sicht auf die Endpunktsicherheit bekommen.

Neue HPE-Server mit Unterstützung der neuesten GPUs, CPUs und Superchips von NVIDIA

HPE kündigte außerdem die folgenden neuen Server-Modelle an:

  • HPE Cray XD670 unterstützt acht NVIDIA H200 NVL Tensor Core GPUs und ist ideal für das Training großer Sprachmodelle (LLM).
  • Der HPE ProLiant DL384 Gen12 Server mit NVIDIA GH200 NVL2 ist ideal für LLM-Nutzer, die größere Modelle oder RAG verwenden.
  • Der HPE ProLiant DL380a Gen12 Server unterstützt bis zu acht NVIDIA H200 NVL Tensor Core GPUs und ist ideal für LLM-Nutzer, die Flexibilität bei der Skalierung ihrer GenAI-Anwendungen brauchen.
  • HPE wird zeitnah NVIDIA GB200 NVL72/NVL2 sowie die neuen Architekturen von NVIDIA Blackwell, NVIDIA Rubin und NVIDIA Vera unterstützen.

HPE GreenLake for File Storage zertifiziert für NVIDIA DGX BasePOD und NVIDIA OVX

HPE GreenLake for File Storage hat die DGX-Base-POD-Zertifizierung und die OVX-Speichervalidierung von NVIDIA erhalten und bietet Kunden eine bewährte Dateispeicherlösung zur Beschleunigung von KI-, GenAI- und GPU-intensiven Anwendungen in großem Maßstab.

Verfügbarkeit

  • HPE Private Cloud AI wird voraussichtlich im Herbst allgemein verfügbar sein.
  • HPE ProLiant DL380a Gen12 Server mit NVIDIA H200 NVL Tensor Core GPUs wird voraussichtlich im Herbst allgemein verfügbar sein.
  • HPE ProLiant DL384 Gen12 Server mit zwei NVIDIA GH200 NVL2 wird voraussichtlich im Herbst allgemein verfügbar sein.
  • HPE Cray XD670 Server mit NVIDIA H200 NVL wird voraussichtlich im Sommer allgemein verfügbar sein.
Hewlett Packard Enterprise (NYSE: HPE) and NVIDIA today announced NVIDIA AI Computing by HPE, a portfolio of co-developed AI solutions and joint go-to-market integrations that enable enterprises to accelerate adoption of generative AI.

Among the portfolio’s key offerings is HPE Private Cloud AI, a first-of-its-kind solution that provides the deepest integration to date of NVIDIA AI computing, networking and software with HPE’s AI storage, compute and the HPE GreenLake cloud. The offering enables enterprises of every size to gain an energy-efficient, fast, and flexible path for sustainably developing and deploying generative AI applications. Powered by the new OpsRamp AI copilot that helps IT operations improve workload and IT efficiency, HPE Private Cloud AI includes a self-service cloud experience with full lifecycle management and is available in four right-sized configurations to support a broad range of AI workloads and use cases.

All NVIDIA AI Computing by HPE offerings and services will be available through a joint go-to-market strategy that spans sales teams and channel partners, training and a global network of system integrators — including Deloitte, HCLTech, Infosys, TCS and Wipro — that can help enterprises across a variety of industries run complex AI workloads.

Announced during the HPE Discover keynote by HPE President and CEO Antonio Neri, who was joined by NVIDIA founder and CEO Jensen Huang, NVIDIA AI Computing by HPE marks the expansion of a decades-long partnership and reflects the substantial commitment of time and resources from each company.

“To unleash the immense potential of generative AI in the enterprise, HPE and NVIDIA co-developed a turnkey private cloud for AI that will enable enterprises to focus their resources on developing new AI use cases that can boost productivity and unlock new revenue streams.” Antonio Neri HPE President and CEO, HPE

“Generative AI holds immense potential for enterprise transformation, but the complexities of fragmented AI technology contain too many risks and barriers that hamper large-scale enterprise adoption and can jeopardize a company’s most valuable asset – its proprietary data,” said Neri. “To unleash the immense potential of generative AI in the enterprise, HPE and NVIDIA co-developed a turnkey private cloud for AI that will enable enterprises to focus their resources on developing new AI use cases that can boost productivity and unlock new revenue streams.”

“Generative AI and accelerated computing are fueling a fundamental transformation as every industry races to join the industrial revolution,” said Huang. “Never before have NVIDIA and HPE integrated our technologies so deeply – combining the entire NVIDIA AI computing stack along with HPE’s private cloud technology – to equip enterprise clients and AI professionals with the most advanced computing infrastructure and services to expand the frontier of AI.”

“Never before have NVIDIA and HPE integrated our technologies so deeply – combining the entire NVIDIA AI computing stack along with HPE’s private cloud technology –  to equip enterprise clients and AI professionals with the most advanced computing infrastructure and services to expand the frontier of AI.” Jensen Huang NVIDIA founder and CEO

HPE and NVIDIA co-developed Private Cloud AI portfolio

HPE Private Cloud AI delivers a unique, cloud-based experience to accelerate innovation and return on investment while managing enterprise risk from AI. The solution offers:

  • Support for inference, fine-tuning and RAG AI workloads that utilize proprietary data.
  • Enterprise control for data privacy, security, transparency, and governance requirements.
  • Cloud experience with ITOps and AIOps capabilities to increase productivity.
  • Fast path to consume flexibly to meet future AI opportunities and growth.

Curated AI and data software stack in HPE Private Cloud AI

The foundation of the AI and data software stack starts with the NVIDIA AI Enterprise software platform, which includes NVIDIA NIM™ inference microservices.

NVIDIA AI Enterprise accelerates data science pipelines and streamlines development and deployment of production-grade copilots and other GenAI applications. Included with NVIDIA AI Enterprise, NVIDIA NIM delivers easy-to-use microservices for optimized AI model inferencing offering a smooth transition from prototype to secure deployment of AI models in a variety of use cases.

Complementing NVIDIA AI Enterprise and NVIDIA NIM, HPE AI Essentials software delivers a ready to run set of curated AI and data foundation tools with a unified control plane that provide adaptable solutions, ongoing enterprise support, and trusted AI services, such as data and model compliance and extensible features that ensure AI pipelines are in compliance, explainable and reproducible throughout the AI lifecycle.

To deliver optimal performance for the AI and data software stack, HPE Private Cloud AI delivers a fully integrated AI infrastructure stack that includes NVIDIA Spectrum-X™ Ethernet networking, HPE GreenLake for File Storage, and HPE ProLiant servers with support for NVIDIA L40SNVIDIA H100 NVL Tensor Core GPUs and the NVIDIA GH200 NVL2 platform.

Cloud experience enabled by HPE GreenLake cloud

HPE Private Cloud AI offers a self-service cloud experience enabled by HPE GreenLake cloud. Through a single, platform-based control plane, HPE Greenlake cloud services provide manageability and observability to automate, orchestrate and manage endpoints, workloads, and data across hybrid environments. This includes sustainability metrics for workloads and endpoints.

HPE GreenLake cloud and OpsRamp AI infrastructure observability and copilot assistant

OpsRamp’s IT operations are integrated with HPE GreenLake cloud to deliver observability and AIOps to all HPE products and services. OpsRamp now provides observability for the end- to- end NVIDIA accelerated computing stack, including NVIDIA NIM and AI software, NVIDIA Tensor Core GPUs, and AI clusters as well as NVIDIA Quantum InfiniBand and NVIDIA Spectrum Ethernet switches. IT administrators can gain insights to identify anomalies and monitor their AI infrastructure and workloads across hybrid, multi-cloud environments.

The new OpsRamp operations copilot utilizes NVIDIA’s accelerated computing platform to analyze large datasets for insights with a conversational assistant, boosting productivity for operations management. OpsRamp will also integrate with CrowdStrike APIs so customers can see a unified service map view of endpoint security across their entire infrastructure and applications.

Accelerate time to value with AI – expanded collaboration with global system integrators

To advance the time to value for enterprises to develop industry-focused AI solutions and use cases with clear business benefits, Deloitte, HCLTech, Infosys, TCS and WIPRO announced their support of the NVIDIA AI Computing by HPE portfolio and HPE Private Cloud AI as part of their strategic AI solutions and services.

HPE adds support for NVIDIA’s latest GPUs, CPUs and Superchips

  • HPE Cray XD670 supports eight NVIDIA H200 NVL Tensor Core GPUs and is ideal for LLM builders.
  • HPE ProLiant DL384 Gen12 server with NVIDIA GH200 NVL2 is ideal for LLM consumers using larger models or RAG.
  • HPE ProLiant DL380a Gen12 server support for up to eight NVIDIA H200 NVL Tensor Core GPUs is ideal for LLM users looking for flexibility to scale their GenAI workloads.
  • HPE will be time-to-market to support the NVIDIA GB200 NVL72 / NVL2, as well as the new NVIDIA Blackwell, NVIDIA Rubin, and NVIDIA Vera architectures.

High-density file storage certified for NVIDIA DGX BasePOD and NVIDIA OVX systems

HPE GreenLake for File Storage has achieved NVIDIA DGX BasePOD certification and NVIDIA OVX™ storage validation, providing customers with a proven enterprise file storage solution for accelerating AI, GenAI and GPU-intensive workloads at scale. HPE will be a time-to-market partner on upcoming NVIDIA reference architecture storage certification programs.

Availability

  • HPE Private Cloud AI is expected to be generally available in the fall.
  • HPE ProLiant DL380a Gen12 server with NVIDIA H200 NVL Tensor Core GPUs is expected to be generally available in the fall.
  • HPE ProLiant DL384 Gen12 server with dual NVIDIA GH200 NVL2 is expected to be generally available in the fall.
  • HPE Cray XD670 server with NVIDIA H200 NVL is expected to be generally available in the summer.

 

Von Carolina Heyder

Carolina Heyder ist Chefredakteurin Security Storage und Channel Germany sowie freiberufliche IT-Fachjournalistin und Moderatorin. Sie verfügt über langjährige Erfahrung in renommierten Verlagshäusern wie WEKA-Fachmedien, Springer und Aspencore. Ob Text fürs Web oder Print, Audio oder Video. Am Laptop, vor dem Mikrofon oder der Kamera. Ob in Deutsch, Englisch oder Spanisch, Carolina Heyder ist in der IT-Welt Zuhause. Ihre Themenschwerpunkte sind Cybersecurity, Digitale Transformation, Nachhaltigkeit, Storage u. a. Carolina Heyder is Editor-in-Chief of Security Storage and Channel Germany as well as a freelance IT journalist and presenter. She has many years of experience at renowned publishing houses such as WEKA-Fachmedien, Springer and Aspencore. Whether text for the web or print, audio or video. On the laptop, in front of the microphone or the camera. Whether in German, English or Spanish, Carolina Heyder is at home in the IT world. Her main topics are cybersecurity, digital transformation, sustainability, storage and others. Kontakt – Contact via Mail: carolina.heyder@security-storage-und-channel-germany.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner