Supermicro stellt neue mehrstufige Rack-Speichersysteme mit Hunderten von Petabyte für KI-Training und -Inferenz vor.

Supermicro Introduces New Multi-Tier Rack Storage Systems with hundreds of Petabyte for AI Training and Inference.

Supermicro Inc. hat optimierte Full-Stack-Speicherlösungen für KI- und ML-Datenpipelines vorgestellt, die die gesamte Anwendungsbandbreite von der Datenerfassung bis zur hochperformanten Datenbereitstellung abdecken. Die neuen mehrstufigen Speicherlösungen mit Hunderten von Petabyte bieten die enorme Datenkapazität und Datenbandbreite, die für KI-Workloads erforderlich sind.

Die neuen Rack-Scale-Speichersysteme maximieren die Amortisierungszeit von KI, indem sie die GPU-Datenpipelines voll ausnutzen. Für das KI-Training können riesige Mengen an Rohdaten mit Kapazitäten im Petascale-Bereich gesammelt, transformiert und in die KI-Workflow-Pipeline eines Unternehmens geladen werden. Die mehrstufigen Lösungen von Supermicro liefern zuverlässig Datenmengen im Petabyte-Bereich für AIOps und MLOps in Produktionsumgebungen. Die Rack-Scale-Speichersysteme wurden entwickelt, um Implementierungsrisiken zu reduzieren und es Unternehmen zu ermöglichen, KI-Modelle schneller zu trainieren und die resultierenden Daten schnell für KI-Inferenz zu nutzen.

„Mit 20 PB pro Rack an Hochleistungs-Flash-Speicher mit vier anwendungsoptimierten luftgekühlten NVIDIA HGX H100 8-GPU-Servern oder acht flüssigkeitsgekühlten NVIDIA HGX H100 8-GPU-Servern können Kunden ihre KI- und ML-Anwendungen beschleunigen“, sagte Charles Liang, Präsident und CEO von Supermicro. „Unsere neuen Rack-Speichersysteme bieten einen Lesedurchsatz von 270 GB/s und 3,9 Millionen IOPS pro Speichercluster in der kleinsten Konfiguration und können problemlos auf Hunderte von Petabytes skaliert werden. Durch den Einsatz der neuesten Supermicro Systeme mit PCIe 5.0 und E3.S SSDs und der WEKA Data Platform Software können Anwender die Performance von KI-Anwendungen mit dieser praxiserprobten Lösung im Rackformat deutlich steigern.“

Petabytes an unstrukturierten Daten, die bei der Verarbeitung großer KI-Trainings verwendet werden, müssen den GPU-Servern mit geringer Latenz und hoher Bandbreite zur Verfügung gestellt werden, damit die GPUs produktiv bleiben. Supermicros umfassendes Angebot an Intel- und AMD-basierten Speicherservern ist ein wichtiger Bestandteil der KI-Pipeline.

 

Die neuen Rack-Scale-Speichersysteme von Supermicro bestehen aus

All-Flash-Ebene: Petascale All-Flash-Storage-Server, die eine Kapazität von 983,04* TB pro Server an NVMe Gen 5-Flash-Kapazität haben und eine Lesebandbreite von bis zu 230 GB/s und 30 Millionen IOPS liefern.

 

Anwendungsebene: Supermicro 8HE GPU-Server AS -8125GS-TNHR und SYS-821GE-TNHR

 

Objektebene: Supermicro 4HE SuperStorage Server SSG-640SP-E1CR90 mit 90 Laufwerksschächten und Quantum ActiveScale Objektspeicher

 

Software: WEKA Data Platform und Quantum ActiveScale Objektspeicher

 

Switches: Supermicro InfiniBand und Ethernet Switches

 

„Die hohe Leistung und die große Speicherkapazität der All-Flash Petascale Storage Server von Supermicro ergänzen die KI-native Datenplattform-Software von WEKA perfekt. Zusammen bieten sie die Geschwindigkeit, Skalierbarkeit und Einfachheit, die von den heutigen KI-Kunden in Unternehmen gefordert wird“, sagte Jonathan Martin, President, WEKA.

Supermicro Inc. has introduced optimized full-stack storage solutions for AI and ML data pipelines spanning the application spectrum from data ingestion to high-performance data delivery. The new hundreds of petabyte multi-tier storage solutions provide the massive data capacity and bandwidth required for AI workloads.

The new rack-scale storage systems maximize AI payback time by taking full advantage of GPU data pipelines. For AI training, massive amounts of raw data can be collected, transformed and loaded into an organization’s AI workflow pipeline with petascale capacities. Supermicro’s tiered solutions reliably deliver petabyte-scale data volumes for AIOps and MLOps in production environments. The rack-scale storage systems are designed to reduce implementation risk, enabling organizations to train AI models faster and quickly leverage the resulting data for AI inference.

„With 20PB per rack of high-performance flash storage with four application-optimized air-cooled NVIDIA HGX H100 8-GPU servers or eight liquid-cooled NVIDIA HGX H100 8-GPU servers, customers can accelerate their AI and ML applications,“ said Charles Liang, president and CEO of Supermicro. „Our new rack storage systems deliver 270GB/s of read throughput and 3.9 million IOPS per storage cluster in the smallest configuration, and can easily scale to hundreds of petabytes. By using the latest Supermicro systems with PCIe 5.0 and E3.S SSDs and WEKA Data Platform software, users can significantly increase the performance of AI applications with this field-proven solution in a rack format.“

Petabytes of unstructured data used in large-scale AI training processing must be delivered to GPU servers with low latency and high bandwidth to keep GPUs productive. Supermicro’s extensive line of Intel and AMD-based storage servers are a critical part of the AI pipeline.

 

Supermicro’s new rack-scale storage systems consist of

All-Flash Tier: Petascale all-flash storage servers with 983.04* TB of NVMe Gen 5 flash capacity per server, delivering up to 230 GB/sec read bandwidth and 30 million IOPS.

 

Application Level: Supermicro 8U GPU Servers AS-8125GS-TNHR and SYS-821GE-TNHR

 

Object level: Supermicro 4U SuperStorage Server SSG-640SP-E1CR90 with 90 drive bays and Quantum ActiveScale object storage

 

Software: WEKA Data Platform and Quantum ActiveScale Object Storage

 

Switches: Supermicro InfiniBand and Ethernet Switches

 

„The high performance and high capacity of Supermicro’s all-flash petascale storage servers is a perfect complement to WEKA’s AI-native Data Platform software. Together, they deliver the speed, scalability, and simplicity that today’s enterprise AI customers demand,“ said Jonathan Martin, President of WEKA.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Cookie Consent mit Real Cookie Banner