Hammerspace Tier 0 verwandelt lokale NVMe-Speicher in ultraschnellen shared Storage für GPU-Cluster. | Hammerspace Tier 0 transforms local NVMe storage into ultra-fast, shared storage for GPU clusters. |
Da KI-Computing zunehmend in Hybrid- und Multi-Cloud-Umgebungen zum Einsatz kommt, stehen Infrastrukturteams unter dem Druck, die Zeit bis zur Gewinnung von Erkenntnissen zu verkürzen und gleichzeitig ihre GPU-Investitionen zu maximieren. Allzu oft wird jedoch der Speicher zum Engpass.
Egal, ob Sie Basismodelle trainieren oder agentenbasierte KI-Anwendungen bereitstellen – eines ist klar: GPU-Rechenzyklen sind kostbar und es wird immer schwieriger, sie voll auszunutzen. Während des Trainings kann das Checkpointing den Fortschritt verzögern, während Daten auf langsame Netzwerkspeicher geschrieben werden. Während der Inferenz können selbst Latenzen im Millisekundenbereich die Benutzererfahrung beeinträchtigen und die Kosten in die Höhe treiben. Wie The Futurum Group feststellt, führt die zunehmende Komplexität von KI-Modellen und die Verwendung größerer Datensätze dazu, dass GPUs aufgrund des verzögerten Datenabrufs untätig bleiben, anstatt Berechnungen durchzuführen. Angesichts der erheblichen Investitionen in die GPU-Infrastruktur geben Unternehmen nun Lösungen den Vorrang, die Speicherineffizienzen beseitigen und einen nahtlosen Datenfluss gewährleisten, um die Rechenleistung und Kosteneffizienz zu maximieren. Hier kommt Hammerspace Tier 0 ins Spiel: Eine Lösung, die den lokalen NVMe-Speicher innerhalb eines Clusters von GPU-Servern in eine neue Ebene blitzschneller, gemeinsam genutzter Speicher verwandelt. Dieser wird von Hammerspace verwaltet und geschützt. Tier 0 kann innerhalb weniger Stunden aktiviert werden, ohne dass umfangreiche Upgrades oder komplexe Integrationen erforderlich sind. Sie erhalten sofortigen Zugriff auf schnellen, gemeinsam genutzten Speicher, der mit Ihren GPUs Schritt hält. Tier 0 bietet bis zu zehnmal mehr Leistung als herkömmlicher Netzwerkspeicher – sowohl vor Ort als auch in der Cloud. Dadurch können Sie die Checkpointing-Zeit reduzieren, die GPU-Auslastung erhöhen und die Reaktionszeiten für Inferenz und agentenbasierte KI verbessern. Da Tier 0 zudem nur eine weitere Ebene innerhalb der Hammerspace-Datenplattform ist, ist die Übertragung von Daten zwischen lokalen Speichersystemen und Cloud-Computing-Clustern äußerst einfach. Da die bereits vorhandene NVMe-Kapazität genutzt werden kann, macht Tier 0 zusätzliche Speichersysteme überflüssig und spart so Strom, Platz und Kosten. In großen GPU-Clustern können sich die Einsparungen auf Millionen von Dollar summieren. Hammerspace Tier 0 ist bei weitem der derzeit für KI-Workloads verfügbare, leistungsstärkste gemeinsam genutzte Speichertyp. Benchmarks zeigen, dass Tier 0 16,5-mal mehr GPUs unterstützen kann als eine Lustre-Lösung mit einer gleichwertigen Anzahl von Client-Verbindungen. Wenn diese Kapazität über mehrere GPU-Server in einem Cluster aggregiert wird, können Unternehmen sowohl vor Ort als auch in der Cloud eine weitaus höhere Leistung aus ihren GPU-Investitionen erzielen – und das zu deutlich geringeren Kosten. Noch wichtiger ist, dass diese Innovation mit bestehenden lokalen und/oder cloudbasierten GPU-(oder CPU/ARM-)Servern beliebiger Anbieter funktioniert, indem sie die bereits bezahlte interne lokale NVMe-Kapazität aktiviert. Nach der Aktivierung ist Tier 0 der mit Abstand leistungsstärkste derzeit verfügbare Speichertyp für KI-Workloads. Wenn diese Kapazität über mehrere GPU-Server in einem Cluster hinweg aggregiert wird, können Unternehmen sowohl vor Ort als auch in der Cloud eine weitaus höhere Leistung aus ihren GPU-Investitionen erzielen – und das zu deutlich geringeren Kosten. Diese ultraschnelle lokale NVMe-Kapazität, die weitgehend ungenutzt bleibt, ist eigentlich kostenlos, da sie bereits im Preis von GPU-Servern, sowohl bei lokalen als auch bei cloudbasierten Bereitstellungen, enthalten ist. Die Tatsache, dass dadurch kein zusätzlicher Strombedarf entsteht, ist ein weiterer Vorteil für Rechenzentren, die nahe an der Grenze ihrer verfügbaren Leistung sind. Hammerspace Data Orchestration aktiviert Tier 0. Es vereinheitlicht den lokalen Serverspeicher mit allen anderen Speicherebenen. So stellt es sicher, dass alle Daten geschützt sind. Es reduziert die Belastung des teuren Tier 1. Es beseitigt Herstellersilos. KI-Workloads und die Datenplatzierung in und aus jedem anderen Speicher werden automatisiert. Es umfasst mehrere Standorte und die Cloud. On Premises: Tier 0 ist schneller als jeder vernetzte externe Speicher. Es reduziert den Bedarf an teuren Netzwerken. Die Abhängigkeit von teurem Tier 1 wird reduziert. Cloud Tier 0 ist deutlich schneller. Es erhöht die GPU-Leistung und reduziert Ausfallzeiten. Es reduziert die Tier-1-Kosten. Tier 0 = höherer ROI: Doppelte Kosten und unnötige Infrastruktur eliminieren. Reduzieren Sie den Bedarf an neuem Tier-1-Speicher. Nutzen Sie das vorhandene Netzwerk. Nutzen Sie kostengünstigere vorhandene Speicher. Nutzen Sie die versteckten Kosten lokaler NVMe. Diese sind bereits mit den Servern bezahlt. Die vorhandene Tier-0-Kapazität ist schneller als jeder externe Speicher eines beliebigen Anbieters. Kundenbeispiel Grok Bei der X/Twitter KI Lösung Grok konnten innerhalb weniger Tage 20 PB Tier-0-NVMe-Kapazität zum gemeinsam genutzten Speicher hinzugefügt werden, ohne dass neue Speicherhardware benötigt wird. Die Einhaltung der kurzen Frist für die Produktveröffentlichung wurde sichergestellt. Es werden 7 Millionen US-Dollar bei den Investitionskosten für gemeinsam genutzten Speicher eingespart. Es entsteht kein zusätzlicher Strombedarf für Speicheranforderungen. Weitere Vorteile im Linux-Kernel Hammerspace Tier 0 ist Standardbasiert, keine spezielle Software erforderlich. Es wurde entwickelt von Hammerspace, beigetragen zu Linux. 3-mal schnellere Leseleistung innerhalb des GPU-Servers. Weitere Reduzierung der Latenzen und Maximierung der GPU-Auslastung mit LOCALIO (NFS-Protokoll-Bypass). LOCALIO wurde im Linux Long-Term Support Kernel 6.12 veröffentlicht und im Mai 2025 in RHEL10 aufgenommen. Reduziert die CPU-Auslastung im GPU-Server. |
As AI computing moves increasingly to hybrid and multi-cloud environments, infrastructure teams face pressure to reduce time to insight while maximizing GPU investments. All too often, however, storage becomes the bottleneck.
Whether you’re training base models or deploying agent-based AI applications, one thing is clear: GPU compute cycles are precious, and it’s becoming increasingly difficult to utilize them fully. During training, checkpointing can slow progress while data is written to slow network storage. During inference, latencies of even a few milliseconds can degrade the user experience and increase costs. According to The Futurum Group, the growing complexity of AI models and larger data sets mean GPUs often sit idle due to delayed data retrieval instead of performing calculations. Given their significant investments in GPU infrastructure, companies now prioritize solutions that eliminate storage inefficiencies and ensure seamless data flow. These solutions maximize computing power and cost efficiency. Hammerspace Tier 0 is a solution that transforms local NVMe storage within a cluster of GPU servers into a new layer of lightning-fast, shared storage. Hammerspace manages and protects this storage. Tier 0 can be activated in a matter of hours, eliminating the need for extensive upgrades or complex integrations. You get instant access to fast, shared storage that keeps pace with your GPUs. Tier 0 delivers up to ten times the performance of traditional network storage, both on-premises and in the cloud. This enables you to reduce checkpointing time, increase GPU utilization, and improve response times for inference and agent-based AI. Since Tier 0 is just another layer within the Hammerspace data platform, transferring data between local storage systems and cloud computing clusters is easy. Tier 0 leverages existing NVMe capacity to eliminate the need for additional storage systems, saving power, space, and costs. In large GPU clusters, these savings can total millions of dollars. Hammerspace Tier 0 is the most powerful type of shared storage currently available for AI workloads. Benchmarks show that Tier 0 supports 16.5 times more GPUs than a Lustre solution with an equivalent number of client connections. When this capacity is aggregated across multiple GPU servers in a cluster, organizations can achieve significantly higher performance from their GPU investments, both on-premises and in the cloud. This innovation is significant because it works with existing on-premises and/or cloud-based GPU (or CPU/ARM) servers from any vendor by activating their internal local NVMe capacity. Once activated, Tier 0 becomes the most powerful storage type for AI workloads. When this capacity is aggregated across multiple GPU servers in a cluster, organizations can achieve greater performance from their GPU investments at a lower cost, both on-premises and in the cloud. This ultra-fast local NVMe capacity remains largely unused and is free because it is included in the price of GPU servers in both on-premises and cloud-based deployments. Another advantage for data centers that are close to the limits of their available capacity is that this does not create any additional power requirements. Hammerspace Data Orchestration enables Tier 0 It unifies local server storage with all other storage tiers. This ensures that all data is protected. It reduces the load on expensive Tier 1 storage. It also eliminates vendor silos. AI workloads and data placement in and out of any other storage are automated. It spans multiple locations and the cloud. On-premises: Tier 0 is faster than any external networked storage. It reduces the need for expensive networks. Dependence on expensive Tier 1 storage is reduced. Cloud: Tier 0 is significantly faster. It increases GPU performance and reduces downtime. It also reduces Tier 1 costs. Tier 0 = higher ROI. It eliminates duplicate costs and unnecessary infrastructure. It reduces the need for new Tier 1 storage. Leverage the existing network. Use lower-cost existing storage. Take advantage of the hidden costs of local NVMe. These costs are already covered by the servers. Existing Tier 0 capacity is faster than external storage from any vendor. Customer example: Grok With Grok, the X/Twitter AI solution, 20 PB of Tier 0 NVMe capacity was added to shared storage in just a few days, eliminating the need for new storage hardware. This ensured compliance with the short product release deadline. $7 million in investment costs for shared storage were saved. There are no additional power requirements for storage. Additional benefits in the Linux kernel Hammerspace Tier 0 is standards-based and does not require special software. Hammerspace developed it and contributed it to Linux. Read performance is 3x faster within the GPU server. LOCALIO (NFS protocol bypass) further reduces latencies and maximizes GPU utilization. LOCALIO was released in the Linux Long-Term Support Kernel 6.12 and was included in RHEL10 in May 2025. It reduces CPU utilization in the GPU server. |
Der neue Senior Director Partner Sales bei NetApp, Henning Rahe, erklärt im SSCG-Podcast mit Carolina Heyder, wie das Mittelstandsgeschäft gemeinsam mit Partnern gestärkt werden soll. | NetApp’s new Senior Director Partner Sales, Henning Rahe, explains in the SSCG Podcast with Carolina Heyder how the company plans to strengthen its midmarket business with partners. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de