Die Partnerschaft zwischen DDN und NVIDIA nutzt die Leistungsfähigkeit von Infinia und Blackwell, um KI-Workloads zu beschleunigen, wie auf der IT Press Tour gezeigt wurde. | The partnership between DDN and NVIDIA leverages the power of Infinia and Blackwell to accelerate AI workloads, as shown at IT Press Tour. |
Auf der IT Press Tour stellte Alex Bouzari, Chief Executive Officer und Mitbegründer von DDN, seine Strategie vor, die sich auf die strategische Partnerschaft mit NVIDIA konzentriert. DDN ist ein Pionier im Bereich der hochleistungsfähigen Datenspeicherung und -verwaltung. Gemeinsam treiben DDN und NVIDIA die KI-Datenplattform für schnelles, genaues und skalierbares RAG in Unternehmen voran. „NVIDIA wird von DDN angetrieben. Ohne DDN wären NVIDIA-Supercomputer nicht möglich“, bestätigte Jensen Huang, CEO von NVIDIA.
DDN ist Gründungsmitglied der NVIDIA AI Data Platform, einem Programm zur Vereinheitlichung des Ökosystems datenzentrierter Partner, die skalierbare, leistungsstarke KI-Implementierungen ermöglichen. Mit der Weiterentwicklung von KI-Workloads – vom Training umfangreicher multimodaler Modelle bis hin zur Unterstützung von Echtzeit-Inferenz in RAG-Systemen (Retrieval-Augmented Generation) – ist der Bedarf an einer schnellen, intelligenten und widerstandsfähigen Dateninfrastruktur größer denn je. Die Partnerschaft zwischen DDN und NVIDIA ist nicht neu – es handelt sich um eine intensive, bewährte Zusammenarbeit, die auf technischer Integration, Erfolgen in der Praxis und gemeinsamen Innovationen seit über 8 Jahren basiert. DDN ist die Datenplattform der Wahl hinter vielen der weltweit leistungsstärksten NVIDIA DGX SuperPODs und KI-Kompetenzzentren. Gemeinsam haben beide Unternehmen skalierbare Leistung für nationale Labore, Forschungsuniversitäten, Entwickler autonomer Fahrzeuge und globale Unternehmen bereitgestellt. Ob es darum geht, das Training von Grundlagenmodellen voranzutreiben oder Inferenz mit hohem Durchsatz am Rand zu ermöglichen – DDN und NVIDIA haben stets Seite an Seite gearbeitet, um sicherzustellen, dass Kunden das Potenzial der KI in die Realität umsetzen können. DDN Infinia: RAG-Pipelines mit Turboantrieb Zu den spannendsten Entwicklungen in der modernen KI gehört der Aufstieg von RAG – Retrieval-Augmented Generation. Diese KI-Pipelines verbessern die LLM-Antworten, indem sie Prompts mit relevanten Echtzeitdaten aus Vektordatenbanken, semantischen Speichern und strukturierten Quellen ergänzen. Das Ergebnis sind genauere, erklärbare und domänenspezifische Antworten. Die Bereitstellung von RAG ist jedoch nicht trivial – sie erfordert: Datenzugriff mit extrem geringer Latenz Massive Metadaten und Leistung bei kleinen Dateien Hohe Parallelität in großem Maßstab Infinia in Aktion: Beschleunigung von RAG-Pipelines DDN Infinia ist eine Cloud-native Datenplattform der nächsten Generation, die für eine 100-fach schnellere Leistung bei KI-Workloads entwickelt wurde, darunter Vektorsuche, Feature Stores und Datenpipelines für Inferenzdienste. In Kombination mit der beschleunigten Rechenleistung von NVIDIA, Enterprise-KI-Software und fortschrittlicher Infrastruktur wird Infinia zur Grundlage für extrem reaktionsschnelle, produktionsreife RAG-Systeme – unabhängig davon, ob diese vor Ort, in der Cloud oder in hybriden Umgebungen eingesetzt werden. Um zu demonstrieren, wie DDN und NVIDIA RAG-Pipelines beschleunigen, kombinierte das Team DDN Infinia mit folgenden Komponenten: NVIDIA NIM™-Mikroservices für Einbettung, Neuanordnung und Inferenz großer Sprachmodelle (LLM). NVIDIA Spectrum-X und BlueField DPUs für Hochleistungsnetzwerke und Datenübertragung. Eine Milvus-Vektordatenbank, die für die Ausführung auf Infinia optimiert ist. Anschließend wurden die folgenden Schritte ausgeführt: Ein Chatbot wurde eingesetzt, um Fragen zu DDN Infinia zu beantworten. Anfangs gab der Bot ohne Domänendaten nur vage Antworten. Nach der Aufnahme der Admin- und CLI-Handbücher von Infinia indizierte die Pipeline den Inhalt innerhalb von Sekunden neu. Eine wiederholte Abfrage lieferte dann detaillierte, genaue Befehlszeilenreferenzen und zeigte damit die Leistungsfähigkeit der dynamischen, dokumentbasierten Suche. Leistungshighlights 21,75-mal schnellere Indizierung mit DDN Infinia + NVIDIA NIM im Vergleich zur AWS S3-Baseline 6,6-fache Verbesserung bei der End-to-End-RAG-Antwortgenerierung Schnelle Erfassung und Vektorisierung unstrukturierter Daten mit Echtzeit-Updates Mit nur einem Klick können Unternehmen nun eine vollständige RAG-Pipeline überall bereitstellen und so LLMs näher an ihre eigenen Daten bringen und gleichzeitig strenge Governance-, Sicherheits- und Compliance-Anforderungen erfüllen. Da sich das Tempo der KI-Innovation beschleunigt, muss sich auch die Infrastruktur weiterentwickeln, um Schritt zu halten. Die Einführung der Blackwell-Architektur von NVIDIA markiert einen Generationssprung in der KI-Rechenleistung. Für Unternehmen, die bereits in DGX SuperPODs mit A100- oder H100-GPUs investiert haben, stellt sich nicht die Frage, ob sie eine Aktualisierung vornehmen sollten, sondern wie schnell sie dies umsetzen können. DDN EXAScaler DDN EXAScaler beschleunigt KI-, HPC- und datenintensive Workloads mit einem leistungsstarken parallelen Dateisystem, das GPUs mit Rekordgeschwindigkeit versorgt. DDN EXAScaler ist das System, das NVIDIA ausschließlich für seine internen Cluster verwendet. Es bietet extremen Durchsatz und minimale Latenz für groß angelegte Operationen wie KI-Training und HPC-Simulationen. Als langjähriger KI-Speicherpartner von NVIDIA ist DDN die zertifizierte Datenplattform, der die weltweit größten KI-Fabriken vertrauen – darunter auch die Eos- und Selene-SuperPODs von NVIDIA selbst. Mit der vollständigen Zertifizierung für die neuen DGX B200- und GB200-Systeme ist DDN führend dabei, Unternehmen beim Übergang in die Blackwell-Ära zu unterstützen, ohne Kompromisse eingehen zu müssen. Warum Blackwell alles verändert Die NVIDIA Blackwell-Plattform bietet bahnbrechende Fortschritte in Bezug auf Leistung, Effizienz und Skalierbarkeit: Bis zu 30-mal schnellere Inferenz – Die Architektur von Blackwell ist für generative KI und Inferenz-Workloads großer Sprachmodelle (LLM) optimiert. Echtzeit-Reaktionsfähigkeit ist nicht mehr nur ein Wunsch, sondern eine Selbstverständlichkeit. 2,5-facher Trainingsdurchsatz – Ob beim Training von Fundamentmodellen mit Billionen von Parametern oder beim Tuning von Edge-KI: Die Grace Blackwell-Plattform bietet eine unübertroffene Rechendichte und HBM3e-Speicherbandbreite. 25-fach höhere Energieeffizienz – Blackwell-GPUs bieten eine dramatische Verbesserung der Leistung pro Watt und ermöglichen so ein Wachstum der KI-Rechenleistung ohne lineare Erweiterung der Stromversorgung und Kühlung. Einheitliche CPU- und GPU-Struktur – Grace Blackwell kombiniert die Grace-CPU von NVIDIA über NVLink und NVSwitch mit Blackwell-GPUs, wodurch Engpässe minimiert und der Speicherzugriff maximiert werden. AI-optimierte Skalierbarkeit – Mit Unterstützung für GB200 NVL72-Systeme und SuperPOD-Scale-Bereitstellung ist Blackwell die Grundlage für die nächste Generation souveräner, unternehmensweiter und hyperskaliger AI-Fabriken. Allerdings ist die GPU-Leistung nur so gut wie die Dateninfrastruktur, die sie versorgt. Blackwell mit voller Geschwindigkeit: Der Vorteil von DDN Die KI-Leistung wird nicht durch die Rechenleistung begrenzt, sondern durch die E/A. Blackwell-basierte DGX SuperPODs erfordern Speicherplattformen, die ihrem Durchsatz, ihrer Parallelität und ihrer Reaktionsfähigkeit gerecht werden. Hier ist DDN führend.
DDN gehört zu den ersten Speicheranbietern, die für die Blackwell-Architektur von NVIDIA zertifiziert sind. Unsere A³I-Referenzarchitektur (Accelerated, AI-Optimized Infrastructure) – basierend auf AI400X2 und Appliance – wurde auf vollständige Kompatibilität und Leistung mit DGX B200- und GB200-Plattformen getestet und validiert. Unabhängig davon, ob Sie ein einzelnes Rack bereitstellen oder auf eine Exascale-Infrastruktur skalieren, gewährleistet DDN vorhersagbare Leistung und nahtlose Integration mit dem NVIDIA-Stack, einschließlich: DGX B200- und GB200-Systeme Quantum-2 InfiniBand und Spectrum-X Ethernet BlueField-3-DPUs NVIDIA AI Enterprise und Container-Workflows
Die Data Intelligence Platform von DDN wurde entwickelt, um einen Lesedurchsatz von >1 TB/s pro Gerät zu liefern – mit linearer Skalierung über alle Racks hinweg. Das ist die Art von Leistung, die erforderlich ist, um Tausende von GPUs ohne I/O-Stalls oder Checkpoint-Verzögerungen bei voller Auslastung zu betreiben. Mit einer 15-mal schnelleren Checkpointing-Funktion reduziert DDN Leerlaufzeiten, verbessert Wiederherstellungszyklen und stellt sicher, dass Investitionen in Rechenleistung niemals unzureichend genutzt werden.
Die Data Intelligence Platform von DDN ist kein für KI nachgerüsteter Allzweckspeicher. Sie wurde von Grund auf speziell für KI-Workflows entwickelt. Zu den Funktionen gehören: GPU-Direct RDMA – Reduziert den Overhead beim Datenverkehr und maximiert die Bandbreite. Hot Nodes & Smart Caching – Optimiert latenzempfindliche I/O, ohne das Netzwerk zu überlasten. Paralleles Dateisystem mit einheitlichem Namespace – Eliminiert isolierte Speicher und optimiert Datenpipelines vom Training bis zur Inferenz. S3-integrierte Objektunterstützung – Ermöglicht hybride Workflows über Datei- und Cloud-native Tools hinweg. Vom multimodalen Modelltraining bis zur Echtzeit-Inferenz hat DDN eine Lösung für jede Phase der KI. Blackwell + DDN: Für Skalierbarkeit und Langlebigkeit entwickelt Das Upgrade auf Blackwell ist mehr als nur eine Leistungssteigerung – es ist eine Investition in eine zukunftssichere Architektur. Aber Rechenleistung allein kann keine KI-Ergebnisse liefern. Ohne eine passende Dateninfrastruktur bleiben selbst die besten GPUs hinter ihren Möglichkeiten zurück. Die von NVIDIA zertifizierte KI-Datenintelligenzplattform von DDN bietet Kunden einen bewährten Weg zu folgenden Vorteilen: Maximierung der Kapitalrendite – Halten Sie GPUs mit Hochgeschwindigkeitsdaten ausgelastet und reduzieren Sie Modelliterationszyklen. Vereinfachung der Bereitstellung – Vorab validiert und schlüsselfertig mit NVIDIA DGX SuperPOD-Referenzarchitekturen. Senkung der Gesamtbetriebskosten – Weniger Hardware, höhere Effizienz und keine Leistungseinbußen durch Feature-Lizenzen. Skalierung ohne Umstellung der Plattform – Klein anfangen, schnell wachsen – ohne disruptive Datenmigrationen. Aus diesem Grund vertrauen mehr als 700.000 High-End-GPUs in KI-Rechenzentren weltweit auf DDN. Im Zeitalter cloud-nativer Datenplattformen setzen Unternehmen zunehmend auf Data-Lake-Architekturen, um ihre Datenmanagement- und Analyse-Workloads zu vereinheitlichen. Tools wie Databricks und Snowflake sind zu den bevorzugten Lösungen für die Verarbeitung großer Datenmengen, Analysen und Business Intelligence (BI) geworden. Die Verwaltung von Daten über diese Plattformen hinweg unter Beibehaltung von Leistung, Skalierbarkeit und Governance kann jedoch eine Herausforderung darstellen. Hier kommt DDN Infinia ins Spiel, eine leistungsstarke, skalierbare Speicherlösung, die als einheitliche Datenschicht für externe Tabellendaten-Lakes fungiert und sich nahtlos in Databricks, Snowflake und ähnliche Cloud-native Tools integrieren lässt. Warum eine einheitliche Datenschicht? Moderne Datenarchitekturen kombinieren häufig Data Lakes und Data Warehouses, um die Skalierbarkeit von Objektspeichern und die strukturierten Abfragefunktionen cloudnativer Plattformen zu nutzen. Dies kann jedoch zu Datensilos, redundanten Speichern und Herausforderungen bei der Governance führen. Eine einheitliche Datenschicht behebt diese Probleme durch: Zentralisierung der Datenspeicherung: Bereitstellung einer einzigen Quelle für Daten, auf die mehrere Plattformen zugreifen. Verbesserung der Interoperabilität: Tools wie Databricks und Snowflake können mithilfe offener Tabellenformate (z. B. Delta Lake, Apache Iceberg) auf denselben Data Lake zugreifen und darin schreiben. Optimierung der Leistung: Bereitstellung eines Datenzugriffs mit hohem Durchsatz und geringer Latenz für Analyse- und Machine-Learning-Workloads (ML). Vereinfachung der Governance: Unterstützung einer einheitlichen Metadatenverwaltung und Zugriffskontrolle über Plattformen hinweg. DDN Infinia ist mit seinem leistungsstarken Speicher, der Cloud-nativen Integration und der Unterstützung offener Tabellenformate einzigartig positioniert, um diese Anforderungen zu erfüllen, und somit die ideale Wahl für eine einheitliche Datenschicht in einer Data-Lakehouse-Architektur. DDN Infinia: Eine leistungsstarke Datenplattform DDN Infinia ist eine Speicherlösung der nächsten Generation, die für datenintensive Workloads entwickelt wurde und folgende Vorteile bietet: Enorme Skalierbarkeit: Infinia kann auf Petabytes an Daten mit konsistenter Leistung skaliert werden und ist damit ideal für große Data Lakes. Hoher Durchsatz: Optimiert für parallelen Datenzugriff, unterstützt es anspruchsvolle Analyse- und ML-Workloads. Cloud-native Integration: Infinia lässt sich nahtlos in Cloud-Objektspeicher (z. B. AWS S3, Azure Data Lake Storage) integrieren und unterstützt hybride Bereitstellungen. Unterstützung offener Tabellenformate: Die Kompatibilität mit Delta Lake und Apache Iceberg gewährleistet die Interoperabilität mit Databricks und Snowflake. Erweiterte Datenverwaltung: Funktionen wie Datenversionierung, Tiering und Verschlüsselung verbessern die Governance und Sicherheit. Durch die Nutzung dieser Funktionen dient DDN Infinia als einheitliche Datenschicht, die die Lücke zwischen den Lakehouse-Funktionen von Databricks und den Stärken von Snowflake im Bereich Data Warehousing schließt. DDN stellt AI400X3 und Infinia 2.1 vor – zwei wichtige Innovationen, die zusammen die Grundlage der DDN Data Intelligence Platform bilden. Diese einheitliche Lösung wurde entwickelt, um die Ergebnisse sowohl bei HPC- als auch bei KI-Workloads zu beschleunigen und bietet die Leistung, Skalierbarkeit und einfache Bedienbarkeit, die moderne Unternehmen und Forschungseinrichtungen benötigen. AI400X3: Hochleistungsfähige KI-Infrastruktur für Modellierungstraining und HPC Die AI400X3-Appliance, die mit der DDN EXAScaler®-Software betrieben wird, stellt einen bedeutenden Fortschritt in der Dateninfrastruktur für HPC und KI-Modelltraining dar. Diese All-Flash-Appliance der dritten Generation bietet: Bis zu 70 % höhere Leistung der Appliance Neue NDR- und 400-GbE-Netzwerkoptionen Vollständige Integration mit NVIDIA Spectrum-X-Netzwerken mit BlueField-3-SuperNICs Optimierte Appliance-Konfiguration vereinfacht die sofortige Bereitstellung Vollständige Validierung mit NVIDIA DGX B200- und GB200-Systemen, mit aktualisierten DGX SuperPOD- und NCP-Referenzarchitekturen verfügbar. Diese tiefe Integration mit dem Netzwerk- und Rechenstack von NVIDIA stellt sicher, dass AI400X3 nicht nur leistungsoptimiert, sondern auch zukunftsfähig für die KI-Infrastruktur der nächsten Generation ist. Multi-Tenancy der Enterprise-Klasse für sichere KI-Datenplattformen Eine wichtige Innovation des AI400X3 ist seine Multi-Tenancy der Enterprise-Klasse. Diese Funktion ist für Cloud-Service-Anbieter – insbesondere für NVIDIA-Cloud-Partner (NCPs) – von entscheidender Bedeutung, da sie Kundenumgebungen sicher isolieren und gleichzeitig eine konsistente Leistung liefern und strenge SLAs einhalten müssen. Der AI400X3 ermöglicht: ID-Bereiche und VLANs pro Mandant Quoten und Zugriffskontrollen auf Mandantenebene Dynamische Orchestrierung und Automatisierung über EMF-APIs Diese Funktionen ermöglichen es Anbietern, ihre Dienste effizient zu skalieren und gleichzeitig hohe Sicherheits- und Leistungsgarantien aufrechtzuerhalten. Operative Exzellenz durch Echtzeit-Beobachtbarkeit und Automatisierung Der AI400X3 reduziert Risiken und verbessert die Servicebereitstellung durch sein Systemmanagement und seine Verfügbarkeit der nächsten Generation, die für die Unterstützung einer stets verfügbaren KI-Infrastruktur ausgelegt sind: Echtzeit-Zustandsüberwachung mit integrierten Warnmeldungen über Plattformen wie Slack und Teams Point-in-Time-Diagnosen für proaktive Problemlösung Online-Upgrades ohne Ausfallzeiten, die eine kontinuierliche Verfügbarkeit gewährleisten Infinia 2.1: Intelligenz und Beobachtbarkeit für KI-Datenpipelines Ergänzend zum AI400X3 bietet die Infinia 2.1-Software neue Funktionen, die End-to-End-KI-Datenpipelines vereinfachen und beschleunigen, um einen tiefen Einblick in die KI-Infrastruktur zu gewinnen, die Zeit für die Problemlösung zu verkürzen und die Effizienz der Datenpipeline aufrechtzuerhalten. Zu den neuen Funktionen gehören: Der Hadoop Connector (in der Vorschau) ermöglicht einen leistungsstarken Zugriff mit geringer Latenz für Hadoop- und Spark-Workloads über S3-kompatible Dienste – wodurch Zwischenstufen entfallen und die Effizienz verbessert wird. Erweiterte Beobachtbarkeit durch native Integration in Unternehmensüberwachungstools wie Datadog, Chronosphere und OpenTelemetry, wodurch Unternehmen leichter Einblicke in das Systemverhalten und die Systemleistung gewinnen können. Einheitliche Datenintelligenzplattform für Skalierbarkeit und Einfachheit in KI und HPC Zusammen bilden AI400X3 und Infinia 2.1 die DDN Data Intelligence Platform – eine einheitliche Grundlage, die Unternehmen in die Lage versetzt: Innovationen bei HPC- und KI-Workloads zu beschleunigen Die Infrastruktur zu vereinfachen und den Betriebsaufwand zu reduzieren Sichere, leistungsstarke Multi-Tenant-Services in großem Maßstab bereitzustellen Echtzeit-Transparenz und -Kontrolle über komplexe Datenumgebungen zu erlangen |
At IT Press Tour, Alex Bouzari, DDN’s Chief Executive Officer and Co-founder, presented his strategy focusing on the strategic partnership with NVIDIA. DDN is a pioneer in high-performance data storage and management. Together, DDN and NVIDIA power the AI Data Platform for fast, accurate, and scalable enterprise RAG. „NVIDIA is powered by DDN. Without DDN, NVIDIA supercomputers wouldn’t be possible,“ confirmed Jensen Huang, NVIDIA CEO.
DDN is a founding member of the NVIDIA AI Data Platform, a program designed to unify the ecosystem of data-centric partners that enable scalable, high-performance AI deployments. As AI workloads evolve—from training massive multimodal models to powering real-time inference in retrieval-augmented generation (RAG) systems—the need for fast, intelligent, and resilient data infrastructure is greater than ever. The partnership between DDN and NVIDIA is not new—it’s a deep, proven collaboration built on technical integration, field success, and joint innovation for over 8 years. DDN is the data platform of choice behind many of the world’s most powerful NVIDIA DGX SuperPODs and AI centers of excellence. Together both companies delivered performance at scale for national labs, research universities, autonomous vehicle developers, and global enterprises. Whether it’s fueling the training of foundation models or enabling high-throughput inference at the edge, DDN and NVIDIA have consistently worked side-by-side to ensure customers can turn AI potential into AI reality. DDN Infinia: Supercharging RAG Pipelines Among the most exciting developments in modern AI is the rise of RAG—Retrieval-Augmented Generation. These AI pipelines improve LLM responses by augmenting prompts with relevant, real-time data retrieved from vector databases, semantic stores, and structured sources. The result is more accurate, explainable, and domain-specific answers. But powering RAG isn’t trivial—it requires: Ultra-low latency data access Massive metadata and small file performance High concurrency at scale This is exactly what DDN Infinia is built for. Infinia in Action: Accelerating RAG Pipelines DDN Infinia is a next-generation, cloud-native data platform architected to deliver 100x faster performance for AI workloads, including vector search, feature stores, and inference-serving data pipelines. When paired with NVIDIA’s accelerated compute, Enterprise AI software, and advanced infrastructure, Infinia becomes the foundation for ultra-responsive, production-grade RAG systems—whether deployed on-prem, in the cloud, or across hybrid environments. In order to demonstrate how DDN & NVIDIA accelerate RAG pipelines, the team paired DDN Infinia with the following: NVIDIA NIM™ microservices for embedding, reranking, and large language model (LLM) inference. NVIDIA Spectrum-X and BlueField DPUs for high-performance networking and data movement. A Milvus vector database optimized to run on top of Infinia. The following steps were then executed: A chatbot was deployed to answer questions about DDN Infinia. Initially, without any domain data, the bot gave vague responses. After ingesting Infinia’s Admin and CLI Guides, the pipeline reindexed the content in seconds. A repeated query then returned detailed, accurate command-line references, showing the power of dynamic, document-based retrieval. Performance Highlights 21.75x faster indexing with DDN Infinia + NVIDIA NIM vs. AWS S3 baseline 6.6x improvement in end-to-end RAG response generation Rapid ingestion and vectorization of unstructured data, with real-time updates With just one click, enterprises can now deploy a full RAG pipeline anywhere—bringing LLMs closer to their own data while meeting strict governance, security, and compliance needs. As the pace of AI innovation accelerates, infrastructure must evolve to keep up. The arrival of NVIDIA’s Blackwell architecture marks a generational leap in AI compute performance. For organizations already invested in DGX SuperPODs powered by A100 or H100 GPUs, the question isn’t if you should refresh—it’s how fast you can make it happen. DDN EXAScaler DDN EXAScaler accelerates AI, HPC, and data-intensive workloads with a high-performance, parallel file system that feeds GPUs at record speed. DDN EXAScaler is the system NVIDIA uses exclusively for their internal clusters. It delivers extreme throughput and minimal latency for large-scale operations like AI training and HPC simulations. As NVIDIA’s longest-standing AI storage partner, DDN is the certified data platform trusted by the world’s largest AI factories—including NVIDIA’s own Eos and Selene SuperPODs. With full certification for the new DGX B200 and GB200 systems, DDN is leading the charge in helping organizations transition to the Blackwell era, without compromise. Why Blackwell Changes Everything The NVIDIA Blackwell platform delivers transformative advances in performance, efficiency, and scalability: Up to 30x Faster Inference – Blackwell’s architecture is optimized for generative AI and large language model (LLM) inference workloads. Real-time responsiveness is no longer aspirational—it’s expected. 2.5x Training Throughput – Whether training trillion-parameter foundation models or tuning edge AI, the Grace Blackwell platform delivers unmatched compute density and HBM3e memory bandwidth. 25x Greater Energy Efficiency – Blackwell GPUs offer a dramatic improvement in performance per watt, enabling AI compute growth without linear power and cooling expansion. Unified CPU + GPU Fabric – Grace Blackwell pairs NVIDIA’s Grace CPU with Blackwell GPUs via NVLink and NVSwitch, minimizing bottlenecks and maximizing memory access. AI-Rated Scalability – With support for GB200 NVL72 systems and SuperPOD-scale deployment, Blackwell is the foundation for the next wave of sovereign, enterprise, and hyperscale AI factories. But all that GPU performance is only as good as the data infrastructure feeding it. Feeding Blackwell at Full Speed: The DDN Advantage AI performance isn’t gated by compute—it’s gated by I/O. Blackwell-based DGX SuperPODs demand storage platforms that can match their throughput, concurrency, and responsiveness. That’s where DDN leads.
DDN is among the first storage vendors certified for NVIDIA’s Blackwell architecture. Our A³I (Accelerated, AI-Optimized Infrastructure) reference architecture—powered by the AI400X2 and appliance—has been tested and validated for full compatibility and performance with DGX B200 and GB200 platforms. Whether you’re deploying a single rack or scaling to exascale infrastructure, DDN ensures predictable performance and seamless integration with the NVIDIA stack, including: DGX B200 & GB200 systems Quantum-2 InfiniBand and Spectrum-X Ethernet BlueField-3 DPUs NVIDIA AI Enterprise and container workflows
DDN’s Data Intelligence Platform is engineered to deliver >1 TB/s of read throughput per appliance—with linear scale across racks. That’s the kind of firepower it takes to keep thousands of GPUs running at full utilization, without I/O stalls or checkpoint delays. With 15x faster checkpointing, DDN reduces idle time, improves recovery cycles, and ensures that compute investments are never underutilized.
DDN’s Data Intelligence Platform isn’t general-purpose storage retrofitted for AI. It’s purpose-built from the ground up for AI workflows. Features include: GPU-Direct RDMA – Reduces data movement overhead and maximizes bandwidth. Hot Nodes & Smart Caching – Optimize latency-sensitive I/O without flooding the network. Parallel File System with Unified Namespace – Eliminates siloed storage and streamlines data pipelines from training to inference. S3-Integrated Object Support – Enable hybrid workflows across file and cloud-native tools. From multimodal model training to real-time inferencing, DDN has an answer for every phase of AI. Blackwell + DDN: Built to Scale, Built to Last Upgrading to Blackwell is more than a performance play—it’s an investment in future-proof architecture. But compute alone can’t deliver AI outcomes. Without a data backbone to match, even the best GPUs underperform. DDN’s AI Data Intelligence Platform, certified by NVIDIA, gives customers a proven path to: Maximize ROI – Keep GPUs saturated with high-speed data and reduce model iteration cycles. Simplify Deployment – Pre-validated and turnkey with NVIDIA DGX SuperPOD reference architectures. Lower TCO – Less hardware, better efficiency, and no performance tax from feature licensing. Scale Without Replatforming – Start small, grow fast—without disruptive data migrations. That’s why 700,000+ high-end GPUs in AI datacenters around the world rely on DDN. In the era of cloud-native data platforms, organizations are increasingly adopting data lake architectures to unify their data management and analytics workloads. Tools like Databricks and Snowflake have become go-to solutions for handling large-scale data processing, analytics, and business intelligence (BI). However, managing data across these platforms while maintaining performance, scalability, and governance can be challenging. This is where DDN Infinia, a high-performance, scalable storage solution, steps in as a unified data layer for external table data lakes, seamlessly integrating with Databricks, Snowflake, and similar cloud-native tools. Why a Unified Data Layer? Modern data architectures often combine data lakes and data warehouses to leverage the scalability of object storage and the structured querying capabilities of cloud-native platforms. However, this can lead to data silos, redundant storage, and governance challenges. A unified data layer addresses these issues by: Centralizing Data Storage: Providing a single source of truth for data accessed by multiple platforms. Enhancing Interoperability: Enabling tools like Databricks and Snowflake to read and write to the same data lake using open table formats (e.g., Delta Lake, Apache Iceberg). Optimizing Performance: Delivering high-throughput, low-latency access to data for analytics and machine learning (ML) workloads. Simplifying Governance: Supporting unified metadata management and access control across platforms. DDN Infinia is uniquely positioned to meet these needs with its high-performance storage, cloud-native integration, and support for open table formats, making it an ideal choice for a unified data layer in a data lakehouse architecture. DDN Infinia: A High-Performance Data Platform DDN Infinia is a next-generation storage solution designed for data-intensive workloads, offering: Massive Scalability: Infinia can scale to petabytes of data with consistent performance, ideal for large-scale data lakes. High Throughput: Optimized for parallel data access, it supports demanding analytics and ML workloads. Cloud-Native Integration: Infinia integrates seamlessly with cloud object storage (e.g., AWS S3, Azure Data Lake Storage) and supports hybrid deployments. Open Table Format Support: Compatibility with Delta Lake and Apache Iceberg ensures interoperability with Databricks and Snowflake. Advanced Data Management: Features like data versioning, tiering, and encryption enhance governance and security. By leveraging these capabilities, DDN Infinia serves as a unified data layer that bridges the gap between Databricks’ lakehouse capabilities and Snowflake’s data warehousing strengths. DDN introduces the AI400X3 and Infinia 2.1—two major innovations that together form the foundation of the DDN Data Intelligence Platform. This unified solution is designed to accelerate outcomes across both HPC and AI workloads, delivering the performance, scalability, and operational simplicity that modern enterprises and research institutions demand. AI400X3: High-Performance AI Infrastructure for Modeling Training and HPC The AI400X3 appliance, powered by DDN EXAScaler® software, represents a significant leap forward in data infrastructure for HPC and AI model training. This third-generation all-flash appliance delivers: Up to 70% higher performance appliance New NDR and 400GbE networking options Full integration with NVIDIA Spectrum-X networking with BlueField-3 SuperNICs Streamlined appliance configuration simplifies out-of-the-box deployments Full validation with NVIDIA DGX B200 and GB200 systems, with updated DGX SuperPOD and NCP reference architectures available. This deep integration with NVIDIA’s networking and compute stack ensures that AI400X3 is not only performance-optimized but also future-ready for next-generation AI infrastructure. Enterprise-Grade Multi-Tenancy for Secure AI Data Platforms A key innovation in the AI400X3 is its enterprise-grade multi-tenancy. This capability is essential for cloud service providers—particularly NVIDIA cloud partners (NCPs)—who must securely isolate customer environments while delivering consistent performance and meeting strict SLAs. The AI400X3 enables: Per-tenant ID spaces and VLANs Tenant-level quotas and access controls Dynamic orchestration and automation via EMF APIs These features allow providers to scale services efficiently while maintaining strong security and performance guarantees. Operational Excellence with Real-Time Observability and Automation The AI400X3 reduces risk and improves service delivery with its next-gen system management and availability, designed to support always-on AI infrastructure: Real-time health monitoring with integrated alerting through platforms like Slack and Teams Point-in-time diagnostics for proactive issue resolution Online upgrades with zero downtime, ensuring continuous availability Infinia 2.1: Intelligence and Observability for AI Data Pipelines Complementing the AI400X3, Infinia 2.1 software brings new capabilities that simplify and accelerate end-to-end AI data pipelines to gain deep visibility into AI infrastructure, reduce issue resolution timelines, and maintain data pipeline efficiency. New features include: The Hadoop Connector (in preview) enables high-performance, low-latency access for Hadoop and Spark workloads via S3-compatible services—eliminating intermediaries and improving efficiency Expanded observability with native integration into enterprise monitoring tools such as Datadog, Chronosphere, and OpenTelemetry, making it easier for organizations to gain insight into system behavior and performance Unified Data Intelligence Platform for Scale and Simplicity in AI and HPC Together, the AI400X3 and Infinia 2.1 form the DDN Data Intelligence Platform—a unified foundation that empowers organizations to: Accelerate innovation across HPC and AI workloads Simplify infrastructure and reduce operational overhead Deliver secure, high-performance, multi-tenant services at scale Gain real-time visibility and control across complex data environments |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de