VAST Amplify soll Unternehmen helfen, durch Konsolidierung ungenutzter Ressourcen und optimierte Architektur die effektive Kapazität vorhandener Flash-Speicher zu vervielfachen. VAST Amplify is designed to help companies multiply the effective capacity of existing flash storage by consolidating unused resources and optimizing architecture.
Die angespannte Lage auf dem Solid State Disk (SSD) Markt zwingt Unternehmen weltweit zu schwierigen Entscheidungen. Projekte werden verschoben, Kapazitäten rationiert, Kompromisse eingegangen. VAST Amplify soll die effektive Speicherkapazität vorhandener Flash-Speicher deutlich steigern – laut Anbieter um das Sechsfache oder mehr.

Die Ausgangslage ist in vielen Rechenzentren ähnlich. SSDs sind ungleich verteilt, in Silos gebunden oder werden ineffizient genutzt. Dazu kommen Architekturprobleme: replikationsbasierte Sicherungssysteme, fragmentierte Datenstacks und Leistungsoptimierungen durch Überprovisionierung von Flash-Speichern. Diese Faktoren führen dazu, dass ein erheblicher Teil der installierten Speicherkapazität ungenutzt bleibt.

Das neue Programm beginnt mit einer Bestandsaufnahme. VAST analysiert die vorhandene Infrastruktur, identifiziert brachliegende SSD-Kapazitäten und prüft, welche Server- und Speicherkonfigurationen sich für eine Konsolidierung eignen. Die qualifizierten Flash-Speicher werden anschließend in einem einheitlichen Pool zusammengeführt und global verfügbar gemacht.

Phil Manez, Vice President GTM Execution bei VAST Data, beschreibt die Situation vieler Unternehmen: Sie müssten derzeit Projekte aufschieben, vorhandene Kapazitäten rationieren oder jede verfügbare Zuteilung akzeptieren. Mit dem neuen Programm könnten Kunden die Flashspeicher nutzen, die bereits vorhanden seien, und diese in einer modernen Architektur konsolidieren.

Die Effizienzsteigerung basiert auf mehreren technischen Ansätzen. Statt Daten mehrfach zu replizieren, setzt die VAST-Plattform auf Erasure-Coding. Dadurch wird weniger Speicherplatz für die Datensicherung benötigt. Eine globale Datenreduktion eliminiert redundante Muster über die gesamte Infrastruktur hinweg, nicht nur innerhalb einzelner Laufwerke. Storage Class Memory dient als Puffer für Schreibvorgänge, was die Belastung der SSDs reduziert und deren Lebensdauer verlängert.

Die Disaggregated Shared Everything-Architektur des Systems ermöglicht es, Speicherkapazität flexibel zuzuweisen, unabhängig von Servergrenzen. Ressourcen lassen sich dynamisch dorthin verschieben, wo sie gerade benötigt werden.

Besonders relevant wird das Programm im Kontext der aktuellen KI-Entwicklung. Immer mehr Unternehmen bewegen ihre KI-Projekte vom Training zur Inferenz, was mit höheren Datenvolumen und zusätzlichem Speicherbedarf einhergeht. Ansätze wie das Caching von Key Values bei der Inferenz verstärken die Nachfrage nach schnellen Speichermedien zusätzlich.

Mehrere Anwender berichten von messbaren Ergebnissen. Ein Hersteller von Elektrofahrzeugen erreicht nach eigenen Angaben eine etwa achtfache Steigerung der nutzbaren Kapazität für Data-Lake- und KI-Workloads durch eine Kombination aus Datenreduktion und effizienter Replikation. Ein Anbieter von KI-Trainingsumgebungen verzeichnet eine konstante Datenreduktion im Verhältnis von 2 zu 1. Ein Entwickler autonomer Fahrzeuge gibt für KI-Trainingsdaten eine Reduktion von 5,5 zu 1 an.

Die tatsächlich erreichbare Effizienzsteigerung hängt von verschiedenen Faktoren ab, darunter die Art der Workloads, der Kompressionsgrad der Daten und die vorhandene Infrastruktur. In Umgebungen mit stark komprimierten Daten, wie einem Telekommunikationsunternehmen mit ORC-Dateien, lässt sich die Kapazität immerhin durch die Eliminierung redundanter Replikation um das Vierfache steigern.

Das Programm richtet sich sowohl an Unternehmen als auch an Service-Provider. Es soll eine Alternative bieten zu den üblichen Optionen bei Speicherknappheit: Warten auf neue Lieferungen, Investitionen in teure Zuteilungen oder das Löschen vorhandener Daten. Stattdessen können Organisationen mit ihren vorhandenen Ressourcen weiterarbeiten, während die Liefersituation sich entspannt.

Die Initiative zeigt, wie Softwareoptimierung und Architekturänderungen auf kurzfristige Hardwareengpässe reagieren können. Ob sich der Ansatz langfristig durchsetzt, wird davon abhängen, wie sich die Liefersituation entwickelt und welche Erfahrungen frühe Anwender mit der Lösung machen.

The tense situation on the solid state disk (SSD) market is forcing companies worldwide to make difficult decisions. Projects are being postponed, capacities rationed, and compromises made. VAST Amplify is designed to significantly increase the effective storage capacity of existing flash memory—by a factor of six or more, according to the provider.

The starting point is similar in many data centers. SSDs are unevenly distributed, tied up in silos, or used inefficiently. Added to this are architectural problems: replication-based backup systems, fragmented data stacks, and performance optimizations through overprovisioning of flash storage. These factors mean that a significant portion of the installed storage capacity remains unused.

The new program begins with an inventory. VAST analyzes the existing infrastructure, identifies unused SSD capacity, and checks which server and storage configurations are suitable for consolidation. The qualified flash storage is then consolidated into a uniform pool and made globally available.

Phil Manez, Vice President of GTM Execution at VAST Data, describes the situation faced by many companies: they currently have to postpone projects, ration existing capacity, or accept whatever allocation is available. With the new program, customers can use the flash storage they already have and consolidate it into a modern architecture.

The increase in efficiency is based on several technical approaches. Instead of replicating data multiple times, the VAST platform relies on erasure coding. This reduces the amount of storage space required for data backup. Global data reduction eliminates redundant patterns across the entire infrastructure, not just within individual drives. Storage class memory serves as a buffer for write operations, which reduces the load on SSDs and extends their service life.

The system’s disaggregated shared everything architecture allows storage capacity to be allocated flexibly, regardless of server boundaries. Resources can be dynamically moved to where they are needed.

The program is particularly relevant in the context of current AI development. More and more companies are moving their AI projects from training to inference, which is associated with higher data volumes and additional storage requirements. Approaches such as caching key values during inference further increase the demand for fast storage media.

Several users report measurable results. According to its own statements, an electric vehicle manufacturer has achieved an approximately eightfold increase in usable capacity for data lake and AI workloads through a combination of data reduction and efficient replication. A provider of AI training environments reports a consistent data reduction ratio of 2:1. A developer of autonomous vehicles reports a reduction of 5.5:1 for AI training data.

The actual efficiency gains achievable depend on various factors, including the type of workloads, the degree of data compression, and the existing infrastructure. In environments with highly compressed data, such as a telecommunications company with ORC files, capacity can still be increased fourfold by eliminating redundant replication.

The program is aimed at both enterprises and service providers. It is intended to offer an alternative to the usual options when storage is in short supply: waiting for new deliveries, investing in expensive allocations, or deleting existing data. Instead, organizations can continue to work with their existing resources while the delivery situation eases.

The initiative shows how software optimization and architectural changes can respond to short-term hardware bottlenecks. Whether the approach will prevail in the long term will depend on how the supply situation develops and what early users‘ experiences with the solution are.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner