Brian Cox, Director of AI Solution and Partner Marketing bei PHISON Electronics, stellte die aiDAPTIV+ Local GenAI Training-Lösung auf der IT Press Tour vor. Brian Cox, Director of AI Solution and Partner Marketing, PHISON Electronics, presented the aiDAPTIV+ Local GenAI Training solution at IT Press Tour.
Phison’s aiDAPTIV+ und E28 SSD Controller revolutionieren das KI-Training und machen es für Entwickler und Unternehmen zugänglicher und effizienter, wie Brian Cox, Director of AI Solution and Partner Marketing bei PHISON Electronics, auf der IT Press Tour zeigte.

Die COMPUTEX 2025 war voller Innovationen, und Phison Electronics räumte als Gewinner des Best Choice Awards ab. Die Jury würdigte die innovativen Wege, auf denen sie das GenAI-Training und den Einsatz verändert, insbesondere für Entwickler und Unternehmen, die KI lokal und nicht nur in der Cloud betreiben möchten. Der Preis ging an aiDAPTIV+, die Plug-and-Play-GPU-Speichererweiterungslösung von Phison.  Diese Lösung ist für alle gedacht, die versucht haben, ein LLM lokal zu trainieren oder auszuführen, und dabei auf die gefürchtete „Out of Memory”-Meldung gestoßen sind.

aiDAPTIV+ löst dieses Problem durch:

  • Erweiterung der GPU-Speicherkapazität, sodass Sie größere Modelle ausführen können.
  • Unterstützung von GenAI-Workflows wie RAG, Feinabstimmung und lokaler Inferenz.
  • Entwickler können Modelle mit ihren eigenen Daten direkt von ihrem Desktop oder ihrer Workstation aus trainieren.
  • aiDAPTIV+ macht die lokale KI-Entwicklung praktisch und skalierbar.

Diese Auszeichnung ergänzt einen weiteren Best Choice-Sieg auf der Computex 2025, bei der Phison für den E28 PCIeGen5 SSD-Controller mit dem Golden Award ausgezeichnet wurde. Dieser Controller wurde von Grund auf für KI-Trainings-Workloads entwickelt. Während die meisten SSDs auf allgemeine Speicheraufgaben ausgerichtet sind, ist der E28 ein ganz anderes Kaliber. Er ist darauf abgestimmt, die Feinabstimmung großer

Sprachmodelle (LLMs) zu unterstützen – also genau die Art von Modellen, die alles von intelligenten Assistenten bis hin zur industriellen Automatisierung antreiben. Er basiert auf 6-nm-Prozesstechnologie und ist daher schnell und effizient.  Er verarbeitet riesige Datenströme mit geringer Latenz, was für Echtzeit-KI entscheidend ist und ist für schreibintensive, hochfrequente Trainingsaufgaben optimiert – etwas, womit Standard-SSDs zu kämpfen haben.

Wenn Sie an der Feinabstimmung Ihrer eigenen Modelle arbeiten oder benutzerdefinierte KI-Workflows ausführen, hilft dieser Controller dabei, die Trainingszeit zu verkürzen und Speicherengpässe zu reduzieren.

KI entwickelt sich schnell, und nicht jeder möchte (oder kann es sich leisten),  sich für alles auf Cloud-GPUs zu verlassen. Mit Tools wie dem aiDAPTIV+ und dem E28 SSD-Controller macht es Phison mehr Menschen leichter, KI nach ihren eigenen Vorstellungen zu entwickeln, zu optimieren und einzusetzen.

„Diese Auszeichnungen bestätigen unsere Vision, GenAI zu demokratisieren, indem wir die bisherigen Speicher- und Speicherbeschränkungen überwinden“, sagte Dr. Wei Lin, CTO von Phison. „Wir konzentrieren uns darauf, Entwicklern zu helfen, mehr aus der Hardware herauszuholen, die sie bereits haben.“

Beide Technologien sollen im Laufe dieses Jahres in Edge-Geräte, KI-Workstations und Unternehmensanwendungen integriert werden. aiDAPTIV+ ist bereits für Käufer in den USA online verfügbar. Derzeit im Angebot sind der ABS Newegg AI Training PC und die ABS Newegg aiONE All-in-One Workstation, die beide mit der Phison aiDAPTIV+ Software ausgestattet sind. Diese Produkte sind nur die ersten von vielen, die in den kommenden Monaten von einer Reihe von Anbietern auf den Markt kommen werden.

Was unterscheidet aiDAPTIV+ von anderer KI-Software?

Da KI weltweit in allen Branchen weiter auf dem Vormarsch ist,  erkennen Unternehmen zunehmend den Wert des Trainings von KI-Modellen mit ihren eigenen Daten. In Kombination mit dem Training auf leicht verfügbaren Open-Source-Sprachmodellen (LLMs) führt dies zu genaueren Ergebnissen und relevanteren Erkenntnissen, die zu mehr Innovation und Transformation für das Unternehmen führen können.

In der Vergangenheit bedeutete das Training von KI-Modellen mit eigenen Daten jedoch, dass man entweder Hunderttausende Dollar für den Aufbau einer lokalen Infrastruktur für das Training ausgeben musste – oder seine Daten in die Cloud hochladen und Trainingssoftware von Drittanbietern verwenden musste.

Beide Optionen waren mit Problemen verbunden: Der Aufbau einer lokalen Infrastruktur war für Unternehmen ohne großes Budget finanziell völlig unmöglich, und die Speicherung proprietärer Daten in der Cloud barg Sicherheits- und Compliance-Risiken.

Die aiDAPTIV+-Technologie von Phison bietet budgetbewussten Unternehmen eine kostengünstige Möglichkeit, ihre Daten vor Ort zu behalten und KI-Modelle mühelos zu trainieren und zu optimieren. Mit einer einzigen Workstation vor Ort können Unternehmen die

Vorteile der KI in allen Bereichen ihres Betriebs nutzen und gleichzeitig die vollständige Kontrolle über ihre Daten behalten und die Sicherheits- und Compliance-Risiken umgehen, die mit dem Training ihrer Modelle in der Cloud verbunden sind.

So funktioniert aiDAPTIV+

Im Wesentlichen ermöglicht die aiDAPTIV+ Technologie das Training von KI-Modellen mit weniger kostspieligen GPU-Karten. Dies geschieht durch die Auslagerung von teurem High Bandwidth Memory (HBM) und GDDR-Speicher auf Flash-Speicher der speziellen aiDAPTIVCache-Familie extrem langlebiger SSDs des Systems, die reichlich vorhanden und kostengünstig sind. Das System umfasst außerdem die aiDAPTIV-Management-Middleware,  die den Datenfluss zwischen Rechen- und Speicherressourcen optimiert und so ein groß angelegtes Modelltraining mit verbesserter Leistung und reduzierten Trainingszeiten ermöglicht.

KI-Workstations und PCs mit aiDAPTIV+-Technologie lassen sich leicht in Büros, Klassenzimmern, Privathaushalten und Rechenzentren einrichten. Sie haben einen geringen Platzbedarf und benötigen nur die Stromversorgung und Kühlung, die in Ihrer Umgebung üblicherweise verwendet werden. Mit dem All-in-One-System können Sie alle KI-Trainingsaufgaben bewältigen, vom Modellimport und der Feinabstimmung bis hin zur Validierung und Inferenz.

Die aiDAPTIV+-Technologie macht KI-Training für Unternehmen jeder Größe und jedes Budgets verfügbar – und erschwinglich. Sie ermöglicht es Ihnen, wettbewerbsfähig zu bleiben und die Vorteile der KI zu nutzen, ohne enorme Kosten für die Infrastruktur und Bedenken hinsichtlich Sicherheit, Datenschutz, Compliance und Souveränität.

Newegg ABS KI-Trainings-PC und KI-Workstation

Angesichts der steigenden Nachfrage nach zugänglichen, leistungsstarken KI-Trainingslösungen reagieren Newegg und Phison auf diesen Bedarf. Gemeinsam bieten sie eine neue Generation von erschwinglichen KI-Trainings-PCs und -Workstations an, die die Lücke zwischen Hardware für Endverbraucher und KI-Fähigkeiten auf Unternehmensebene schließen. Der ABS AI Training PC (AITPC) und die ABS AI Workstation sind jetzt bei Newegg erhältlich und sind für das Training und die Feinabstimmung großer Sprachmodelle (LLMs) vor Ort entwickelt worden – ohne dass ein Rechenzentrum erforderlich ist.

ABS AI Training PC:

Ausgestattet mit einem Intel Core Ultra 7 265KF mit 20 Kernen, einer MSI GeForce RTX 5070 TI GPU und 64 GB (16 GB x 4) 6000 MHz Arbeitsspeicher bietet dieser Desktop-PC Rechenleistung in einem Micro-Tower-Formfaktor. Dank der aiDAPTIV+ GPU-Speichererweiterung von Phison ermöglicht das System  die Feinabstimmung des Trainings von LLMs mit bis zu 8+ Milliarden Parametern.

ABS aiOne – KI-All-in-One-Workstation: 

Dieses System verfügt über einen Intel Xeon W5-3535X-Prozessor mit 20 Kernen, die mit 2,9 GHz laufen, und 52,5 MB Cache, 4x Nvidia RTX 6000 Ada-GPUs und 512 GB DDR5-ECC-RAM. Die Integration von aiDAPTIV+ eröffnet AI-Entwicklern und Forschern, die sich mit komplexen LLM-Trainingsmodellen mit bis zu 70-100 Milliarden Parametern befassen, noch mehr Spielraum.

Was ist Phison aiDAPTIV+?

Die aiDAPTIV+-Technologie von Phison erweitert die Fähigkeiten von Consumer-GPUs, indem sie es ihnen ermöglicht, den Systemspeicher effizient als erweiterten Speicherpool für KI-Trainings-Workloads zu nutzen. Sie ermöglicht:

  • Vergrößerte Modellgröße, Kapazitäten über die Grenzen des GPU-VRAM hinaus
  • Kostengünstige LLM-Feinabstimmung, RAG und Inferenz
  • Plug-and-Play-Kompatibilität mit bestehenden Hardware-Konfigurationen

Diese Speichererweiterungstechnologie bietet Entwicklern, Start-ups und Forschern, die nicht über das Budget für NVIDIA H100-GPUs oder cloudbasierte Rechenleistung verfügen, High-End-KI-Trainingsfunktionen.

Warum das wichtig ist

Bis vor kurzem war KI-Training in großem Maßstab auf Rechenzentren und Unternehmensbudgets beschränkt. Mit der Newegg ABS AITPC und der KI-Workstation, die mit Phison aiDAPTIV+ betrieben werden, können Benutzer:

  • Open-Source-Modelle wie LLaMA, Deepseek, Mistral und Falcon lokal trainieren und feinabstimmen
  • Domänenspezifisches Training in den Bereichen Gesundheitswesen, Bildung, Robotik und mehr durchführen
  • Cloud-Kosten vermeiden und die volle Kontrolle über sensible Daten behalten

Entwickelt für sofortige KI-Innovationen

 Diese Systeme sind keine Zukunftskonzepte – sie sind bereits verfügbar und werden jetzt ausgeliefert. Das bedeutet, dass KI-Entwickler und Enthusiasten nicht auf die KI-Infrastruktur der nächsten Generation warten müssen. Mit aiDAPTIV+ können sie noch heute mit dem Aufbau und Experimentieren beginnen.

AVerMedia und Phison Electronics

Eine neue Partnerschaft zwischen AVerMedia und Phison Electronics wurde von beiden Unternehmen bekannt gegeben. Gemeinsam erschließen sie neue Möglichkeiten für Edge-KI und Robotik, indem sie die aiDAPTIV+ Speichererweiterungstechnologie von Phison in die NVIDIA Jetson-basierten IoT-Geräte von AVerMedia integrieren.

„Mit aiDAPTIV+ von Phison können unsere Jetson-basierten Geräte größere Kontextfenster mit schnellerer Inferenz verarbeiten, was die Möglichkeiten für Edge-Robotik und industrielle KI revolutioniert“, so Alex Liu, Leiter von AverAI bei AVerMedia. „Wir sind stolz darauf, diese bahnbrechende Technologie in unsere Systeme zu integrieren. Damit verbessern wir nicht nur die Systemleistung, sondern stärken auch das Ökosystem, das die KI-Automatisierung der nächsten Generation vorantreibt.“

Ganz gleich, ob Sie autonome Roboter bauen, industrielle Inspektionssysteme einsetzen oder Smart-City-Anwendungen ermöglichen – dieses Upgrade bietet die Leistung und Reaktionsfähigkeit, auf die Entwickler gewartet haben.

„Edge-KI muss sowohl schnell als auch intelligent sein“, so Dr. Wei Lin, CTO von Phison Electronics. „Mit aiDAPTIV+ bringen wir skalierbaren GPU-Speicherzugriff auf Geräte mit kleinem Formfaktor und beseitigen damit Speicherbeschränkungen, die die Echtzeit-Transformer-Inferenz behindern. Unsere Zusammenarbeit mit AVerMedia beschleunigt sinnvolle, kontextreiche Berechnungen direkt am Edge.“  AVerMedia wird ab dem dritten Quartal 2025 mit der Einführung von aiDAPTIV+-fähigen Jetson-Plattformen beginnen.

StorONE und Phison

StorONE und Phison haben eine Ausweitung ihrer strategischen Partnerschaft angekündigt, um die Leistungsfähigkeit intelligenter Speicher mit fortschrittlichen KI-Trainings-Workflows zu verbinden. Diese Zusammenarbeit baut auf ihrer früheren Zusammenarbeit im Bereich hochdichter Unternehmensspeicher auf. Durch die Ausweitung der Partnerschaft wird die aiDAPTIV+ GPU-Speichererweiterungstechnologie von Phison in die softwaredefinierte Speicherplattform von StorONE integriert, sodass Kunden die größten Sprachmodelle vor Ort trainieren und gleichzeitig die Interaktion mit ihren Speichersystemen über KI-gesteuerte Chat-Schnittstellen vereinfachen können. 

Speicher als KI-zentrierte Plattform neu denken

In der heutigen KI-orientierten Welt muss sich die Infrastruktur über die reine Kapazität hinaus weiterentwickeln. Diese Partnerschaft zielt darauf ab, Speicher als intelligente, reaktionsschnelle Plattform neu zu denken, die die Entwicklung, das Training und die Echtzeit-Inferenz von KI-Modellen aktiv unterstützt. Das kombinierte Angebot bietet folgende Vorteile: 

  • Ermöglicht LLM-Training in großem Maßstab mithilfe der aiDAPTIV+ Speichererweiterung und eröffnet damit die Möglichkeit, mit Modellen mit mehreren Milliarden Parametern vor Ort zu arbeiten.
  • Unterstützt lokale, sichere Datenpipelines für datenschutzsensible Branchen wie Gesundheitswesen, Finanzwesen und Behörden.
  • Bietet einen integrierten Chatbot, der Benutzern hilft, Speicherkonfigurationen und -leistung in einfacher Sprache zu verwalten, abzufragen und zu optimieren.

„Bei StorONE haben wir immer daran geglaubt, Speicher nicht nur schnell und erschwinglich, sondern auch intelligent zu machen. Durch die Kombination unserer Enterprise-Speicherplattform mit aiDAPTIV+ von Phison ermöglichen wir eine KI-Infrastruktur, die nicht nur intelligenter, sondern auch zugänglicher ist“, sagte Gal Naor, CEO von StorONE.

„Phison hat sich der Demokratisierung der KI-Leistung verschrieben – und unsere Partnerschaft mit StorONE erweitert diese Vision in großem Maßstab“, fügte Michael Wu, GM und Präsident von Phison-US, hinzu. „Gemeinsam bieten wir Kunden eine leistungsstarke Möglichkeit, ihre KI-Roadmap mit einer sicheren, intelligenten Infrastruktur vor Ort zu beschleunigen.“

Erhältlich im 2. Quartal 2025

Die erste integrierte Lösung aus dieser Partnerschaft wird voraussichtlich im zweiten Quartal 2025 verfügbar sein. Sie kombiniert Speicher-Arrays mit hohem Durchsatz von StorONE mit der verbesserten GPU-Speichererweiterungstechnologie aiDAPTIV+ – perfekt für lokales LLM-Training, multimodale KI und generative Workloads, die sowohl Geschwindigkeit als auch Skalierbarkeit erfordern. Die Lösung von StorONE + Phison wurde entwickelt, um KI in den Mittelpunkt Ihrer Speicherinfrastruktur zu stellen.

Phison’s aiDAPTIV+ and E28 SSD Controller are transforming AI training, making it more accessible and efficient for developers and companies as show by Brian Cox, Director of AI Solution and Partner Marketing, PHISON Electronics at IT Press Tour .

COMPUTEX 2025 was packed with innovation, and Phison Electronics was proud to come away as a winner in the Best Choice Awards. Event judges recognized Phison’s cutting-edge tech and the innovative ways it’s changing GenAI training and deployment, especially for developers and companies who want to run AI locally, not just in the cloud.

Best Choice Award (Computer & System Category): aiDAPTIV+ Local GenAI Training solution

The win goes to aiDAPTIV+, Phison’s plug-and-play GPU memory extension solution. This one’s for anyone who’s tried to train or run an LLM locally and hit the dreaded “out of memory” wall.

aiDAPTIV+ solves that by:

  • Expanding GPU memory capacity, so you can run bigger models.
  • Supporting GenAI workflows like RAG, fine-tuning and local inference.
  • Letting developers train models on their own data, right from their desktops or workstations.

Whether you’re an independent researcher, educator or a team building private AI applications, aiDAPTIV+ makes local AI development practical and scalable.

This award complements another Best Choice win at Computex 2025 with the Golden Award going to Phison for the E28 PCIeGen5 SSD Controller.

This controller is built from the ground up for AI training workloads. While most SSDs are focused on general storage tasks, the E28 is a different beast entirely. It’s tuned to support fine-tuning large language models (LLMs)—the kind of models that power everything from smart assistants to industrial automation.

  • It’s built on 6nm process technology, so it’s fast and efficient.
  • It handles huge data flows with low latency, critical for real-time AI.
  • It’s optimized for write-heavy, high-frequency training tasks—something standard SSDs struggle with.

If you’re working on fine-tuning your own models or running custom AI workflows, this controller helps cut training time and reduce memory bottlenecks.

Why it matters

AI is moving fast, and not everyone wants to (or can afford to) rely on cloud GPUs for everything. With tools like the aiDAPTIV+ and the E28 SSD Controller, Phison is making it easier for more people to develop, fine-tune and deploy AI on their own terms.

“These awards validate our vision to democratize GenAI by breaking past storage and memory limitations,” said Dr. Wei Lin, CTO of Phison. “We’re focused on helping developers do more with the hardware they already have.”

What’s next?

You can expect to see both of these technologies integrated into edge devices, AI workstations and enterprise deployments later this year. And if you’re building anything with LLMs, edge AI or on-prem training, it’s time to keep a close eye on what Phison is doing next.

ts groundbreaking AI technology aiDAPTIV+ is now available to U.S. buyers online. Currently on sale are the ABS Newegg AI Training PC and the ABS Newegg aiONE All-in-One Workstation, both powered by Phison aiDAPTIV+ software. These products are simply the first of many to come from a range of vendors throughout the coming months.

What makes aiDAPTIV+ different from other AI software?

As AI continues to make headway into every industry across the world, organizations are increasingly realizing the value of training AI models on their own data. Combined with training on readily available open source large language models (LLMs), this leads to more accurate outputs and more relevant insights, which can drive greater innovation and transformation for the organization.

In the past, however, training AI models on your own data meant you either had to spend hundreds of thousands of dollars to build the on-premises infrastructure to do the training—or you had to upload your data to the cloud and use third-party training software.

Both options came with problems: building on-premises infrastructure was completely impossible financially for organizations that didn’t have massive budgets, and putting proprietary data in the cloud presented security and compliance risks.

Today, Phison’s aiDAPTIV+ technology is transforming the AI training landscape. It provides a cost-effective way for budget-conscious organizations to keep their data on-premises and train and fine-tune AI models with ease. With a single workstation on-site, organizations can reap the benefits of AI across their operations while maintaining complete control of their data and bypassing the security and compliance risks of training their models in the cloud.

How aiDAPTIV+ works

Essentially, aiDAPTIV+ technology makes it possible to train AI models using fewer costly GPU cards. It does this by offloading expensive high bandwidth memory (HBM) and GDDR memory to flash memory on the system’s specialized aiDAPTIVCache family of extreme-endurance SSDs, which is plentiful and cost-effective. The system also includes aiDAPTIV management middleware that works to optimize the flow of data between compute and storage resources—which enables large-scale model training with enhanced performance and reduced training times.

AI workstations and PCs with aiDAPTIV+ technology are easy to set up in offices, classrooms, homes and data centers. They have a small footprint and require only the power and cooling your environment would typically use. The all-in-one system allows you to handle all AI training tasks, from model ingest and fine-tuning to validation and inference.

aiDAPTIV+ technology is making AI training available—and affordable—to organizations of all sizes and budgets. It allows you to stay competitive and take advantage of the benefits of AI without the enormous price tag for infrastructure and concerns about security, privacy, compliance and sovereignty.

Newegg ABS AI Training PC and AI Workstation

As demand surges for accessible, high-performance AI training solutions, Newegg and Phison are stepping up to meet this demand. Together, they’re delivering a new breed of affordable AI training PCs and workstations that bridge the gap between consumer-grade hardware and enterprise-level AI capabilities.

Now available on Newegg, the ABS AI Training PC (AITPC) and the ABS AI Workstation are compact powerhouses built to train and fine-tune large language models (LLMs) on-premises — no datacenter required.

  • ABS AI Training PC:Equipped with an Intel Core Ultra 7 265KF with 20 cores, MSI GeForce RTX 5070 TI GPU, and 64GB (16GBx4) 6000MHz memory, this desktop brings serious compute in a micro tower form factor. Thanks to Phison’s aiDAPTIV+ GPU memory extension, this AI system punches above its weight class, enabling fine-tune
    training of LLMs with up to 8+ billion parameters.
  • ABS aiOne – AI All-in-One Workstation:This pro-tier system features an Intel Xeon W5-3535X processor with 20 Cores running at 2.9GHz and 52.5MB Cache, 4x Nvidia RTX 6000 Ada GPUs, and 512GB DDR5 ECC RAM. The aiDAPTIV+ integration here unlocks even higher headroom for AI developers and researchers tackling complex LLM training models up to 70-100 billion parameters.

What is Phison aiDAPTIV+?

Phison’s aiDAPTIV+ technology extends the capabilities of consumer GPUs by allowing them to efficiently leverage system memory as an extended memory pool for AI training workloads. It enables:

  • Increased model size, capacities beyond GPU VRAM limitations
    • Cost-effective LLM fine-tuning, RAG and inferencing
    • Plug-and-play compatibility with existing hardware setups

This memory extension technology brings high-end AI training capabilities to developers, startups, and researchers without the budget for NVIDIA H100 GPUs or cloud-based compute.

Why It Matters

Until recently, AI training at scale was limited to datacenters and enterprise budgets. With the Newegg ABS AITPC and AI Workstation, powered by Phison aiDAPTIV+, users can:

  • Train and fine-tune open-source models like LLaMA, Deepseek, Mistral, and Falcon locally
    • Conduct domain-specific training in healthcare, education, robotics, and more
    • Avoid cloud costs and retain full control over sensitive data

Built for Immediate AI Innovation

These systems are not future concepts—they’re available and shipping now. That means AI developers and enthusiasts don’t have to wait for next-gen AI infrastructure. With aiDAPTIV+, they can start building and experimenting today.

Whether you’re developing a personalized chatbot, fine-tuning a vision transformer for industrial robotics, or testing new LLM workflows, the Newegg ABS AI desktops powered by Phison enable a new level of freedom and affordability.

AVerMedia and Phison Electronics

A new partnership between AVerMedia and Phison Electronics was announced by both companies. Together, they’re unlocking new possibilities for edge AI and robotics by integrating Phison’s aiDAPTIV+ memory extension technology into AVerMedia’s NVIDIA Jetson-based IoT devices.

So what does this mean? In short: faster, smarter, more context-aware AI—right at the edge.

By using aiDAPTIV+ to expand the key-value (KV) cache size available to transformer models —which makes text generation faster and more efficient— AVerMedia’s Jetson platforms can now recall tokens faster, support longer sequences and deliver more accurate, human-like responses, without needing a cloud connection or a bulky GPU rig. That’s a big deal for AI-powered robots, factory automation and smart infrastructure where speed and local intelligence matter most.

Phison’s aiDAPTIV+ enables our Jetson-powered devices to handle larger context windows with faster inference, transforming what’s possible for edge robotics and industrial AI,” said Alex Liu, Head of AverAI at AVerMedia. “We’re proud to integrate this breakthrough technology into our systems. We’re not only advancing system performance but also strengthening the ecosystem that drives next-generation AI automation.”

Whether you’re building autonomous robots, deploying industrial inspection systems or enabling smart city applications, this upgrade unlocks the kind of performance and responsiveness developers have been waiting for.

“Edge AI must be both fast and intelligent,” said Dr. Wei Lin, CTO of Phison Electronics. “With aiDAPTIV+, we bring scalable GPU memory access to small form factor devices, removing memory limitations that bottleneck real-time transformer inference. Our collaboration with AVerMedia accelerates meaningful, context-rich computing right at the edge.”

AVerMedia will begin rolling out aiDAPTIV+-enabled Jetson platforms starting in Q3 2025.

StorONE and Phison

StorONE and Phison have announced an expansion of their strategic partnership to fuse the power of intelligent storage with advanced AI training workflows. This collaboration builds upon their prior alignment of high-density enterprise storage.  This partnership expansion will integrate Phison’s aiDAPTIV+ GPU memory extension technology with StorONE’s high-performance software-defined storage platform, enabling customers to train the largest language models on-premises while also simplifying how they interact with their storage systems through AI-driven chat interfaces.

Reimagining Storage as an AI-Centric Platform

In today’s AI-first world, infrastructure must evolve beyond raw capacity. This partnership aims to reimagine storage as a smart, responsive platform that actively supports AI model development, training, and real-time inferencing. The combined offering will:

  • Enable LLM training at scale using aiDAPTIV+ memory extension, unlocking the ability to work with multi-billion parameter models on-prem
  • Support local, secure data pipelines for privacy-sensitive verticals like healthcare, finance, and government
  • Deliver a built-in conversational chatbot that helps users manage, query, and optimize storage configurations and performance in plain English

“At StorONE, we’ve always believed in making storage not just fast and affordable, but intelligent. By combining our enterprise storage platform with Phison’s aiDAPTIV+, we are enabling AI infrastructure that’s not just smarter, but more accessible,” said Gal Naor, CEO of StorONE.

“Phison is committed to democratizing AI performance —and our partnership with StorONE expands that vision at scale,” added Michael Wu, GM and President of Phison-US. “Together, we’re giving customers a powerful way to accelerate their AI roadmap with secure, intelligent on-premises infrastructure.”

Coming in Q2 2025

The first integrated solution from this partnership is expected to be available in calendar Q2 2025, combining high-throughput storage arrays from StorONE with aiDAPTIV+ enhanced GPU memory extension technology—perfect for on-premises LLM training, multi-modal AI, and generative workloads that demand both speed and scale.

Whether you’re deploying a regional AI lab, building a private GenAI stack, or looking for smarter data workflows, the StorONE + Phison solution is designed to put AI at the core of your storage infrastructure.

 

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert