Stefan Bergstein, Chief Architect Manufacturing bei Red Hat, zeigt, wie generative KI die Effizienz in der Fertigung steigert. | Stefan Bergstein, Chief Architect of Manufacturing at Red Hat, shares how generative AI is driving efficiencies in manufacturing. |
Wer wettbewerbsfähig bleiben will, muss alle Möglichkeiten zur Effizienzsteigerung nutzen. KI ist in der Fertigung kein neues Thema. Predictive AI wird zur Prozessoptimierung und Qualitätssicherung eingesetzt und auch KI-gesteuerte Predictive Maintenance ist in vielen Unternehmen Standard, denn durch die Analyse von Maschinendaten können Anlagen proaktiv gewartet werden.
Allerdings erfolgt der Einsatz von KI in der produzierenden Industrie bisher häufig nur auf Maschinenebene, ohne den Zustand einer gesamten Produktionslinie oder die Kommunikation zwischen verschiedenen Systemen zu berücksichtigen. Das Potenzial von KI wird daher nur unzureichend genutzt. Dies wird sich jedoch ändern und ein wesentlicher Grund dafür ist die generative KI, die eine effizientere industrielle Produktion maßgeblich vorantreiben wird.
Das Potenzial der generativen KI zeigt sich gerade in der Mensch-Maschine-Interaktion. Dabei geht es nicht darum, den Maschinenbediener zu ersetzen. Vielmehr soll er bei technischen Herausforderungen durch KI-generierte Hinweise unterstützt werden, um die Produktivität insgesamt zu steigern. Wichtig beim Einsatz von KI in der Fertigung ist, dass nicht ausschließlich auf LLMs (Large Language Models) gesetzt wird. Diese Modelle werden zwar mit sehr großen Datenmengen trainiert, sind aber letztlich immer veraltet.
Abhilfe schafft hier die Technologie RAG (Retrieval-Augmented Generation), die die LLMs mit weiteren Informationen aus zusätzlichen Wissensquellen anreichert. Dazu gehören beispielsweise Echtzeit- oder proprietäre Daten, also auch unternehmensspezifische Maschinenparameter.
Die Anwendung der generativen KI auf die gesamte Produktionslinie ist der erste wichtige Schritt auf dem Weg zu einer effizienteren Produktion. Ebenso entscheidend ist der Einsatz von KI-Agenten. Diese sind zwar kein neues Konzept, können aber durch die Weiterentwicklung der KI erstmals praktisch eingesetzt werden, um autonome Systeme zu realisieren.
Ein KI-Agent ist in der Lage, Probleme unter Verwendung von Daten aus einem LLM, einer Vektordatenbank, einer Wissensbasis oder dem Internet zu analysieren, Schlussfolgerungen zu ziehen und Entscheidungen zu treffen, die dann als Information für einen Operator dienen oder selbstständig Veränderungen herbeiführen. Damit lassen sich viele automatisierte Anwendungsfälle realisieren, z. B. bei der Fehlererkennung und -behebung.
Von der Public Cloud zur Edge
Die meisten Data Scientists gehen beim Einsatz von KI zunächst den Weg über die Public Cloud. Die Modelle werden in der Public Cloud trainiert und auch die Qualitätssicherung und das Retraining finden dort statt. Für produzierende Unternehmen stellt sich dann in der Regel die Frage: Wie bekommen wir die trainierten Modelle effektiv in die Fabriken und damit an die Produktionslinien? Das ist das Thema Edge Computing. Denn um Fertigungsprozesse zu optimieren, müssen große Datenmengen schnell analysiert werden – und zwar direkt an der Produktionslinie durch die Vernetzung der IT mit den Anlagen oder Steuerungssystemen.
Offene hybride Cloud-Plattformen als Basis
Obwohl die Vorteile der generativen KI unbestritten sind, stecken viele KI-Projekte noch in der Pilotphase fest. So setzen laut einer Studie der Unternehmensberatung McKinsey erst drei Prozent der Unternehmen generative KI umfassend in der Produktion ein. Die Gründe für die Zurückhaltung der Unternehmen beim produktiven Einsatz von KI sind vielfältig und reichen von fehlendem Know-how bis hin zu Ressourcenengpässen. Häufig fehlt es auch an einer geeigneten Infrastruktur, die den Einsatz von KI von der Entwicklung bis zum Produktivbetrieb vereinfacht und beschleunigt.
Eine solche Infrastruktur stellt eine offene, containerbasierte Hybrid-Cloud-Plattform bereit. Sie bietet einerseits eine konsistente Basis für die Entwicklung von KI-Modellen, das Training von KI-Modellen und auch die Einbettung von KI-Modellen in Anwendungen. Zum anderen ist sie flexibel in einer Private, Public oder Edge-Umgebung einsetzbar.
Immer mehr Unternehmen gehen daher beim Aufbau und Betrieb einer KI-Umgebung den Weg der Hybrid Cloud. Der Trend zur Nutzung von Container-Plattformen ist ohnehin ungebrochen. Auch klassische MES (Manufacturing Execution Systems) werden zunehmend in Container-Umgebungen portiert, da diese viele Vorteile wie einen effizienteren Betrieb, schnellere Software-Updates oder eine bessere Verfügbarkeit bieten können.
Insgesamt wird zumindest mittelfristig kein Weg an der Nutzung generativer KI in der Industrie vorbeiführen, schon allein um im Wettbewerb nicht ins Hintertreffen zu geraten. Dabei muss sich der Einsatz von KI in einem Industrieunternehmen keineswegs auf die reinen Fertigungsprozesse beschränken. So kann beispielsweise auch die Resilienz von Lieferketten verbessert werden, indem Lieferantenanalysen und der Einsatz von KI-Agenten eine schnelle Umstellung von Lieferketten ermöglichen. Das potenzielle Einsatzspektrum der generativen KI ist weitreichend – und damit wird sie zum entscheidenden Treiber der industriellen Transformation. | If you want to stay competitive, you need to take advantage of every opportunity to increase efficiency. AI is not new to manufacturing. Predictive AI is used for process optimization and quality assurance, and AI-enabled predictive maintenance is a standard in many companies, where systems can be proactively maintained by analyzing machine data.
However, the use of AI in manufacturing has often been at the machine level, without taking into account the status of an entire production line or the communication between different systems. As a result, the potential of AI is underutilized. However, this is set to change, and a key reason for this is generative AI, which will significantly drive more efficient industrial production.
The potential of generative AI is particularly evident in human-machine interaction. The goal is not to replace the machine operator. Rather, it is about using AI-generated information to assist the operator with technical challenges in order to increase overall productivity. When using AI in production, it is important not to rely solely on LLMs (Large Language Models). Although these models are trained on very large amounts of data, they will eventually become outdated.
RAG (Retrieval Augmented Generation) technology can help by enriching LLMs with information from additional knowledge sources. These include real-time or proprietary data, as well as company-specific machine parameters.
Applying generative AI to the entire production line is the first important step toward more efficient production. Equally important is the use of AI agents. Although not a new concept, the evolution of AI has made it possible to implement autonomous systems in practice for the first time.
An AI agent can analyze problems using data from an LLM, a vector database, a knowledge base, or the Internet, draw conclusions, and make decisions that can be used to inform an operator or make changes on its own. This enables many automated use cases, such as fault detection and remediation.
From the public cloud to the edge
Most data scientists start their AI journey in the public cloud. Models are trained in the public cloud, and quality assurance and retraining take place there. For manufacturing companies, the question is how to effectively get the trained models into the factories and onto the production lines. This is where edge computing comes in. After all, to optimize manufacturing processes, large amounts of data must be analyzed quickly – directly at the production line by networking IT with the equipment or control systems.
Open hybrid cloud platforms as the foundation
Although the benefits of generative AI are undisputed, many AI projects are still in the pilot phase. According to a study by consulting firm McKinsey, only three percent of companies are using generative AI extensively in production. There are many reasons for companies‘ reluctance to use AI productively, ranging from a lack of expertise to resource bottlenecks. There is also often a lack of infrastructure to simplify and accelerate the use of AI from development to production.
Such an infrastructure is provided by an open, container-based hybrid cloud platform. It provides a consistent foundation for developing AI models, training AI models, and embedding AI models in applications. It can also be deployed flexibly in a private, public or edge environment.
As a result, more and more organizations are taking the hybrid cloud route to building and operating an AI environment. The trend toward using container platforms continues unabated. Traditional MES (Manufacturing Execution Systems) are also increasingly being ported to container environments, as these can offer many advantages, such as more efficient operation, faster software updates, and better availability.
All in all, the use of generative AI in industry is inevitable, at least in the medium term, if only to avoid falling behind the competition. The use of AI in an industrial enterprise does not have to be limited to pure manufacturing processes. The resilience of supply chains can also be improved, for example by using supplier data. |
Arne Lehfeldt, Systems Engineer und CTO Ambassador bei Dell Technologies, erklärt im Podcast Security, Storage und Channel Germany mit Carolina Heyder, warum Unternehmen keine Angst vor KI haben sollten. | Arne Lehfeldt, Systems Engineer and CTO Ambassador at Dell Technologies, explains why companies shouldn’t be afraid of AI in the Security, Storage and Channel Germany podcast with Carolina Heyder. |
Carolina Heyder ist Chefredakteurin Security Storage und Channel Germany sowie freiberufliche IT-Fachjournalistin und Moderatorin. Sie verfügt über langjährige Erfahrung in renommierten Verlagshäusern wie WEKA-Fachmedien, Springer und Aspencore. Ob Text fürs Web oder Print, Audio oder Video. Am Laptop, vor dem Mikrofon oder der Kamera. Ob in Deutsch, Englisch oder Spanisch, Carolina Heyder ist in der IT-Welt Zuhause. Ihre Themenschwerpunkte sind Cybersecurity, Digitale Transformation, Nachhaltigkeit, Storage u. a.
Carolina Heyder is Editor-in-Chief of Security Storage and Channel Germany as well as a freelance IT journalist and presenter. She has many years of experience at renowned publishing houses such as WEKA-Fachmedien, Springer and Aspencore. Whether text for the web or print, audio or video. On the laptop, in front of the microphone or the camera. Whether in German, English or Spanish, Carolina Heyder is at home in the IT world. Her main topics are cybersecurity, digital transformation, sustainability, storage and others.
Kontakt – Contact via Mail: carolina.heyder@security-storage-und-channel-germany.com