Künstliche Intelligenz an der Edge kann technische Beschränkungen überwinden und Internetverbindungen beschleunigen.

Autor: Salim Khodri, Edge Go-to-Market Specialist, EMEA, Red Hat

Artificial intelligence at the edge can overcome technical limitations and speed up Internet connections.

Author: Salim Khodri, Edge Go-to-Market Specialist, EMEA, Red Hat

2023 wird das Jahr der sogenannten Edge Artifical Intelligence (Edge AI). Warum? Bislang findet Künstliche Intelligenz (KI) und maschinelles Lernen (ML) vor allem im zentralen Rechenzentrum oder der Public Cloud statt.

Wir stehen allerdings gerade vor einem Paradigmen-Wechsel: Denn mit dem Voranschreiten der Industrie 4.0 und der damit einhergehenden rasanten Zunahme von intelligenten IoT-Geräten, die alle am Netzwerkrand arbeiten, steigt die Notwendigkeit der Echtzeitverarbeitung vor Ort.

Das heißt, auch die Inferenz – also die Schlussfolgerung – muss direkt auf den Geräten stattfinden. Ein gutes Beispiel sind autonome Fahrzeuge: Netzwerk-bedingte hohe Latenzzeiten verzeihen sie nicht, das Unfallrisiko würde deutlich ansteigen.

Edge-KI ist aber keineswegs eine neue Form der Künstlichen Intelligenz, sondern eine logische Antwort auf die technischen Einschränkungen bisheriger Umgebungen.

Findet die kausale Inferenz an zentraler Stelle statt, ist eine Übertragung der Daten vom Gerät zur Cloud und wieder zurück notwendig. Dies kostet nicht nur unnötig Zeit, sondern stellt bei schlechter Internetverbindung eine fast unlösbare Herausforderung dar.

Neben Latenz und Bandbreite sind die Kosten für die Datenkommunikation ein weiterer Faktor, immerhin müssen Massen an Informationen zur Analyse in die Wolke verschickt werden. Unternehmen kommen also nicht umher, das KI-Inferencing von der Cloud an den Netzwerkrand zu verlagern.

Nur so lassen sich die Anforderungen an eine Verarbeitung in Echtzeit erfüllen und nur so kommen die Einsparungen bei der Netzwerkbandbreite des Edge Computing zum Tragen.

KI-Inferencing am Edge ist allerdings kein Selbstläufer. Immerhin müssen in der Regel Dutzende, wenn nicht sogar Tausende von Geräten installiert und gewartet werden.

Eine weitere Herausforderung liegt in dem Schutz von komplexen Edge-Computing-Architekturen, die sich zwar über mehrere Standorte verteilen, häufig aber nur über begrenztes oder gar kein IT-Personal verfügen. Unabdingbare Voraussetzung ist deshalb eine durchgängige IT-Sicherheit. Sensible Daten und geistiges Eigentum dürfen schließlich niemals in die falschen Hände geraten.

Darüber hinaus sind Unternehmen angesichts verteilter Standorte auf eine Lösung angewiesen, mit der sie ihre KI-Anwendungen am Netzwerkrand trainieren, bereitstellen und verwalten können und die trotzdem dieselben automatisierten Deployment- und Lifecycle-Management-Funktionen bereitstellen, die man von On-premise- oder Public-Cloud-Umgebungen kennt.

Bei der Verwaltung von Künstlicher Intelligenz am Netzwerkrand geht es also vor allem um Kontrolle. Sollen KI-Anwendungen im großen Umfang direkt vor Ort ausgeführt werden, braucht es die Gewissheit, dass die Erkenntnisse, die Unternehmen für die datengestützte Entscheidungsfindung gesammelt haben, immer verfügbar und zudem geschützt sind – egal was passiert.

Die Lösung liegt in einer hybriden Cloud-Plattform mit zentraler Verwaltung und durchgängiger Sicherheit, die den Aufbau, die Ausführung, die Verwaltung und die Skalierung von KI-Implementierungen über Tausende von Systemen unterstützt. Eine solche Plattform vereinfacht nicht nur den Betrieb, sie reduziert zudem spürbar die Kosten für Künstliche Intelligenz am Edge. Und damit beschleunigt sie die Bereitstellung neuer Services.

2023 will be the year of so-called edge artificial intelligence (edge AI). Why? Until now, Artificial Intelligence and Machine Learning has primarily taken place in the central data center or the public cloud.

However, we’re on the verge of a paradigm shift right now: As Industry 4.0 advances and smart IoT devices all operating at the edge of the network rapidly increase, the need for real-time, on-site processing is increasing.

This means that inference – that is, reasoning – must also take place directly on the devices. Autonomous vehicles are a good example: they are not forgiving of network-induced high latency, and the risk of accidents would increase significantly.

Edge AI is by no means a new form of artificial intelligence, however, but a logical response to the technical limitations of previous environments.

If causal inference takes place at a central location, it is necessary to transfer the data from the device to the cloud and back again. This not only costs time unnecessarily, but also poses an almost insurmountable challenge if the Internet connection is poor.

In addition to latency and bandwidth, the cost of data communication is another factor; after all, masses of information have to be sent to the cloud for analysis. So companies can’t avoid moving AI inferencing from the cloud to the network edge.

This is the only way to meet real-time processing requirements, and the only way to realize the network bandwidth savings of edge computing.

AI inferencing at the edge is not a no-brainer, however. After all, there are typically dozens, if not thousands, of devices that need to be installed and maintained.

Another challenge lies in protecting complex edge computing architectures that are spread across multiple sites but often have limited or no IT staff. An indispensable prerequisite is therefore end-to-end IT security. After all, sensitive data and intellectual property must never fall into the wrong hands.

In addition, with distributed locations, enterprises need a solution that can train, deploy and manage their AI applications at the edge of the network and still provide the same automated deployment and lifecycle management capabilities familiar from on-premise or public cloud environments.

So managing AI at the network edge is all about control. If AI applications are to be run at scale right on premise, there needs to be assurance that the insights organizations have gathered for data-driven decision making are always available and also protected – no matter what.

The solution lies in a hybrid cloud platform with centralized management and end-to-end security that supports building, running, managing and scaling AI deployments across thousands of systems. Such a platform not only simplifies operations, it also noticeably reduces the cost of AI at the edge. And it accelerates the delivery of new services.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Cookie Consent mit Real Cookie Banner