| Fünf Entwicklungen, die 2026 prägen werden, präsentiert Roger Illing, Vice President Sales CEMEA Confluent. | Roger Illing, Vice President Sales CEMEA Confluent, presents five developments that will shape 2026. |
Daten-Streaming hat sich in den vergangenen Jahren zu einem festen Bestandteil moderner Unternehmensstrategien entwickelt. Die Dynamik ist größer als erwartet, – nicht zuletzt aufgrund der enormen Fortschritte in der Künstlichen Intelligenz. Laut KPMG planen aktuell 72 % der Unternehmen in Deutschland ihre KI-Investitionen zu erhöhen. Aus Pilotprojekten sind inzwischen hunderte produktive Anwendungsfälle entstanden, die komplexe Abläufe bereits in Echtzeit unterstützen und damit neue Maßstäbe für den Umgang mit Echtzeitdaten setzen. Dadurch wächst der Modernisierungsdruck sowie der Anspruch, schnell Ergebnisse zu liefern.
2026 werden KI-Agenten zu einem operativen Bestandteil vieler Anwendungen, denn sie werden nicht nur analysieren, sondern eigenständig Entscheidungen ableiten und Handlungen auslösen können. Verlässliche KI-Agenten setzen hohe Datenqualität voraus. Dazu ist stetiger Kontext statt punktueller Batches nötig, genauso wie klare Richtlinien und Rückkopplungsschleifen, die Entscheidungen verbessern oder bei Unsicherheit den Menschen einbeziehen. Künftig werden Teams im Unternehmen ihre KI-Agenten ähnlich steuern, wie sie heute digitale Produkte entwickeln und betreiben. Ausschlaggebend sind dabei geschäftsrelevante Kennzahlen wie Bearbeitungsdauer, Fehlerraten oder Kundenzufriedenheit. Entscheidend ist weniger die Komplexität des Modells, sondern die Qualität der zugrunde liegenden Daten.
Je mehr sich KI-Agenten durchsetzen, desto stärker ändern sich die Anforderungen an Daten-Streaming Engineers. Entscheidend ist nicht mehr, wer die meisten Konnektoren betreut oder für hohe Clusterverfügbarkeit sorgt, sondern wer im Stream robuste Datenprodukte bereitstellt. Gut gebaute Streams vereinfachen bestehende Pipelines, senken Speicher- und Abgleichkosten und liefern KI-Agenten den Echtzeitkontext, den sie brauchen. Der Talentpool wird dadurch breiter. Mit soliden SQL-Kenntnissen lässt sich Geschäftslogik direkt an Ereignisse binden – einmal entwickelt, kann sie von anderen Systemen unkompliziert abonniert werden. Für echten Fortschritt reicht Fachwissen über verteilte Systeme allein nicht mehr aus. Viele Unternehmen stellen deshalb gezielt mehr Streaming Engineers ein, um KI effektiver einsetzen zu können.
Die öffentliche Verwaltung steht unter wachsendem Druck. Sie muss mit immer knapperen Mitteln noch mehr erreichen und gleichzeitig für Transparenz sorgen. Echtzeitverarbeitung wird dabei besonders in Bereichen relevant, in denen jede Minute zählt – etwa bei Steuern, Sozialleistungen, Betrugsbekämpfung, Grenzschutz oder der Finanzmarktaufsicht. Technisch ist dieser Wandel inzwischen möglich. Statt Daten in Batches zu verarbeiten, setzen zunehmend mehr Behörden auf Daten-Streaming, damit Entscheidungen anhand aktueller Informationen getroffen werden können. Offene Formate erleichtern zudem die Ablösung historisch gewachsener Mainframe-Prozesse abzulösen, ohne die Nachvollziehbarkeit zu gefährden.
Die Ausfälle großer Cloud-Dienste in diesem Jahr haben gezeigt, wie abhängig viele Organisationen von einzelnen Anbietern sind. Der aktuelle Outage Analysis Report 2025 des Uptime Institute zeigt zudem, dass IT- und Cloud-Störungen weiterhin regelmäßig auftreten und die Kosten pro Ausfall steigen. Viele Unternehmen fragen sich deshalb, wie sie im Ernstfall die Kontrolle behalten, Datensouveränität sichern und gesetzliche Vorgaben zur Speicherung geschäftskritischer Daten einhalten können. 2026 wird Multi-Cloud für viele Organisationen ein zentraler Bestandteil ihrer Resilienzstrategie. Dafür sind Technologien nötig, die über Anbietergrenzen hinweg zuverlässig funktionieren. So lassen sich Dienste bei steigenden Kosten, regionalen Ausfällen oder regulatorischen Änderungen flexibel und ohne Unterbrechungen verschieben oder skalieren. Künftig wird es ein Zeichen von Stabilität und Wettbewerbsfähigkeit sein, wenn ein Unternehmen die Cloud wechseln, Workloads verteilen und Datenplattformen zuverlässig betreiben kann.
Eigene Streaming-Stacks zu betreiben, lohnt sich für viele Unternehmen zunehmend weniger. Fachkräfte fehlen, der Aufwand ist hoch, und wer Cluster optimiert, hat weniger Zeit, die Datenqualität zu verbessern. In Teams, die Kafka selbst verwalten, überwiegen inzwischen die Nachteile, da die Anforderungen an Streaming stetig steigen. Aktuelle Zahlen des Bitkom bestätigen diesen Trend: In Deutschland sind derzeit rund 109.000 IT-Stellen unbesetzt. 2026 werden deshalb deutlich mehr Teams auf verwaltete Plattformen umsteigen. Streaming wird damit wie eine grundlegende technische Dienstleistung behandelt: zuverlässig, sicher und nicht zwingend in eigener Verantwortung. Wenn der Betrieb ausgelagert ist, bleibt mehr Kapazität für das Wesentliche. Erfahrene Fachkräfte kümmern sich dann verstärkt um Governance im Datenstrom, wiederverwendbare Datenprodukte und eine Geschäftslogik, die Abläufe verbessert und Kosten senkt. Wissen in Handeln verwandeln Die meisten Unternehmen nutzen nur einen kleinen Teil der Daten, die sie täglich erzeugen. Nicht aus Mangel an Ambitionen, sondern weil Datensilos, langsame Übertragungen und redundante Verarbeitungsschritte den Zugang erschweren. Doch das beginnt sich zu ändern: Streaming reduziert die Verzögerung zwischen Datenereignissen und der anschließenden Auswertung deutlich. Es geht nicht darum, alles auf einmal zu verändern. Entscheidend ist, dort anzusetzen, wo der Nutzen sofort sichtbar wird und positive Effekte schnell spürbar sind. Das Ziel ist nicht, weitere Dashboards zu erzeugen, sondern ein aktuelles, gemeinsames Bild des Unternehmens, das Entscheidungen beschleunigt und Lücken zwischen Analyse und Aktion schließt. 2026 markiert den Übergang von großen Versprechen und Schlagworten zu konkreten und messbaren Fortschritten. |
Data streaming has become an integral part of modern corporate strategies in recent years. The momentum is greater than expected, not least due to the enormous advances in artificial intelligence. According to KPMG, 72% of companies in Germany are currently planning to increase their AI investments. Pilot projects have now given rise to hundreds of productive use cases that already support complex processes in real time, setting new standards for handling real-time data. This is increasing the pressure to modernize and the demand to deliver results quickly.
By 2026, AI agents will become an operational component of many applications, as they will not only analyze, but also be able to independently derive decisions and trigger actions. Reliable AI agents require high data quality. This requires continuous context rather than selective batches, as well as clear guidelines and feedback loops that improve decisions or involve humans in cases of uncertainty. In the future, teams within companies will control their AI agents in a similar way to how they develop and operate digital products today. Business-relevant metrics such as processing time, error rates, and customer satisfaction will be decisive factors. The complexity of the model is less important than the quality of the underlying data.
The more AI agents become established, the more the requirements for data streaming engineers change. It is no longer a question of who manages the most connectors or ensures high cluster availability, but who provides robust data products in the stream. Well-built streams simplify existing pipelines, reduce storage and synchronization costs, and provide AI agents with the real-time context they need. This broadens the talent pool. With solid SQL skills, business logic can be tied directly to events – once developed, it can be easily subscribed to by other systems. For real progress, expertise in distributed systems alone is no longer enough. Many companies are therefore specifically hiring more streaming engineers to use AI more effectively.
Public administration is under growing pressure. It must achieve even more with increasingly scarce resources while ensuring transparency. Real-time processing is particularly relevant in areas where every minute counts – such as taxes, social benefits, fraud prevention, border protection, and financial market supervision. Technically, this change is now possible. Instead of processing data in batches, more and more authorities are turning to data streaming so that decisions can be made based on up-to-date information. Open formats also make it easier to replace historically grown mainframe processes without compromising traceability.
The outages of major cloud services this year have shown how dependent many organizations are on individual providers. The Uptime Institute’s latest Outage Analysis Report 2025 also shows that IT and cloud disruptions continue to occur regularly and that the cost per outage is rising. Many companies are therefore wondering how they can maintain control in an emergency, ensure data sovereignty, and comply with legal requirements for storing business-critical data. In 2026, multi-cloud will become a central component of many organizations‘ resilience strategies. This requires technologies that function reliably across provider boundaries. This allows services to be flexibly moved or scaled without interruption in the event of rising costs, regional outages, or regulatory changes. In the future, it will be a sign of stability and competitiveness if a company can switch clouds, distribute workloads, and operate data platforms reliably.
Operating proprietary streaming stacks is becoming less and less worthwhile for many companies. There is a shortage of skilled workers, the effort involved is high, and those who optimize clusters have less time to improve data quality. For teams that manage Kafka themselves, the disadvantages now outweigh the advantages, as streaming requirements are constantly increasing. Current figures from Bitkom confirm this trend: there are currently around 109,000 unfilled IT positions in Germany. By 2026, significantly more teams will therefore switch to managed platforms. Streaming will thus be treated as a basic technical service: reliable, secure, and not necessarily the company’s own responsibility. When operations are outsourced, more capacity remains for the essentials. Experienced specialists will then focus more on governance in the data stream, reusable data products, and business logic that improves processes and reduces costs. Turning knowledge into action Most companies use only a small portion of the data they generate every day. This is not due to a lack of ambition, but because data silos, slow transfers, and redundant processing steps make access difficult. However, this is beginning to change: streaming significantly reduces the delay between data events and subsequent evaluation. It is not about changing everything at once. The key is to start where the benefits are immediately visible and the positive effects are quickly felt. The goal is not to create more dashboards, but to provide an up-to-date, shared view of the company that speeds up decisions and closes the gap between analysis and action. 2026 marks the transition from big promises and buzzwords to concrete and measurable progress. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de