| Confluent Intelligence verbindet Daten-Streaming mit KI-Funktionen und soll Unternehmen helfen, den Weg von Pilotprojekten in den produktiven Betrieb zu verkürzen. | Confluent Intelligence combines data streaming with AI capabilities and is designed to help companies shorten the path from pilot projects to productive operation. |
| Confluent Intelligence ist die Antwort auf eine zentrale Herausforderung bei KI-Projekten: die Bereitstellung von Kontext durch kontinuierliche Datenströme.
Die Plattform basiert auf Apache Kafka und Apache Flink. Sie verarbeitet historische Daten und Echtzeitinformationen für KI-Anwendungen. Nach Unternehmensangaben ermöglicht die Architektur eine Skalierung von Testumgebungen bis zum Produktivbetrieb. Drei zentrale Komponenten Die Real-Time Context Engine streamt strukturierte Daten an KI-Agenten und -Anwendungen. Die Integration erfolgt entweder nativ über Kafka und Flink oder extern über das Model Context Protocol. Der Service befindet sich im Early Access. Streaming Agents erlaubt die Entwicklung Event-getriebener Agenten direkt auf Flink. Datenverarbeitung und KI-Logik laufen in einer gemeinsamen Umgebung. Die Funktion ist als Open Preview verfügbar. Integrierte Machine-Learning-Funktionen in Flink SQL unterstützen Aufgaben wie Anomalieerkennung, Prognosen und Modellinferenz. Diese Komponente ist bereits in Confluent Cloud verfügbar. Zusammenarbeit mit Anthropic Confluent setzt Claude von Anthropic als Sprachmodell für die Streaming Agents ein. Die Integration verbindet das Reasoning-Modell mit Echtzeitdaten aus der Confluent-Plattform. Mögliche Anwendungsfälle umfassen Anomalieerkennung mit Filterung irrelevanter Signale oder personalisierte Echtzeit-Erlebnisse. Jay Kreps, Mitgründer und CEO von Confluent, beschreibt Daten-Streaming als Grundlage für kontextbasierte KI-Entscheidungen. Standardmodelle benötigen einen kontinuierlichen Datenfluss, um zeitgerechte Entscheidungen zu treffen. Herausforderungen bei KI-Projekten Laut einem MIT-Bericht aus dem Jahr 2025 erzielen 95 Prozent der GenAI-Initiativen keine Rendite, obwohl Unternehmen 30 bis 40 Milliarden Dollar investieren. Als Haupthindernis nennt der Bericht fehlenden Kontext: Das Verständnis von Ereignissen, Zusammenhängen und Hintergründen, das KI-Modelle für sinnvolle Aktionen benötigen. Eine Infrastruktur für kontinuierliches Streaming und Verarbeitung von Daten soll diese Lücke schließen. Der Zyklus aus Auswertung, Anpassung und Bereitstellung unterscheidet produktionsreife Systeme von einfachen Chatbot-Implementierungen. Praxisbeispiele Nithin Prasad, Senior Engineering Manager bei GEP, hebt die Bedeutung für Beschaffungs- und Lieferkettenprozesse hervor. Die Plattform versorgt Modelle mit Echtzeitdaten und minimiert Risiken bei der Datenübertragung. Atilio Ranzuglia vom Stadtrat Palmerston North in Neuseeland nutzt Confluent als zentrale Datenquelle. Die Plattform streamt Daten an Data Lakes und KI-Systeme für Echtzeit-Training von Modellen. Die Lösung unterstützt Smart-City-Initiativen durch automatisierte Arbeitsabläufe. Marktsituation Die fragmentierte Landschaft aktueller Lösungen führt zu komplexen Workflows. Keine einzelne Plattform deckt bisher alle erforderlichen Funktionen für produktionsreife KI-Agenten ab. Confluent Intelligence adressiert diese Lücke durch einen integrierten Ansatz mit Governance, niedriger Latenz und Reproduzierbarkeit. |
Confluent Intelligence is the answer to a key challenge in AI projects: providing context through continuous data streams.
The platform is based on Apache Kafka and Apache Flink. It processes historical data and real-time information for AI applications. According to the company, the architecture enables scaling from test environments to productive operation. Three key components The Real-Time Context Engine streams structured data to AI agents and applications. Integration is either native via Kafka and Flink or external via the Model Context Protocol. The service is currently in early access. Streaming Agents allows the development of event-driven agents directly on Flink. Data processing and AI logic run in a shared environment. The feature is available as an open preview. Integrated machine learning functions in Flink SQL support tasks such as anomaly detection, forecasting, and model inference. This component is already available in Confluent Cloud. Collaboration with Anthropic Confluent uses Claude from Anthropic as the language model for Streaming Agents. The integration connects the reasoning model with real-time data from the Confluent platform. Possible use cases include anomaly detection with filtering of irrelevant signals or personalized real-time experiences. Jay Kreps, co-founder and CEO of Confluent, describes data streaming as the basis for context-based AI decisions. Standard models require a continuous flow of data to make timely decisions. Challenges in AI projects According to a 2025 MIT report, 95 percent of GenAI initiatives fail to generate a return on investment, even though companies are investing $30 to $40 billion. The report cites a lack of context as the main obstacle: the understanding of events, contexts, and backgrounds that AI models need to take meaningful action. An infrastructure for continuous streaming and processing of data is intended to close this gap. The cycle of evaluation, adaptation, and deployment distinguishes production-ready systems from simple chatbot implementations. Success stories Nithin Prasad, Senior Engineering Manager at GEP, emphasizes the importance for procurement and supply chain processes. The platform provides models with real-time data and minimizes risks during data transmission. Atilio Ranzuglia from Palmerston North City Council in New Zealand uses Confluent as a central data source. The platform streams data to data lakes and AI systems for real-time model training. The solution supports smart city initiatives through automated workflows. Market situation The fragmented landscape of current solutions leads to complex workflows. No single platform currently covers all the functions required for production-ready AI agents. Confluent Intelligence addresses this gap with an integrated approach featuring governance, low latency, and reproducibility. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de