Glenn Nethercutt, Chief Technology Officer Genesys
Large Action Models und selektives Gedächtnis verändern die Kundeninteraktion. Experten erwarten einen Paradigmenwechsel von reaktiven zu proaktiven Systemen. Large Action Models and selective memory are changing customer interaction. Experts expect a paradigm shift from reactive to proactive systems.
Künstliche Intelligenz im Kundenservice steht vor einem Wendepunkt: Statt nur auf Anfragen zu reagieren, sollen KI-Systeme künftig Kundenbedürfnisse antizipieren und eigenständig handeln. Zwei technologische Entwicklungen treiben diese Transformation voran – Large Action Models und persistente Speichersysteme.

Die nächste Generation künstlicher Intelligenz im Kundenservice zeichnet sich durch zwei zentrale Fähigkeiten aus: ein selektives Gedächtnis, das relevante Informationen über Interaktionen hinweg bewahrt, und die Kompetenz, eigenständig zu handeln. Diese Entwicklung markiert den Übergang von rein sprachbasierten zu handlungsfähigen Systemen.

Persistente Kontextspeicherung als Grundlage

Glenn Nethercutt, Chief Technology Officer bei Genesys, beschreibt die Notwendigkeit einer kognitiven Infrastruktur: „Um im Bereich der KI wettbewerbsfähig zu bleiben, benötigen Unternehmen eine künstliche Intelligenz, die sich erinnert. Statt bei jeder Interaktion neu zu starten, knüpft KI an gelernten Erfahrungen an.“

Diese kognitive Infrastruktur verwandelt gespeicherte Daten in kontextuelle Erinnerungen. Ein selektives, komprimiertes Gedächtnis filtert relevante Informationen und verknüpft den Kontext zeitübergreifend. Die Technologie unterscheidet sich von herkömmlichen Datenbanken durch ihre Fähigkeit, Muster zu erkennen und Prioritäten zu setzen.

Von Sprachmodellen zu Aktionsmodellen

Während Large Language Models (LLMs) Gespräche verstehen und kontextualisieren, gehen Large Action Models (LAMs) einen Schritt weiter. Sie übersetzen Kontext in konkrete Handlungen. Nethercutt erläutert: „Im Gegensatz zu klassischen LLMs, die Inhalte interpretieren und konversieren können, handelt die nächste Generation zielgerichtet. LAMs interagieren mit der Welt, anstatt sie nur darzustellen.“

Diese Systeme analysieren Absichtssignale, Mikrokontexte und zeitliche Muster. Basierend darauf initiieren sie Schritte wie Weiterleitungen, Beratung oder Eskalationen, bevor Probleme entstehen. Der Fokus verschiebt sich von reaktivem Fehlermanagement zu präventiver Steuerung.

Orchestrierung vernetzter KI-Agenten

Olivier Jouve, Chief Product Officer bei Genesys, sieht einen grundlegenden Wandel in der Systemarchitektur: „Reines Prozessmanagement entwickelt sich zur ganzheitlichen Intelligenzorchestrierung. Ein Netzwerk aus KI-Agenten synchronisiert den Geschäftsrhythmus und handelt nahtlos über alle Workflows, Funktionen und Kanäle hinweg.“

Experience-Orchestration-Plattformen werden durch die Kombination von LLMs, LAMs, dem Model Context Protocol (MCP) und Agent-to-Agent-Kommunikation (A2A) angetrieben. Diese Technologien wandeln Kunden- und Mitarbeitererfahrungen von verwalteten, reaktiven Zuständen zu adaptiven, selbstorchestrierten Erlebnissen.

Spezialisierte KI-Agenten arbeiten in verschiedenen Unternehmensbereichen – von Vertrieb und Service über Marketing bis zu Betrieb und Finanzwesen. Jede Interaktion wird Teil einer dynamischen Reise, die in Echtzeit gestaltet wird.

Transparenz als Vertrauensfaktor

Mit zunehmender Autonomie der Systeme wächst die Notwendigkeit für Transparenz. Jouve verweist auf eine aktuelle Studie: 80 Prozent der befragten Verbraucher erwarten eine klare KI-Governance, doch nur 31 Prozent der CX-Führungskräfte verfügen über eine umfassende Aufsicht.

„Transparenz wird zur Währung des Vertrauens“, erklärt Jouve. „Unternehmen müssen offenlegen, wer ihre KI-Agenten sind, wozu sie befugt sind und wie sie Entscheidungen treffen.“ Da mehrere KI-Agenten gemeinsam wirken, muss Transparenz vom einzelnen Modell auf das gesamte Netzwerk ausgeweitet werden.

Mit wachsender Regulierung müssen Unternehmen nachweisen, dass autonome Systeme ethisch handeln, KI-Gesetze einhalten und mit den Werten von Menschen und Organisationen übereinstimmen. Governance entwickelt sich zu einem Framework, das durchgängig erklärbar, überprüfbar und rechenschaftspflichtig ist.

Frühzeitiges Handeln als Wettbewerbsvorteil

Der Wettbewerbsvorteil im Kundenservice entsteht künftig nicht durch bessere Antworten, sondern durch früheres Handeln. Nethercutt formuliert es so: „Für den Wettbewerb steht nicht mehr die Frage ‚Wie gut haben wir reagiert?‘, sondern ‚Wie früh haben wir gehandelt?‘ im Vordergrund.“

Unternehmen, deren KI-Systeme kommende Zustände antizipieren, bevor sie eintreten, verschaffen sich einen Vorsprung. Die Kombination aus selektivem Gedächtnis und handlungsfähigen Modellen macht Kundenreisen vorausschauend und hebt Organisationen vom reinen Prozessmanagement zur Intelligenzorchestrierung.

Wer agentische Ökosysteme mit klarer Governance führt und Transparenz als strategisches Element nutzt, verwandelt Compliance in Vertrauen. Der neue Maßstab lautet: antizipieren statt reagieren – verantwortungsvoll, überprüfbar und wirksam.

Artificial intelligence in customer service is at a turning point: instead of merely responding to inquiries, AI systems will anticipate customer needs and act independently in the future. Two technological developments are driving this transformation: large action models and persistent storage systems.

The next generation of artificial intelligence in customer service is characterized by two key capabilities: selective memory that retains relevant information across interactions, and the ability to act independently. This development marks the transition from purely voice-based to actionable systems.

Persistent context storage as a foundation

Glenn Nethercutt, Chief Technology Officer at Genesys, describes the need for a cognitive infrastructure: “To remain competitive in the field of AI, companies need artificial intelligence that remembers. Instead of starting from scratch with every interaction, AI builds on learned experiences.”

This cognitive infrastructure transforms stored data into contextual memories. A selective, compressed memory filters relevant information and links context across time. The technology differs from traditional databases in its ability to recognize patterns and set priorities.

From language models to action models

While large language models (LLMs) understand and contextualize conversations, large action models (LAMs) go one step further. They translate context into concrete actions. Nethercutt explains: “Unlike classic LLMs, which can interpret content and converse, the next generation acts purposefully. LAMs interact with the world instead of just representing it.”

These systems analyze intent signals, micro-contexts, and temporal patterns. Based on this, they initiate steps such as referrals, advice, or escalations before problems arise. The focus shifts from reactive error management to preventive control.

Orchestration of networked AI agents

Olivier Jouve, Chief Product Officer at Genesys, sees a fundamental change in system architecture: “Pure process management is evolving into holistic intelligence orchestration. A network of AI agents synchronizes the business rhythm and acts seamlessly across all workflows, functions, and channels.”

Experience orchestration platforms are powered by a combination of LLMs, LAMs, the Model Context Protocol (MCP), and agent-to-agent communication (A2A). These technologies transform customer and employee experiences from managed, reactive states to adaptive, self-orchestrated experiences.

Specialized AI agents work in various areas of the business – from sales and service to marketing, operations, and finance. Every interaction becomes part of a dynamic journey that is shaped in real time.

Transparency as a factor of trust

As systems become more autonomous, the need for transparency grows. Jouve refers to a recent study: 80 percent of consumers surveyed expect clear AI governance, but only 31 percent of CX executives have comprehensive oversight.

“Transparency is becoming the currency of trust,” explains Jouve. “Companies need to disclose who their AI agents are, what they are authorized to do, and how they make decisions.” Since multiple AI agents work together, transparency must be extended from the individual model to the entire network.

With increasing regulation, companies must demonstrate that autonomous systems act ethically, comply with AI laws, and align with the values of people and organizations. Governance is evolving into a framework that is consistently explainable, verifiable, and accountable.

The early bird catches the customer

In the future, competitive advantage in customer service will come not from better answers, but from earlier action. Nethercutt puts it this way: “For competitors, the question is no longer ‘How well did we respond?’, but ‘How early did we act?’”

Companies whose AI systems anticipate future conditions before they occur gain a competitive edge. The combination of selective memory and actionable models makes customer journeys predictive and elevates organizations from pure process management to intelligence orchestration.

Those who manage agentic ecosystems with clear governance and use transparency as a strategic element transform compliance into trust. The new benchmark is: anticipate instead of react – responsibly, verifiably, and effectively.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner