Während Unternehmen auf die Effizienz agentenbasierter KI setzen, bleiben Verbraucher skeptisch, so eine Studie von Genesys. | While companies rely on the efficiency of agent-based AI, consumers remain skeptical, according to a study by Genesys. |
Nominiert für die »WOMEN OF THE YEAR«-Awards 2025! Kategorie: IT – CxO Vote for Carolina: https://www.fit-kongress.de/award Link anklicken/ zur Abstimmung/ jetzt starten /Women in IT/ CxO/ Carolina Heyder |
Nominated for the „WOMEN OF THE YEAR“ Awards 2025! Category: IT – CxO Vote for Carolina: https://www.fit-kongress.de/award Click the link / to vote / start now / Women in IT / CxO / Carolina Heyder |
Eine aktuelle Genesys-Studie enthüllt eine besorgniserregende Kluft zwischen Kundenerwartungen und Unternehmensrealität: Während vier von fünf Verbrauchern klare Governance für KI-Interaktionen fordern, verfügt weniger als ein Drittel der Unternehmen über umfassende KI-Richtlinien. Diese Diskrepanz gefährdet das Vertrauen in agentenbasierte KI-Systeme, die zunehmend in Kundenservice-Strategien eingesetzt werden.
Agentenbasierte KI (Agentic AI) – autonome Systeme, die selbstständig denken, handeln und Entscheidungen treffen können – findet in den Strategien für Kundenerlebnisse (CX) von Unternehmen immer mehr Verbreitung. So meinen 91 Prozent der befragten CX-Führungskräfte, dass ihr Unternehmen damit einen schnelleren, effektiveren und personalisierten Service anbieten können wird. Die Daten zeigen jedoch eine komplexe Realität: Während die Begeisterung für den transformativen Wert agentenbasierter KI groß ist, hinken Governance-Strukturen hinterher. Dies bringt Risiken für das Verbrauchervertrauen, den Ruf der Marke und die Einhaltung gesetzlicher Vorschriften mit sich. „Agentic AI eröffnet Unternehmen spannende Möglichkeiten, ihre Kunden zu bedienen. Das Vertrauen der Verbraucher zu verdienen, muss jedoch mit diesem Fortschritt Schritt halten“, erläutert Olivier Jouve, Chief Product Officer bei Genesys. „Da diese Systeme immer mehr Verantwortung übernehmen, ist es unerlässlich, dass Unternehmen bei ihrer Nutzung transparent und rechenschaftspflichtig bleiben. Sind die richtigen Leitplanken von Anfang an gesetzt, können Unternehmen dauerhaftes Vertrauen aufbauen, indem sie verantwortungsbewusst Kundenerlebnis-Innovationen treiben für ein neues Maß an Personalisierung und Effektivität.“ Governance-Lücke untergräbt Vertrauen Mehr als 90 Prozent der befragten CX-Führungskräfte sind sich einig, dass eine starke Governance entscheidend ist, um den Ruf der Marke zu schützen (91 Prozent), langfristiges Vertrauen und Loyalität bei den Kunden aufzubauen (91 Prozent) und das Wohlbefinden der Verbraucher im Umgang mit autonomen Systemen zu steigern (90 Prozent). Dennoch sind viele Unternehmen noch nicht vorbereitet. Über ein Drittel der CX-Führungskräfte (35 Prozent) geben zu, dass sie über wenig bis gar keine formellen Governance-Richtlinien verfügen. Noch besorgniserregender ist, dass 28 Prozent derjenigen vollkommen ohne Richtlinien dennoch glauben, dass ihr Unternehmen bereit ist für agentenbasierte KI. Diese Governance-Lücke wird noch problematischer, wenn man sie im Zusammenhang mit den Bedenken der Verbraucher betrachtet. Viele bleiben skeptisch, weil ihnen Transparenz bei der Verwendung ihrer Daten und klare Kontrollen fehlen. Tatsächlich war die Klarheit darüber, wie KI ihre personenbezogenen Daten verwendet, das Hauptanliegen der Befragten. Hinzu kommt, dass 37 Prozent der Verbraucher glauben, KI „halluziniere” oder erfinde Informationen – eine Ansicht, die von 59 Prozent der CX-Führungskräfte geteilt wird. Sie meinen, dass Halluzinationen ernsthafte Risiken für die Kundenbindung, Rechtsstreitigkeiten und den Ruf der Marke darstellen. Diese wahrgenommene Unzuverlässigkeit untergräbt das Vertrauen weiter und zeigt, wie notwendig Vorkehrungen sind, die Genauigkeit und Verantwortlichkeit bei KI-gesteuerten Kundenerfahrungen gewährleisten. Die Lücke zwischen dem, was Führungskräfte für notwendig halten, und dem, was Unternehmen umgesetzt haben, ist besonders besorgniserregend – vor allem angesichts der klaren Forderung der Verbraucher nach Transparenz und Kontrolle. So ist es für Unternehmen von entscheidender Bedeutung, diese Lücke zu schließen, bevor sie agentenbasierte KI in großem Umfang einsetzen. Das Vertrauen der Verbraucher bleibt fragil Während 81 Prozent der CX-Führungskräfte agentenbasierter KI sensible Kundendaten anvertrauen, tun dies nur 36 Prozent der Verbraucher. Diese Diskrepanz ist in Situationen mit höheren Risiken noch ausgeprägter, beispielsweise beim Einsatz agentenbasierter KI für kritische Kundenfunktionen: 74 Prozent der Unternehmen geben an, dass sie diese Technologie ohne Bedenken für Rechnungsstellung, Finanztransaktionen und Kontosicherheit einsetzen. Verbraucher sind jedoch viel zurückhaltender: Nur 35 Prozent fühlen sich wohl dabei, wenn agentenbasierte KI Geldtransfers abwickelt, 49 Prozent bei der Lösung von Rechnungsproblemen und 50 Prozent bei der Aktualisierung persönlicher Daten. Die Daten zeigen eine wichtige Chance auf. Mehr als die Hälfte der Verbraucher (58 Prozent) gibt an, dass es für sie egal ist, ob ihr Problem von einem Menschen oder einer KI gelöst wird, solange es schnell und vollständig bearbeitet wird. Dies zeigt, dass Effizienz und Effektivität im Kundenerlebnis Skepsis überwinden können, jedoch nur in Verbindung mit Transparenz und Verantwortlichkeit. Um die Vertrauenslücke zu schließen und verantwortungsbewusst innovativ zu sein, müssen Unternehmen auf verbraucherorientierte Weise skalieren. |
A recent Genesys study reveals a concerning gap between customer expectations and corporate reality. Although four out of five consumers demand clear governance for AI interactions, fewer than one-third of companies have comprehensive AI policies. This discrepancy threatens trust in agent-based AI systems, which are becoming more prevalent in customer service strategies.
Genesys uncovers a critical disconnect between how companies govern AI and what consumers need to feel safe using it. While four out of five consumers surveyed said they want clear governance of AI interactions, less than a third (31%) of business leaders say their organizations have comprehensive, organization-wide AI policies and oversight in place. As agentic AI — autonomous systems that can think, act and make decisions independently — becomes more pervasive in enterprise customer experience (CX) strategies, 91% of CX leaders surveyed believe it will empower their organizations to deliver faster, more effective, personalized service. However, the data reveals a complex reality: While enthusiasm is high for the transformative value agentic AI can deliver, governance structures are lagging, posing risks to consumer trust, brand reputation and regulatory compliance. “Agentic AI is opening up exciting new possibilities for how organizations serve their customers, but earning consumer trust has to grow alongside that progress,” said Olivier Jouve, chief product officer at Genesys. “As these systems take on more responsibility, it’s essential that businesses stay transparent and accountable in how they’re used. With the right guardrails in place from the start, companies can build lasting confidence by responsibly innovating customer experiences that deliver new levels of personalization and effectiveness.” Governance Gap Undermines Trust More than 90% of CX leaders surveyed agree that strong governance is critical to: protect brand reputation (91%), build long-term trust and loyalty with customers (91%), and increase consumer comfort with autonomous systems (90%). Yet many organizations are still unprepared. Over one-third of CX leaders (35%) admit they have little to no formal governance policies in place. Even more concerning, 28% of those without any policy at all still believe their organizations are ready to deploy agentic AI. This governance gap becomes more troubling when viewed alongside consumers’ concerns. Many remain wary due to a lack of transparency around how their data is used and the absence of clear oversight. In fact, clarity on how AI uses their personal data was the number one concern among respondents. Compounding this, 37% of consumers believe AI “hallucinates” or fabricates information — a view echoed by 59% of CX leaders, who acknowledge that hallucinations pose serious risks to customer loyalty, litigation and brand reputation. This perceived lack of reliability further undermines trust and reinforces the need for safeguards that ensure accuracy and accountability in AI-driven experiences. The gap between what leaders know is necessary and what organizations have implemented is especially concerning given the clear demand from consumers for transparency and oversight. This makes it critical for businesses to close the gap before deploying agentic AI at scale. Consumer Trust Remains Fragile While 81% of CX leaders trust agentic AI with sensitive customer data, only 36% of consumers feel the same. This disconnect is sharper in higher stakes situations. Businesses show strong confidence in using agentic AI for critical customer functions: 74% of businesses say they’re comfortable using the technology for billing, financial transactions and account security. Consumers, however, are much more hesitant: Only 35% are comfortable with agentic AI handling money transfers, 49% with resolving billing issues and 50% with updating personal information. Still, the data reveals an important opportunity. More than half of consumers (58%) say they don’t care whether their issue is resolved by a human or AI, as long as its handled quickly and completely. This signals that CX efficiency and effectiveness can overcome skepticism, but only when paired with transparency and accountability. To close the trust gap and innovate responsibly, organizations must scale in a consumer-centric way. |
IFS hat sich vom reinen ERP-Anbieter zum Enterprise Service Management-Unternehmen entwickelt, das Industrial AI als Kernkompetenz einsetzt. Im SSCG Podcast mit Carolina Heyder erläutert Sebastian Spicker die strategischen Akquisitionen, konkrete KI-Anwendungsfälle und Wachstumsziele. | IFS has evolved from a pure ERP provider into an enterprise service management company that leverages industrial AI as its core competency. In this episode of the Security Storage and Channel Germany podcast with Carolina Heyder, Sebastian Spicker discusses strategic acquisitions, specific AI use cases, and growth targets. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de