Nominiert für die »WOMEN OF THE YEAR«-Awards 2025! Kategorie: IT – CxO 
Vote for Carolina:
https://www.fit-kongress.de/award Link anklicken/ zur Abstimmung/ jetzt starten /Women in IT/ CxO/ Carolina Heyder
Nominated for the „WOMEN OF THE YEAR“ Awards 2025! Category: IT – CxO
Vote for Carolina:
https://www.fit-kongress.de/award Click the link / to vote / start now / Women in IT / CxO / Carolina Heyder
KI-Agenten verursachen bereits reale Schäden in Unternehmen. Rubrik Agent Rewind macht KI-Aktionen sichtbar, überprüfbar und reversibel – und ermöglicht so den sicheren Einsatz autonomer Systeme. AI agents are already causing real damage to companies. Rubrik Agent Rewind technology makes AI actions visible, verifiable, and reversible, enabling the safe use of autonomous systems.
Dass KI fehlerbehaftet ist, hat sich vielerorts noch nicht herumgesprochen. Blindes Vertrauen ist jedoch fehl am Platz, denn das Halluzinieren ist ein Geburtsfehler von KI, der unter anderem daraus resultiert, dass beim Training oft unzuverlässige Quellen und Fake News verwendet wurden. Bei agentischer KI wird dieses Problem noch verschärft.

Agentische KI ist längst Realität und unterstützt bereits den Kundenservice, Transaktionen und Produktionsprozesse. Wenn KI-Agenten jedoch Fehler machen – und das tun sie häufig –, fehlen Unternehmen die Werkzeuge, um unerwünschte Aktionen zu verstehen und rückgängig zu machen. Rubriks neue Lösung „Agent Rewind” schafft hier Abhilfe und macht den Einsatz von KI sicherer und kontrollierbarer.

Eine aktuelle Studie der Carnegie Mellon University hat ergeben, dass KI-Agenten zu fast 70 Prozent an Büroaufgaben scheitern. Sie sind häufig desorientiert, wählen falsche Abkürzungen und können selbst einfache mehrstufige Aufgaben nur mühsam bewältigen. Das sind kritische Mängel, die ihre Zuverlässigkeit und Effektivität untergraben.

Die Studie der Carnegie Mellon University liefert einen Gegenpol zur wachsenden Begeisterung für KI am Arbeitsplatz. Zwar können große Sprachmodelle bestimmte, klar definierte Aufgaben automatisieren, doch ihre Unfähigkeit, mehrstufige Prozesse zu bewältigen oder sich an dynamische Büroumgebungen anzupassen, schränkt ihren unmittelbaren Unternehmenswert erheblich ein. Die in der Studie zitierten Experten weisen darauf hin, dass der erfolgreiche Einsatz von KI in Unternehmen nach wie vor eine umfassende menschliche Überwachung und Intervention erfordert. Diese Erkenntnis wird durch Warnungen von Beratungsunternehmen untermauert, die darauf hinweisen, dass viele agentenbasierte KI-Projekte aufgrund von Kosten und unklaren Erträgen verzögert oder gestrichen werden.

KI-Agenten haben bereits unbeabsichtigte Datensatzaktualisierungen verursacht, Arbeitsabläufe unterbrochen und fehlerhafte Logik in Produktionssysteme eingebracht. Diese Fehlfunktionen bleiben oft unbemerkt, bis Prognosen ins Stocken geraten, Pipelines unterbrochen werden oder sensible Daten betroffen sind. Das sind keine Halluzinationen. Es handelt sich um ausgeführte Aktionen mit realen Konsequenzen.

Rubrik hilft Unternehmen seit Jahren dabei, sich von Ransomware, Insider-Bedrohungen und Betriebsfehlern zu erholen. Das Muster ist immer dasselbe: Der Schaden entsteht schnell. Die Ursache ist unklar. Und die Sichtbarkeit ist fragmentiert. KI-Agenten bringen jedoch eine neue Dimension mit sich. Sie können schneller und in größerem Umfang Fehler machen als Menschen. Der Schaden ist nicht immer böswillig, kann aber genauso kostspielig sein. Und wenn ein autonomer Agent fehlschlägt, ist der Ausmaß der Auswirkungen oft unbekannt, bis es zu spät ist.

Da Unternehmen den Einsatz von KI-Agenten ausweiten, wächst die Fläche für unbeabsichtigte Änderungen exponentiell – und betrifft mehr Systeme, Daten und Benutzer als je zuvor. Und ohne klare Transparenz sind sich Teams oft nicht bewusst, was sich geändert hat, bis die Änderungen tief in kritischen Arbeitsabläufen verankert sind.

Was ist Agent Rewind?

Agent Rewind hilft Unternehmen dabei, agentenbasierte KI vertrauensvoll einzusetzen, indem es KI-Aktionen sichtbar, überprüfbar und reversibel macht. Es zeichnet jede Aktion auf, erstellt einen Prüfpfad zurück zur Quellaufforderung und ermöglicht es dem Benutzer, zurückzuspulen, wenn etwas schiefgeht.

Mit Agent Rewind erhalten Sie:

  • Einblick in risikoreiche Aktionen, die ein Agent in verschiedenen Anwendungen ausführt
  • Die Möglichkeit, zurückzuspulen, wenn es zu unerwünschten agentenbasierten Aktionen in Bezug auf Daten und Anwendungen kommt

Dies ist nicht nur Beobachtbarkeit für KI-Agenten. Es ist Resilienz – und hier ist der Grund dafür.

Wenn Agenten vom Skript abweichen

Rogue-Agenten sind nicht nur Theorie – sie tauchen bereits in der Praxis auf. Der KI-Agent von Replit, der zur Beschleunigung der Softwareentwicklung entwickelt wurde, soll während eines Produktionsstillstands eine katastrophale Wendung genommen, die gesamte Unternehmensdatenbank gelöscht und dann in Panik geraten sein. Der Schaden wurde erst entdeckt, als es bereits zu spät war.

Beispiele aus der Praxis wie dieses sollten Sie dazu veranlassen, über Ihre eigene Gefährdung nachzudenken. Stellen Sie sich Folgendes vor: Sie entwickeln einen Angebotsagenten. Dieser führt eine Aktualisierung einer Verkaufschance durch. Dabei ändert er ein Feld, wodurch die Verbindung zwischen diesem Geschäft und dem Kundenkonto unterbrochen wird. Es gibt keine Warnung, keine Fehlermeldung und keine einfache Möglichkeit, zu sehen, was sich geändert hat. Das Problem bleibt unsichtbar, bis es später zu Problemen führt, sodass der Deal Desk die Daten manuell untersuchen und bereinigen muss.

Oder stellen Sie sich vor, Sie verwenden einen Agenten, um den Onboarding-Prozess für Mitarbeiter zu automatisieren. Ein fehlerhafter Trigger führt dazu, dass Hunderten von aktiven Benutzern der Zugriff entzogen wird. Die Technikabteilung wird mit Tickets überflutet, und die Sicherheitsabteilung hat keine Ahnung, was die Änderung ausgelöst hat.

Das sind keine Bugs. Es handelt sich um Agent-Aktionen mit großer Reichweite und realen betrieblichen Folgen. Und die meisten Teams tappen im Dunkeln, wenn sie auftreten, da sie nicht in der Lage sind, die vom Agenten vorgenommenen Änderungen zu finden und rückgängig zu machen.

Agent Rewind bietet Teams einen klaren Weg zurück – von der Identifizierung der Agentensitzung bis zur Rückgängigmachung der Änderungen, wobei Kontext und Kontrolle bereitgestellt werden. Es lässt sich nahtlos in eine Vielzahl von Plattformen und Agent-Buildern integrieren, darunter Agentforce, Microsoft Copilot Studio und Amazon Bedrock Agents, und ist mit jedem benutzerdefinierten KI-Agenten kompatibel.

KI-Agenten benötigen umfassenden Zugriff und Autonomie, um eine 10- bis 100-fache Produktivität zu erzielen. Das ist ihre Stärke – und ihr Risiko. Wie können Sie dieses Risiko mindern? Die Antwort lautet nicht, Ihre KI-Agenten einzuschränken. Es geht darum, Leitplanken zu schaffen, die es ihnen ermöglichen, schnell zu handeln, ohne Ihre Kontrolle aufzugeben.

„Wenn Unternehmen überlegen, in künstliche Intelligenz zu investieren, berücksichtigen sie oft nicht die Fehler, die KI-Agenten machen können und werden“, erklärt Johnny Yu, Research Manager bei IDC. „Agentic AI führt das Konzept des ‚nicht-menschlichen Fehlers‘ ein. Wie bei ihrem menschlichen Pendant sollten Unternehmen nach Lösungen suchen, mit denen sie potenziell katastrophale Fehler korrigieren können, die von KI-Agenten gemacht werden.“

„Mit zunehmend autonomen und ergebnisorientierten KI-Agenten steigt das Risiko unbeabsichtigter Fehler, die zu Betriebsausfällen führen“, so Anneka Gupta, Chief Product Officer bei Rubrik. „Agent Rewind integriert die fortschrittliche KI-Infrastruktur von Predibase mit den Wiederherstellungsfunktionen von Rubrik, sodass Unternehmen agentenbasierte KI vertrauensvoll einsetzen können. Unternehmen verfügen nun über einen klaren Prozess, um unerwünschte KI-Aktionen zu verfolgen, zu überprüfen und sicher rückgängig zu machen.“

KI-Agenten bergen ein bedeutendes Potenzial, aber – genau wie Menschen – sind sie anfällig für Fehler und verursachen Probleme wie unbeabsichtigte Geschäftsunterbrechungen. Jüngste Vorfälle mit fehlerhaften KI-Agenten zeigen ein Spektrum von Situationen auf, das von technischen Fehlfunktionen über rechtliche Probleme bis hin zur Löschung ganzer Produktionsdatenbanken reicht.

Agent Rewind macht zuvor schwer nachvollziehbare KI-Aktionen sichtbar, überprüfbar und reversibel. Er erstellt ein Prüfprotokoll mit unveränderlichen Momentaufnahmen, das ein sicheres Zurücksetzen erlaubt. Aktuelle Observability-Tools zeigen nur, was passiert ist, aber nicht, warum oder wie risikoreiche Aktionen rückgängig gemacht werden können.

„Agent Rewind schließt die Lücke zwischen dem, was passiert ist, warum es passiert ist und wie es rückgängig gemacht werden kann“, so Chad Pallett, Chief Information Security Officer bei BioIVT, einem globalen Forschungspartner und Anbieter von Biospecimen-Lösungen für die Arzneimittel- und Diagnostikentwicklung. „Bei der Verwendung von KI sind Beobachtung und sichere Wiederherstellung erforderlich. Rubrik und Predibase bieten nicht nur Datensicherheit und Modellgeschwindigkeit, sondern auch die Möglichkeit, KI wiederherzustellen. In einem Markt, der nach echter Observability und Wiederherstellbarkeit verlangt, ist Agent Rewind die Antwort, auf die ich gewartet habe.“

Wenn KI fehlschlägt, bietet Agent Rewind:

  • Kontextbezogene Sichtbarkeit: Erfasst Agentenverhalten und dessen Auswirkungen sowie die Verwendung von Tools. Jede Aktion wird in einen Kontext gesetzt und auf ihre Ursache zurückgeführt – von Prompts über Pläne bis hin zu Tools. Dies erlaubt eine präzise Wiederherstellung, wenn etwas schiefgeht.
  • Sichere Rollbacks: Verwendet Rubrik Security Cloud, um Änderungen zurückzusetzen, unabhängig davon, ob es sich um Dateien, Datenbanken, Konfigurationen oder Repositorys handelt.
  • Breite Kompatibilität: Nahtlose Integration mit einer Vielzahl von Plattformen, APIs und Agenten-Erstellern, darunter Agentforce, Microsoft Copilot Studio und Amazon Bedrock Agents. So ist Agent Rewind mit jedem benutzerdefinierten KI-Agenten kompatibel.
The fact that AI is prone to errors has not yet become widely known. Blind trust is misplaced because hallucination is an inherent flaw of AI. This flaw is partly due to the fact that unreliable sources and fake news were often used during training. This problem is exacerbated in agentic AI.

Agentic AI is already a reality, supporting customer service, transactions, and production processes. However, when AI agents make mistakes—which they frequently do—companies lack the tools to understand and reverse unwanted actions. Rubrik’s new „Agent Rewind“ solution addresses this issue, making the use of AI safer and more controllable.

A recent Carnegie Mellon University study found that AI agents fail at nearly 70 percent of office tasks. They often become disoriented, select incorrect shortcuts, and have difficulty completing even simple, multi-step tasks. These shortcomings undermine their reliability and effectiveness.

The study provides a counterpoint to the growing enthusiasm for AI in the workplace. While large language models can automate certain clearly defined tasks, they are unable to handle multi-step processes or adapt to dynamic office environments, which significantly limits their immediate business value. Experts cited in the study point out that successfully deploying AI in businesses still requires extensive human oversight and intervention. This finding is reinforced by warnings from consulting firms that many agent-based AI projects are being delayed or canceled due to costs and unclear returns.

AI agents have caused unintended updates to data sets, disrupted workflows, and introduced faulty logic into production systems. Often, these malfunctions go unnoticed until forecasts stall, pipelines are interrupted, or sensitive data is compromised. These are not hallucinations. They are actions with real consequences.

For years, Rubrik has helped companies recover from ransomware, insider threats, and operational errors. The pattern is always the same: the damage happens quickly. The cause is unclear. Visibility is also fragmented. However, AI agents introduce a new dimension to the equation. They can identify mistakes faster and on a larger scale than humans can. While the damage is not always malicious, it can be just as costly. When an autonomous agent fails, the extent of the impact is often unknown until it’s too late.

As companies expand their use of AI agents, the potential for unintended changes grows exponentially, affecting more systems, data, and users than ever before. Without clear visibility, teams often remain unaware of changes until they are deeply embedded in critical workflows.

What is Agent Rewind?

Agent Rewind helps companies use agent-based AI with confidence by making AI actions visible, auditable, and reversible. It records every action, creates an audit trail back to the source prompt, and allows users to rewind if something goes wrong.

With Agent Rewind, you get:

  • Insight into high-risk actions that an agent performs in various applications
  • The ability to rewind when unwanted agent-based actions occur in relation to data and applications.

Agent Rewind offers more than just observability for AI agents. It’s resilience — and here’s why:

When agents deviate from the script

Rogue agents are not just a theoretical concept; they are already appearing in practice. For example, Replit’s AI agent, which was designed to accelerate software development, reportedly took a catastrophic turn during a production outage. It deleted the entire company database and then panicked. The damage was discovered too late to be undone.

Examples like this one should prompt you to think about your own vulnerability. Imagine the following scenario: You develop an offer agent. This agent updates a sales opportunity. In doing so, it modifies a field, breaking the link between the deal and the customer account. There is no warning or error message, nor an easy way to see what has changed. The problem remains invisible until it causes issues later on, requiring the deal desk to manually examine and clean up the data.

Now, imagine that you are using an agent to automate the onboarding process for employees. A faulty trigger causes hundreds of active users to lose access. The tech department is flooded with tickets, and the security department has no idea what triggered the change.

These aren’t bugs. They are agent actions with real, far-reaching operational consequences. Most teams are left in the dark when these occurrences happen, unable to find and undo the changes made by the agent.

Agent Rewind provides teams with a clear path back, from identifying the agent session to undoing the changes and providing context and control. Agent Rewind integrates seamlessly with various platforms and agent builders, including Agentforce, Microsoft Copilot Studio, Amazon Bedrock Agents, and any custom AI agent.

AI agents require extensive access and autonomy to increase productivity by 10 to 100 times. That is their strength — and their risk. How can you mitigate that risk? The answer is not to restrict your AI agents. It’s about creating guardrails that allow them to act quickly without relinquishing control.

„When companies consider investing in artificial intelligence, they often don’t consider the mistakes that AI agents can and will make,“ explains Johnny Yu, research manager at IDC. „Agentic AI introduces the concept of ’non-human error.‘ As with their human counterparts, companies should look for solutions that enable them to correct potentially catastrophic errors made by AI agents.“

With increasingly autonomous and results-oriented AI agents, the risk of unintended errors leading to operational failures increases,“ said Anneka Gupta, Rubrik’s Chief Product Officer. „Agent Rewind integrates Predibase’s advanced AI infrastructure with Rubrik’s recovery capabilities, enabling organizations to deploy agent-based AI with confidence. Organizations now have a clear process to track, review, and safely undo unwanted AI actions.“

AI agents have significant potential, but, like humans, they are prone to errors that cause problems such as unintended business interruptions. Recent incidents involving faulty AI agents have highlighted a variety of issues, ranging from technical malfunctions and legal problems to the deletion of entire production databases. A recent study found that AI agents are often disoriented, choose the wrong shortcuts, and have difficulty performing simple, multi-step tasks. These shortcomings compromise the reliability and effectiveness of AI agents.

Agent Rewind makes previously difficult-to-trace AI actions visible, verifiable, and reversible. It creates an audit trail with immutable snapshots that allow for secure rollback. Current observability tools only show what happened, not why it happened or how risky actions can be reversed.

„Agent Rewind bridges the gap between what happened, why it happened, and how it can be reversed,“ said Chad Pallett, chief information security officer at BioIVT, a global research partner and provider of biospecimen solutions for drug and diagnostic development. „When using AI, observation and secure recovery are necessary. Rubrik and Predibase offer not only data security and model speed but also the ability to recover AI. In a market that demands true observability and recoverability, Agent Rewind is the answer I’ve been waiting for.“

When AI fails, Agent Rewind offers the following:

  • Contextual visibility: It captures agent behavior, tool usage, and their impact. Every action is put into context and traced back to its cause, from prompts to plans to tools. This allows for precise recovery when something goes wrong.
  • – Secure rollbacks: Uses the Rubrik Security Cloud to roll back changes involving files, databases, configurations, or repositories.
  • Broad compatibility: Agent Rewind seamlessly integrates with various platforms, APIs, and agent builders, including Agentforce, Microsoft Copilot Studio, and Amazon Bedrock Agents. This makes Agent Rewind compatible with any custom AI agent.
Der neue Senior Director Partner Sales bei NetApp, Henning Rahe, erklärt im SSCG-Podcast mit Carolina Heyder, wie das Mittelstandsgeschäft gemeinsam mit Partnern gestärkt werden soll. NetApp’s new Senior Director Partner Sales, Henning Rahe, explains in the SSCG Podcast with Carolina Heyder how the company plans to strengthen its midmarket business with partners.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner