Aron Brand, CTO and Saimon Michelson, VP Alliances at CTERA
Aron Brand, CTO von CTERA, argumentiert, dass das SaaS-Mageddon real ist, aber nicht das Ende der Software bedeutet. Aron Brand CTO CTERA argues that the SaaS-mageddon is real, but it’s not the end of software.
Der jüngste Rückgang der Bewertungen von Anbietern von Software as a Service (SaaS) an den Börsen hat eine Debatte in der gesamten Technologiebranche ausgelöst, wie Aron Brand, CTO von CTERA, auf LinkedIn betont. Obwohl die Unternehmen Wachstumsraten aufweisen, die in den vergangenen Jahren noch hohe Bewertungsmultiplikatoren gerechtfertigt hätten, haben die Investoren diese Unternehmen nach unten bewertet. Diese Verschiebung spiegelt keine Panik wider, sondern eine Neubewertung der grundlegenden Annahmen über Unternehmenssoftware.

Über ein Jahrzehnt lang basierten die Bewertungen von SaaS auf einer bestimmten Prämisse: Die Arbeitsabläufe von Unternehmenssoftware waren von Natur aus stabil. Die Wechselkosten waren hoch, die Kundenabwanderung blieb gering und die Einnahmen skalierten vorhersehbar mit der Anzahl der Kunden. Die Software positionierte sich zwischen den Benutzern und ihren Daten und machte die Schnittstelle für das Erreichen der gewünschten Ergebnisse unverzichtbar.

Diese Positionierung schuf scheinbar verteidigungsfähige Cashflows. Die Umsätze wiederholten sich, die Margen stiegen und das Wachstum verstärkte sich auf natürliche Weise. Investoren zahlten hohe Multiplikatoren, weil sie davon ausgingen, dass diese Eigenschaften bestehen bleiben würden.

Allerdings basierten diese Bewertungen auf einer unausgesprochenen Annahme: dass Unternehmen weiterhin fragmentierte Arbeitsabläufe tolerieren würden. Jahrelang akzeptierten Unternehmen eine Landschaft, in der die Arbeit die Navigation durch Dutzende von separaten SaaS-Tools erforderte, die jeweils unterschiedliche Schnittstellen, Logik, Berechtigungen und Datensilos hatten. Eine Integration gab es zwar, aber sie blieb oberflächlich. Die tatsächliche Integrationsarbeit leisteten die Benutzer kognitiv, indem sie zwischen den Systemen wechselten und Informationen manuell abglichen.

Diese Toleranz hat sich zersetzt. Als die Unternehmen immer mehr Systeme ansammelten, wurden die Kosten deutlich: kognitive Belastung, Schulungsaufwand, Kontextwechsel, brüchige Übergaben und manuelle Koordinationsarbeit. Unternehmen streben zunehmend nach Ergebnissen, die sich über mehrere Systeme erstrecken, anstatt sich auf einzelne Schnittstellen zu beschränken.

Das Aufkommen von KI-Agenten, die in der Lage sind, Workflows direkt über bestehende Systeme hinweg auszuführen, hat drei gleichzeitige Auswirkungen. Erstens verliert die Benutzeroberfläche ihre zentrale Bedeutung als Werttreiber. Wenn Agenten über verschiedene Tools hinweg lesen, schreiben, abgleichen und agieren können, verlagert sich der Wert von den Bildschirmen hin zu den zugrunde liegenden Funktionen und dem Datenzugriff.

Zweitens wird Integration zu einer Grundvoraussetzung und nicht mehr nur zu einer Funktion. Benutzer akzeptieren CSV-Exporte oder das Wechseln zwischen Registerkarten nicht mehr als Integration. Sie erwarten, dass Systeme mit gemeinsamen Daten arbeiten und sich automatisch koordinieren.

Drittens sinken die Replikationskosten. Wenn die Softwareentwicklung beschleunigt wird und KI oberflächliche Funktionen schnell reproduzieren kann, reicht eine geringe Differenzierung nicht mehr aus, um die Preisgestaltungsmacht aufrechtzuerhalten. Die Wechselkosten sinken, wenn konkurrierende Produkte oder interne Tools schnell erstellt werden können.

Diese Dynamik erfordert keinen sofortigen Umsatzrückgang. Sie erfordert lediglich, dass Investoren davon überzeugt sind, dass das SaaS-Modell in fünf bis zehn Jahren wesentlich weniger verteidigungsfähig sein wird als bisher angenommen. Allein diese Überzeugung rechtfertigt eine Neubewertung.

Der Wandel bedeutet nicht das Ende von SaaS als Bereitstellungsmodell. Unter Druck gerät eine bestimmte Kategorie: UI-lastige, workfloworientierte Tools mit begrenztem geistigen Eigentum, schwachen Integrationsfähigkeiten und Funktionen, die schnell repliziert werden können.

Bestimmte Kategorien könnten eine steigende Nachfrage verzeichnen. Speichersysteme und Infrastruktur – Datenbanken, Abfrage-Engines, Datenstrukturen und Dateisysteme – werden immer wichtiger, da KI-Agenten in großem Maßstab eingesetzt werden. Diese Systeme werden nicht verdrängt, sondern zu Abhängigkeiten. Saubere, zuverlässige Daten, die unabhängig von Anwendungsschichten existieren, gewinnen an Wert, wenn Maschinen autonom agieren.

Unternehmen, die auf proprietären Daten aufbauen, können ebenfalls davon profitieren. Wenn Wettbewerbsvorteile aus Daten resultieren, die nicht einfach nachgebildet werden können, ist eine kostengünstigere Softwareentwicklung eher ein Vorteil als eine Bedrohung. Die Effizienz bei Vertrieb und Monetarisierung verbessert sich.

Sicherheits- und Governance-Software gewinnt an Bedeutung, da autonome KI-Systeme in großem Umfang und mit hoher Geschwindigkeit eingesetzt werden. Berechtigungen, Überprüfbarkeit, Überwachung und die Durchsetzung von Richtlinien werden zu Anforderungen für den Einsatz von KI-Agenten in Unternehmen. Die Möglichkeit, Fehler in großem Umfang zu machen, erfordert Schutzmaßnahmen.

Software, deren Hauptwert aus der Vermittlung der Interaktion zwischen Mensch und Daten stammt, steht vor der größten Neubewertung. Einige Unternehmen haben darauf reagiert, indem sie versuchen, den Zugriff von KI-Agenten auf Kundendaten zu kontrollieren oder zu monetarisieren. Dieser Ansatz führt zu Reibungsverlusten, ohne eine Verteidigungsfähigkeit zu schaffen. Wenn die Daten dem Kunden gehören, beschleunigen Versuche, den Zugriff von Agenten zu besteuern, zu drosseln oder zu beschränken, die Disintermediation. Agenten werden Beschränkungen umgehen, Funktionen replizieren oder Daten in Umgebungen mit weniger Zugriffsbeschränkungen verlagern.

Die Neubewertung spiegelt einen grundlegenden Unterschied zwischen zwei Kategorien von Software wider. Die eine Kategorie erzielte Wert durch die Vermittlung von Human-in-the-Loop-Workflows über UI-lastige Produkte. Die andere verwaltet die Infrastruktur, besitzt oder schützt Daten, setzt Richtlinien durch oder koordiniert Systeme. Die erste Kategorie rechtfertigt niedrigere Multiplikatoren aufgrund der geringeren Verteidigungsfähigkeit zukünftiger Cashflows in einem Umfeld von Agenten und Automatisierung. Die zweite Kategorie kann höhere Multiplikatoren rechtfertigen.

Für Unternehmen, die Unternehmenssoftware entwickeln oder in diese investieren, hat sich die Frage von Umsatzwachstumsraten hin zur Reproduzierbarkeit verlagert. In einem Umfeld, in dem die Kosten für die Softwareentwicklung sinken, Arbeitsabläufe automatisiert werden und Kunden sich gegen eine Vermittlung zwischen ihren Daten und ihren Systemen wehren, erfordert die Verteidigungsfähigkeit mehr als nur Schnittstellendesign und Workflow-Optimierung. Die Neubewertung des Marktes spiegelt diese Erkenntnis wider.

The recent decline in Software as a Service (SaaS) valuations has sparked debate across the technology sector, points out Aron Brand, CTO CTERA on LinkedIn. Despite companies maintaining growth metrics that would have commanded premium multiples in prior years, investors have repriced these businesses downward. This shift reflects not panic, but a reassessment of fundamental assumptions about enterprise software.

For over a decade, SaaS valuations rested on a specific premise: enterprise software workflows were inherently sticky. Switching costs were high, customer churn remained low, and revenue scaled predictably with customer headcount. The software positioned itself between users and their data, making the interface indispensable for achieving desired outcomes.

This positioning created what appeared to be defensible cash flows. Revenue recurred, margins expanded, and growth compounded naturally. Investors paid high multiples because they believed these characteristics would persist.

However, an unstated assumption underpinned these valuations: that enterprises would continue tolerating fragmented workflows. For years, organizations accepted a landscape where work required navigating dozens of discrete SaaS tools, each with distinct interfaces, logic, permissions, and data silos. Integration existed, but remained shallow. Users performed the actual integration work cognitively, switching between systems and reconciling information manually.

That tolerance has eroded. As organizations accumulated more systems, the costs became evident: cognitive load, training overhead, context switching, brittle handoffs, and manual coordination work. Organizations increasingly seek outcomes that span systems, rather than outcomes confined to individual interfaces.

The emergence of AI agents capable of executing workflows directly across existing systems introduces three simultaneous effects. First, the user interface loses centrality as a value driver. When agents can read, write, reconcile, and act across tools, value shifts from screens toward underlying capabilities and data access.

Second, integration becomes a baseline expectation rather than a feature. Users no longer accept CSV exports or tab-switching as integration. They expect systems to operate on shared data and coordinate automatically.

Third, replication costs decline. When software development accelerates and AI can reproduce surface-level features rapidly, shallow differentiation becomes insufficient for maintaining pricing power. Switching costs fall when competing products or internal tools can be created quickly.

This dynamic does not require immediate revenue decline. It only requires investors to believe that five to ten years forward, the SaaS model will be substantially less defensible than previously assumed. That belief alone justifies a valuation reset.

The shift does not signal the end of SaaS as a delivery model. What faces pressure is a specific category: UI-heavy, workflow-centric tools with limited intellectual property, weak integration capabilities, and features that can be replicated quickly.

Certain categories may see increased demand. Storage systems and infrastructure—databases, query engines, data fabrics, and filesystems—become more critical as AI agents operate at scale. These systems do not face displacement; they become dependencies. Clean, authoritative data that exists independently of application layers gains value when machines act autonomously.

Businesses built on proprietary data may also benefit. When competitive advantage derives from data that cannot be easily recreated, cheaper software development serves as an enabler rather than a threat. Distribution and monetization efficiency improve.

Security and governance software faces increased relevance as autonomous AI systems operate at scale and speed. Permissioning, auditability, monitoring, and policy enforcement become requirements for enterprise AI agent deployment. The capacity to make errors at scale necessitates guardrails.

Software whose primary value derived from mediating human-data interaction faces the most significant reassessment. Some companies have responded by attempting to control or monetize AI agent access to customer data. This approach introduces friction without creating defensibility. When data belongs to the customer, attempts to tax, throttle, or gate agent access accelerate disintermediation. Agents will route around restrictions, replicate functionality, or relocate data to environments with fewer access constraints.

The repricing reflects a fundamental distinction between two categories of software. One category captured value by mediating human-in-the-loop workflows through UI-heavy products. The other manages infrastructure, owns or protects data, enforces policy, or coordinates systems. The first category warrants lower multiples due to reduced defensibility of future cash flows in an environment of agents and automation. The second may warrant higher multiples.

For companies building or investing in enterprise software, the question has shifted from revenue growth rates to reproducibility. In an environment where software development costs decline, workflows automate, and customers resist intermediation between their data and their systems, defensibility requires more than interface design and workflow optimization. The market repricing reflects this recognition.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner