Unified Observability beseitigt Datensilos, erklärt Alexander Zachow, Regional Vice President EMEA Central bei Dynatrace.

Unified Observability eliminates data silos, explains Alexander Zachow, Regional Vice President EMEA Central at Dynatrace.

Unternehmen sehen sich heute mit einer stetig wachsenden Datenflut konfrontiert. Viele kämpfen zudem mit einer Vielzahl unterschiedlicher Monitoring-Tools, um diese Datenmengen in den Griff zu bekommen und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die daraus resultierenden Datensilos erschweren es den Unternehmen jedoch zunehmend, die Performance und Verfügbarkeit ihrer Anwendungen zu optimieren.

Bekämpfung des Tool-Wildwuchses

Beim so genannten Tool-Wildwuchs (Tool Sprawl) setzen Unternehmen häufig eine Vielzahl unterschiedlicher IT-Werkzeuge ein, die jeweils für bestimmte Anwendungsfälle konzipiert sind. Diese Situation entsteht häufig, wenn Unternehmen Multi-Cloud-Umgebungen für verschiedene Business Services einführen. Die Datenflut in diesen Umgebungen zwingt die Fachkräfte dazu, nach effizienten Methoden zur Verwaltung dieser Daten zu suchen. Infolgedessen greifen sie für jeden Anwendungsfall auf ein anderes Tool zu.

Diese Werkzeuge und Dienste sind oft isoliert und teuer, sowohl in finanzieller Hinsicht als auch in Bezug auf die Produktivität. Wenn beispielsweise zehn verschiedene Tools eingesetzt werden, müssen sich die Fachkräfte in die Funktionsweise jeder einzelnen Anwendung einarbeiten, sich ständig weiterbilden, sicherstellen, dass jede Software auf dem neuesten Stand ist, Schwachstellen beheben und vieles mehr.

Dieser Verwaltungs- und Wartungsaufwand bindet Zeit und Ressourcen, die eigentlich für wichtigere Aufgaben genutzt werden könnten. Eine fragmentierte Tool-Landschaft führt zu inkonsistenten Datenanalysen, erhöhtem manuellen Aufwand und schlecht koordinierten Teams.

Den Datensilos in den Speicherrepositories und Monitoring-Tools der einzelnen Teams fehlt der Kontext, der die Beziehungen und Abhängigkeiten in hybriden und Multi-Cloud-Ökosystemen widerspiegelt. Ohne diesen Kontext ist es schwierig, zwischen den Symptomen und der Ursache eines Problems zu unterscheiden, was dazu führt, dass Zeit mit der Nachverfolgung von Fehlalarmen, doppelten Alarmen oder Problemen mit niedriger Priorität verschwendet wird.

Hinzu kommt, dass in stark regulierten Branchen wie dem Finanzsektor und dem Gesundheitswesen die Einhaltung der Daten-Governance und des Datenschutzes eine besondere Herausforderung darstellt. Dennoch setzen viele Unternehmen immer noch mehrere Tools und Software-Services für ihr Monitoring ein. Laut einer aktuellen Studie von Dynatrace umfasst eine durchschnittliche Multi-Cloud-Umgebung zwölf verschiedene Plattformen und Services.

Wechsel von traditionellem Monitoring zu Unified Observability

Der Wechsel vom traditionellen Monitoring hin zu Unified Observability unterstützt Unternehmen dabei, die oben genannten Herausforderungen, die durch den Tool-Wildwuchs entstanden sind, zu bewältigen. Häufig werden Monitoring und Observability gleichgesetzt, es gibt jedoch wichtige Unterschiede. Während beide Systeme Daten sammeln, analysieren und nutzen, um den Fortschritt einer Anwendung oder eines Dienstes zu verfolgen, geht Observability einen Schritt weiter und hilft Fachleuten zu verstehen, was in einer Multi-Cloud-Umgebung im Kontext passiert.

Durch das Sammeln von Telemetriedaten von Endpunkten und Diensten, gekoppelt mit speziellen Analysefunktionen, ermöglicht eine Observability-Lösung die Messung des Zustands, der Leistung und des Verhaltens eines Systems.

Teams können Einblicke in ihre lokalen, hybriden und Multi-Cloud-Systeme gewinnen und analysieren, wie sich Anpassungen an oder innerhalb dieser Technologien – selbst kleinste Änderungen an Microservices, Code oder neu entdeckten Sicherheitslücken – auf die Erfahrungen der Endbenutzer und die Business Performance auswirken.

Observability basiert im ersten Schritt auf den folgenden drei Säulen:

– Logs: Protokollierung von Vorgängen innerhalb der Software

– Metriken: Zählungen, Messungen und Berechnungen der Anwendungsleistung und Ressourcennutzung

– Traces: Der Weg, den eine Transaktion durch die Anwendungen, Dienste und Infrastruktur eines Systems von einem Knoten zum anderen nimmt.

Neben den klassischen drei Säulen umfassen Observability-Daten auch Ereignisse und andere Signale, die von den Komponenten und Diensten des Systems erzeugt werden.

Beobachtbarkeit ist jedoch nicht gleich Beobachtbarkeit. Moderne Observability erfordert einen ganzheitlichen Ansatz für das Sammeln, Verarbeiten und Analysieren von Daten. Dieser muss über Protokolle, Metriken und Traces hinausgehen und sich auf Sicherheit, Benutzererfahrung und geschäftliche Auswirkungen konzentrieren. Im Folgenden sind die wichtigsten Kriterien aufgeführt, die eine Observability-Lösung erfüllen sollte:

– Eine einheitliche Analyse- und Automatisierungsplattform für Beobachtbarkeits-, Sicherheits- und Geschäftsdaten

– Erfassung und Verarbeitung aller Daten aus allen Quellen unter Beibehaltung des Kontextes in Bezug auf ihre Topologie und Abhängigkeiten

– die Bereitstellung von kostengünstiger und skalierbarer Datenanalyse

– KI als Kern der Plattform, die verschiedene Techniken wie prädiktive, kausale und generative KI umfasst

– Fähigkeit zur zuverlässigen Automatisierung von Geschäfts-, Entwicklungs-, Sicherheits- und Betriebsprozessen

– Die Fähigkeit, Sicherheitsschwachstellen in Umgebungen im laufenden Betrieb zu erkennen und zu beheben, Angriffe in Echtzeit abzuwehren und datengestützte Sicherheitsanalysen durchzuführen.

– Die Erweiterbarkeit, um Observability-, Sicherheits- und Geschäftsdaten zu nutzen, um benutzerdefinierte digitale Geschäftsanwendungen zu unterstützen.

Advanced Observability bietet eine datenbasierte Methodik für den gesamten Software-Lebenszyklus. Sie zentralisiert alle Telemetriedaten von Metriken und Ereignissen über Logs bis hin zu Traces in einer zentralen Plattform. Dadurch können Unternehmen die Datenerfassung und -analyse optimieren, die Zusammenarbeit zwischen Teams verbessern, die mittlere Reparaturzeit verkürzen und die Anwendungsperformance und -verfügbarkeit steigern. Gleichzeitig werden Probleme gelöst, die durch den Einsatz zu vieler verschiedener Monitoring-Tools entstehen, indem Datensilos aufgelöst und der Verwaltungsaufwand erheblich reduziert werden.

Enterprises today are faced with an ever-growing flood of data. Many are also struggling with a multitude of different monitoring tools to get a handle on this data and prepare it for informed decisions. However, organizations have difficulties to optimize the performance and availability of their applications monitoring these tools and the resulting data silos.

Combating tool sprawl

Tool sprawl often occurs when organizations deploy a large number of different IT tools, each designed for a specific use case. This situation often arises when organizations adopt multi-cloud environments for different business services. The flood of data in these environments forces professionals to look for efficient ways to manage this data. As a result, they turn to a different tool for each use case.

These tools and services are often siloed and expensive, both financially and in terms of productivity. Using ten different tools, for example, requires specialists to learn the functionality of each application, receive ongoing training, keep each software up to date, fix vulnerabilities, and more.

This management and maintenance effort consumes time and resources that could be spent on more important tasks. A fragmented tool landscape leads to inconsistent data analysis, increased manual effort, and poorly coordinated teams.

The data silos in each team’s storage repositories and monitoring tools lack the context that reflects the relationships and dependencies in hybrid and multi-cloud ecosystems. Without this context, it is difficult to distinguish between the symptoms and the root cause of a problem, resulting in wasted time chasing false positives, duplicate alerts, or low-priority issues.

What’s more, in highly regulated industries such as finance and healthcare, data governance and privacy compliance is especially challenging. Yet many organizations still use multiple tools and software services for monitoring. According to a recent study by Dynatrace, the average multi-cloud environment includes twelve different platforms and services.

Moving from traditional monitoring to unified observability

Moving from traditional monitoring to unified observability helps organizations overcome the challenges of tool sprawl mentioned above. Monitoring and observability are often used interchangeably, but there are important differences. While both collect, analyze and use data to track the progress of an application or service, observability goes a step further to help professionals understand what is happening in context across a multi-cloud environment.

By collecting telemetry data from endpoints and services, coupled with specialized analytics, an observability solution makes it possible to measure the health, performance, and behavior of a system.

Teams can gain insight into their on-premises, hybrid, and multi-cloud systems and analyze how adjustments to or within these technologies-even the smallest changes to microservices, code, or newly discovered security vulnerabilities-affect end-user experience and business performance.

Observability is built on the following three pillars as a first step:

– Logs: Logging of what happens within the software

– Metrics: Counts, measurements and calculations of application performance and resource usage

– Traces: The path a transaction takes through a system’s applications, services, and infrastructure from one node to another.

In addition to the classic three pillars, observability data includes events and other signals generated by the system’s components and services.

But not all observability is the same. Modern observability requires a holistic approach to data collection, processing and analysis. It must go beyond logs, metrics, and traces to focus on security, user experience, and business impact. Here are the key criteria an observability solution should meet:

– A unified analytics and automation platform for observability, security, and business data

– Capture and process all data from all sources while maintaining context regarding its topology and dependencies

– Provide cost-effective and scalable data analytics

– AI at the core of the platform, including various techniques such as predictive, causal and generative AI

– The ability to reliably automate business, development, security, and operational processes

– The ability to detect and remediate vulnerabilities in live environments, defend against attacks in real time, and perform data-driven security analysis

– The extensibility to leverage observability, security, and business data to support custom digital business applications.

Advanced Observability provides a data-driven methodology for the entire software lifecycle. It centralizes all telemetry data-from metrics and events to logs and traces-into a single platform. As a result, organizations can streamline data collection and analysis, improve team collaboration, reduce mean time to repair, and increase application performance and availability. At the same time, it solves the problems of using too many different monitoring tools by breaking down data silos and significantly reducing administrative overhead.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner