Daten sind das Rückgrat der IT. Aktuell wird das Thema Datenmanagement durch die Trends Data Fabric, Cloud, Tracking und Reporting bestimmt, glaubt Andreas Engel, VP und Geschäftsführer Syniti, DACH/MEE.

Data is the backbone of IT. Data management is driven by the trends of data fabric, cloud, tracking and reporting, believes Andreas Engel, VP and Managing Director Syniti, DACH/MEE.

Datenmanagement muss sich gestiegenen Erwartungen anpassen. Im neuen Jahr dreht sich alles um das Stichwort Bedarf. Besonders fünf Trends verdienen besonderes Augenmerk:

Datenkataloge und Datenmanagement-Tools werden obsolet (sofern sie nicht Teil größerer Plattformen sind)

Vor einigen Jahren äußerten die Analysten von Gartner, dass Datenkataloge der letzte Schrei im Bereich Datenmanagement und Datenanalyse seien. An sich ist dieses Konzept nicht neu: eine gemeinsame Definition für alle Geschäftsbegriffe, Ziele, Datensätze und Systeme ist so notwendig wie vorteilhaft. Im Moment ist jedoch der Übergang von einfachen Taxonomien hin zu Ontologien zu beobachten.

Die Entwicklung tendiert also zu einem wirklichen Verständnis der Beziehungsklassen und der Struktur von Daten und Regeln, sowie zur Festlegung von Beschränkungen für die Verwaltung der Daten. Übergeordnet geht es also um weit mehr als nur um eine reine Klassifizierung. Unternehmen haben dies vereinzelt bereits implementiert, allerdings oft nur in Silos und nicht über Geschäftsbereiche hinweg.

Einzelne Tools, die nur eine Funktion erfüllen, werden aber nicht ausreichen, um den wachsenden Herausforderungen im Datenmanagement gerecht zu werden. Selbst Definitionen sowie Kriterien, die von Analysten zur Klassifizierung der Branchenführer verwendet werden, sind einem dynamischen Wandel unterzogen.

Begriffe wie etwa „Augmented“ oder „Discovery“ werden klassischen Kategorien (Datenqualität, Integration, Stammdatenmanagement) vorangestellt, um die Anforderungen und den vernetzten Charakter dieser Produkte zu betonen. Es ist zu erwarten, dass einige der langjährigen Marktführer im kommenden Jahr ins Hintertreffen geraten und die Innovatoren hier insgesamt die Führung übernehmen.

Goodbye, Data-Mesh-Architekturen: der Data-Fabric Ansatz gewinnt an Attraktivität

Die Data-Mesh-Architektur ist eine Strategie zur Dezentralisierung der Daten – mit dem Ziel, Kohärenz zwischen verschiedenen Geschäftsbereichen herzustellen. Sie ist in erster Linie personenorientiert. In der Regel sind Datenexperten involviert, die sich mit dem Thema befassen, Informationen kennzeichnen, Regeln entwerfen sowie verstehen, wer zu den Daten beiträgt, um insgesamt ein besseres Bewusstsein dafür zu schaffen, wie Daten auf Unternehmensebene genutzt werden können.

Im Gegensatz dazu ist ein Data-Fabric-Ansatz stärker automatisiert. Er nutzt KI/ML und ist nicht auf erfahrene Data-Scientists angewiesen. Dieses Entwurfsmuster wird für Unternehmen immer wichtiger werden. Unternehmen, die nicht bereit sind, zu einem automatisierten Ansatz übergehen, werden nicht mithalten können und nicht in der Lage sein, den gesamten potenziellen Wert Ihrer Systeme und Daten zu erschließen.

Datenmanagement in der Cloud gewinnt überragende Bedeutung

Für Unternehmen, die sich von althergebrachten Datenmanagementprodukten verabschieden wollen, bieten sich jetzt viel mehr Möglichkeiten, da immer mehr Lösungen cloud-nativ werden. Diese Lösungen sind auf Erweiterbarkeit und Integration ausgelegt und bieten die Möglichkeit, ein „Best-of-Breed“-Lösungspaket zu erstellen, das exakt auf die Bedürfnisse eines Kunden zugeschnitten ist.

Wenn wir über Cloud-Infrastruktur, Integration, Data Lakes, Analyseplattformen etc. nachdenken, wird deutlich, dass Kunden zunehmend in der Lage sein möchten zu prüfen, wie sie diese Funktionen zwischen strategischen Anwendungsanbietern und ihren Cloud-Plattformanbietern kombinieren können.

Ein Kunde, der die Entscheidung getroffen hat, seine IT-Infrastruktur in die Cloud zu verlagern, wird einem Cloud-Anbieter präferieren, der nicht nur Rechen- und Speicherleistung, sondern auch Datenmanagementlösungen und Datendienste anbietet, die seine Geschäftsprozesse beschleunigen. Diese Dienste müssen im Hinblick darauf betrachtet werden, wie gut sie mit Anwendungen des Kerngeschäfts, die auf der entsprechenden Cloud-Plattform ausgeführt werden, zusammenarbeiten.

Die Möglichkeit, Kernanwendungen mit umfangreichen Funktionen über die Infrastruktur hinaus zu erweitern, stellt sicher, dass der Wechsel die besten Resultate bringt und nicht nur einen bloßen Austausch von Investitionsausgaben mit Betriebsausgaben darstellt. Aus diesem Grund werden Plattformen, Anwendungen und Tools, die diese Integration und Erweiterung beschleunigen und vereinfachen, insgesamt stärker ins Blickfeld des Interesses rücken.

Auf Augenhöhe: Nachfrage nach Reporting und Trackingfunktionen von Daten steigt

Datenmanagement und Datenmigration gehen mit einem großen Informationsfluss einher. Für eine optimale Lösung können mehrere Anwendungsanbieter sowie Cloud-Anbieter miteinbezogen sein. Um all dies in den Griff zu bekommen, benötigen Unternehmen ein besseres Verständnis über den Zustand der Daten in ihren Systemen sowie die Auswirkungen, die dieser Status Quo auf das Unternehmen hat. Reporting und Tracking von Daten ermöglicht es, den Zustand der Daten zu beurteilen sowie Probleme zu beheben, bevor sie eintreten.

Das Konzept stammt ursprünglich aus dem DevOps-Bereich und nutzt die Fähigkeit, Silos zwischen Entwicklung und IT-Betrieb zu beseitigen, um eine kooperative, schnelle und iterative Produktbereitstellung zu ermöglichen. Die Beobachtung und das Reporting der Daten lehnt sich im Grunde an die Vorteile von DevOps an und bringt diese Vorteile mit Blick auf unternehmenskritische Daten zur Anwendung.

Datentracking stellt einen Ansatz dar, der Organisationen hilft, wirklich zu verstehen, wie gut ihre Daten das Geschäft unterstützen.

Wenn Unternehmen ihre Teams nicht in die Lage versetzen, die Auswirkungen von Daten auf das Geschäft allumfassend zu verstehen, und ihnen ferner nicht die erforderlichen Tools zur Verfügung stellen, um etwaige Probleme zu lösen, werden sie nicht effizient agieren.

Nachweise geschäftlicher Auswirkungen: Erwartungshaltung der Kunden steigt

Anbieter müssen in der Lage sein, die geschäftlichen Auswirkungen der Software auf das Unternehmen und den mit der Implementierung verbundenen ROI aufzuzeigen. Sie müssen Wege finden, einen Bezug zu den Elementen herzustellen, die ein Unternehmensvorstand oder der CEO eines Kunden als Schlüsselkennzahlen verwenden. Wenn Anbieter nicht in der Lage sind, einen klaren Bezug zum tatsächlichen Wert herzustellen, werden sie ihre Software langfristig nicht verkaufen können.

Data management must adapt to new expectations. In 2023 everything revolves around the keyword demand. Five trends in particular deserve special attention:

Data catalogs and data management tools are becoming obsolete (unless they are part of larger platforms)

A few years ago, analysts at Gartner commented that data catalogs were all the rage in data management and data analytics. In itself, this concept is not new: a common definition for all business terms, goals, data sets and systems is as necessary as it is beneficial. At the moment, however, we are seeing the transition from simple taxonomies to ontologies.

Thus, the evolution tends towards a real understanding of the relationship classes and the structure of data and rules, as well as towards the definition of constraints for the management of the data. Overarching, then, is much more than mere classification. Companies have implemented this in isolated instances, but often only in silos and not across business units.

However, individual tools that only fulfill one function will not be sufficient to meet the growing challenges in data management. Even definitions as well as criteria used by analysts to classify industry leaders are undergoing dynamic change.

Terms such as „augmented“ or „discovery“ are being prefixed to classic categories (data quality, integration, master data management) to emphasize the requirements and interconnected nature of these products. It is to be expected that some of the long-standing market leaders will fall behind in the coming year and that the innovators will take the lead here overall.

Data fabric approach is gaining traction

Data mesh architecture is a strategy for decentralizing data – with the goal of creating coherence between different business units. It is primarily people-oriented. It typically involves data experts who study the subject, tag information, design rules, as well as understand who contributes to the data to create an overall better awareness of how data can be used at the enterprise level.

In contrast, a data fabric approach is more automated. It leverages AI/ML and does not rely on an experienced data scientist. This design pattern will become increasingly important for enterprises. Companies that are not ready to move to an automated approach will not be able to keep up and will not be able to unlock the full potential value of your systems and data.

Data management in the cloud gains importance

For organizations looking to move away from legacy data management products, there are now many more options as more solutions become cloud-native. These solutions are designed for extensibility and integration, and offer the ability to create a „best-of-breed“ solution set tailored to a customer’s exact needs.

When we think about cloud infrastructure, integration, data lakes, analytics platforms, etc., it’s clear that customers increasingly want to be able to look at how they can combine these capabilities between strategic application providers and their cloud platform providers.

A customer who has made the decision to move their IT infrastructure to the cloud will prefer a cloud provider that offers not only compute and storage power, but also data management solutions and data services that accelerate their business processes. These services must be considered in terms of how well they work with core business applications running on the appropriate cloud platform.

The ability to extend core applications with rich capabilities beyond the infrastructure ensures that the change will yield the best results and not be a mere exchange of capital expenditures with operational expenditures. For this reason, platforms, applications and tools that accelerate and simplify this integration and extension will become more prominent overall.

Demand for reporting and tracking capabilities of data is on the rise

Data management and data migration involve a large flow of information. For an optimal solution, multiple application providers as well as cloud providers may be involved. To get a handle on all of this, companies need a better understanding of the state of the data in their systems, as well as the impact that status quo has on the business. Reporting and tracking of data makes it possible to assess the state of the data as well as fix problems before they occur.

The concept originated in DevOps and leverages the ability to eliminate silos between development and IT operations to enable collaborative, rapid and iterative product delivery. Data monitoring and reporting basically borrows from the benefits of DevOps and brings those benefits to bear with mission-critical data in mind.

Data tracking represents an approach that helps organizations truly understand how well their data is supporting the business.

If organizations don’t enable their teams to understand the business impact of data in an all-encompassing way, and further don’t provide them with the tools they need to resolve any issues, they won’t operate effectively.

Evidence of business impact: Customer expectations are rising

Vendors need to be able to demonstrate the business impact of the software on the organization and the ROI associated with the implementation. They must find ways to relate to the elements that a corporate board or a customer’s CEO uses as key metrics. If vendors can’t clearly relate to real value, they won’t be able to sell their software in the long run.

 

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner