Johannes Pape, Head of AI EMEA & LATAM NetApp
Der EU AI Act ist seit August 2025 in Kraft und sorgt für gemischte Reaktionen in der Wirtschaft. NetApp-Experte Johannes Pape erklärt, warum die neuen KI-Regeln eine Chance darstellen. Since its implementation in August 2025, the EU AI Act has sparked mixed reactions in the business world. NetApp expert Johannes Pape explains why the new AI rules present an opportunity.
Nominiert für die »WOMEN OF THE YEAR«-Awards 2025! Kategorie: IT – CxO 
Vote for Carolina:
https://www.fit-kongress.de/award Link anklicken/ zur Abstimmung/ jetzt starten /Women in IT/ CxO/ Carolina Heyder
Nominated for the „WOMEN OF THE YEAR“ Awards 2025! Category: IT – CxO
Vote for Carolina:
https://www.fit-kongress.de/award Click the link / to vote / start now / Women in IT / CxO / Carolina Heyder
Seit August 2025 gelten die Regeln des EU AI Act – und die Wirtschaft reagiert skeptisch. Mehr als die Hälfte der Unternehmen befürchtet Innovationseinschränkungen. Doch Johannes Pape, Head of AI EMEA & LATAM bei NetApp, sieht das anders: Der risikobasierte Ansatz der EU schaffe Vertrauen und Orientierung, anstatt Innovationen zu behindern. Voraussetzung ist jedoch eine durchdachte Datenstrategie mit klaren Governance-Strukturen.

„Der viel diskutierte EU AI Act wird Realität: Bereits seit Februar 2025 gelten die Vorgaben für die Kompetenz von KI-Betreibern sowie das Verbot bestimmter KI-Systeme und -Praktiken. Am 2. August 2025 ist es ernst geworden für die Unternehmenswelt: Die Regeln des europäischen Gesetzes über künstliche Intelligenz werden angewendet, und bei Verstößen drohen Geldbußen und Sanktionen. Die Wirtschaftswelt hat bisher mit sehr gemischten Gefühlen auf das europäische KI-Gesetz geblickt. Eine Deloitte-Umfrage im Herbst 2024 ergab, dass mehr als die Hälfte der befragten Unternehmen denkt, ihre Innovationsmöglichkeiten im Bereich KI werden durch die Regulierung eingeschränkt. Weniger als 20 Prozent glauben daran, dass sich der AI Act dahingehend positiv auswirken wird.

Erfolgversprechend: risikobasierter Ansatz

Doch die Sorgen, dass die neuen Regelungen die KI-Innovationskraft beeinträchtigen können, sind größtenteils unberechtigt. Stattdessen ist die Führungsrolle der EU bei der Erarbeitung von Rechtsvorschriften für den KI-Einsatz zu begrüßen. Sie verabschiedete im Juni 2024 die weltweit ersten verbindlichen Regelungen zur künstlichen Intelligenz. Damit hat sie sich als erste staatliche Institution weltweit der wichtigen Aufgabe gestellt, einen Rahmen für die verantwortungsvolle Nutzung von KI zu schaffen und somit das Vertrauen in die Technologie zu stärken.

Der risikobasierte Ansatz, demzufolge Unternehmen ihre KI-Systeme nach klassifizierten Risiken einordnen und passende Maßnahmen ergreifen müssen, ist dafür der richtige Weg. Er wird die Industrie langfristig gesehen bei der Implementierung von KI in Unternehmensprozesse unterstützen, anstatt sie – wie viele befürchten – zu behindern.

Der risikobasierte Ansatz der EU verpflichtet Unternehmen dazu, dafür zu sorgen, dass alle Daten ordnungsgemäß kategorisiert und nur wie erlaubt verwendet werden. Dies zu bewältigen, ist für Unternehmen ein äußerst komplexes Unterfangen – schon angesichts der riesigen Datenmengen, die täglich generiert werden. Diese Daten sind sowohl ein Produkt als auch ein Vermögenswert. Mit dem anhaltenden Höhenflug von KI wird ihr Status in den Unternehmen kontinuierlich weiter an Bedeutung gewinnen.

Unternehmenseigene Daten schützen

Um das Beste aus der KI herauszuholen und dabei die Compliance zu wahren, ist es deshalb von zentraler Bedeutung, die richtigen Schutzmaßnahmen für unternehmenseigene Daten zu ergreifen. Nur so lassen sich die Interessen des Gesetzgebers, der Bürger und der Wirtschaft vereinen. Organisationen, die Data Governance ins Zentrum ihrer Datenstrategie rücken, können die Vorteile dieser neuen Technologie optimal und gesetzeskonform nutzen. Darüber hinaus spielt auch Data Sovereignty eine wichtige Rolle, denn Firmen und Institutionen müssen darauf achten, dass ihre Daten trotz Cloud-Infrastruktur im Land bleiben und lokalen Compliance-Anforderungen entsprechen.

Die Datengrundlage entscheidet, ob Unternehmen ihren Compliance-Pflichten nachkommen und KI gesetzeskonform nutzen können. Daten sowie ihre Speicherung und ihr Einsatz nehmen eine herausragende Stellung im AI Act ein. Um die Grundrechte der Menschen zu schützen, legt das Gesetz besonderen Wert auf den Schutz personenbezogener Daten bei der Entwicklung und dem Einsatz von KI-Systemen. Es ergänzt die Datenschutzgrundverordnung (DSGVO) und enthält spezifische Anforderungen an die Datenverarbeitung im Kontext von KI. Systeme, insbesondere solche mit hohem Risiko, müssen transparent und nachvollziehbar sein. Dies beinhaltet die Dokumentation der Datenverarbeitung und die Möglichkeit, Entscheidungen, die von KI getroffen wurden, nachzuvollziehen.

Datengrundlage prüfen und optimieren

Die Anwendung des neuen EU-Gesetzes wird daher zum Anlass für Unternehmen, ihr Datenmanagement gründlich auf die Probe zu stellen und auch zu optimieren. Die Regulierungsinitiativen der EU und der Mitgliedstaaten tragen im Idealfall dazu bei, dass im europäischen Wirtschaftsraum eine solide Grundlage für ein wettbewerbsfähiges Ökosystem entsteht, indem sie Unternehmen dabei helfen, ihre Daten proaktiv und intelligent zu managen und zu schützen. NetApp unterstützt Organisationen – sowohl Regierungen als auch Unternehmen auf der ganzen Welt – dabei, die richtige Datengrundlage zu entwickeln, um Störungen im Einsatz von KI zu vermeiden und gleichzeitig wichtige Wettbewerbsvorteile zu generieren. Mithilfe unserer intelligenten Dateninfrastruktur können Unternehmen kritische Datenmanagement-Aufgaben wie Datenschutz, ganzheitliche Datennutzung und Datensicherheit automatisieren und möglichst effektiv bewältigen. Sie stellt sicher, dass die KI-Modelle auf der Grundlage von vertrauenswürdigen und genauen Datensätzen trainiert werden und die besten Ergebnisse liefern.

Fazit

Der EU AI Act markiert einen wichtigen Schritt hin zu einem vertrauenswürdigen und verantwortungsvollen Umgang mit künstlicher Intelligenz. Er schafft die Voraussetzungen für eine innovationsfreundliche Regulierung, die Unternehmen nicht ausbremst, sondern ihnen Orientierung gibt – gerade im Hinblick auf den Umgang mit Daten. Entscheidend ist, dass die Anforderungen praxistauglich bleiben und Unternehmen nicht durch übermäßige Bürokratie ausgebremst werden.

Gleichzeitig eröffnet das Gesetz die Chance, Data Governance und Datensouveränität als strategische Erfolgsfaktoren zu verankern. Wer jetzt die richtigen Weichen stellt, kann KI nicht nur regelkonform, sondern auch effektiv und nachhaltig im eigenen Unternehmen einsetzen.“

Since the EU AI Act took effect in August 2025, the economy has reacted skeptically. More than half of companies fear restrictions on innovation. However, Johannes Pape, the head of AI for Europe, the Middle East, and Latin America at NetApp, has a different perspective. He believes that the EU’s risk-based approach fosters trust and guidance rather than hindering innovation. However, a well-thought-out data strategy with clear governance structures is a prerequisite:

“The much-discussed EU AI Act is becoming a reality. Since February 2025, requirements have been in effect regarding the competence of AI operators and the prohibition of certain AI systems and practices. On August 2, 2025, the act began to affect the business world. The European AI Act’s rules are being applied, and violations are subject to fines and sanctions. Thus far, the business world has had mixed feelings about the European AI Act. A Deloitte survey from fall 2024 found that over half of surveyed companies believe that regulations restrict their opportunities for AI innovation. Fewer than 20 percent believe the AI Act will have a positive impact.

However, the concerns that the new regulations could hinder AI innovation are largely unfounded. Instead, the EU’s leadership role in developing AI regulations should be welcomed. In June 2024, the EU adopted the world’s first binding regulations on artificial intelligence. By doing so, the EU has taken on the important task of creating a framework for the responsible use of AI, becoming the first governmental institution to do so and thereby strengthening trust in the technology.

According to the risk-based approach, companies must categorize their AI systems by risk level and take appropriate measures. This is the right way to achieve this. In the long term, it will support the industry’s implementation of AI into business processes rather than hinder it, as many fear.

The EU’s risk-based approach requires companies to properly categorize all data and use it only as permitted. This is an extremely complex undertaking for companies, especially considering the vast amounts of data generated daily. This data is both a product and an asset. As AI continues to rise, its importance within companies will grow.

Protecting company data

To reap the benefits of AI while maintaining compliance, it is crucial to implement the appropriate protective measures for company-owned data. Only in this way can the interests of lawmakers, citizens, and the economy be reconciled. Organizations that prioritize data governance in their strategy can legally and effectively utilize the benefits of this technology. Furthermore, data sovereignty plays an important role because companies and institutions must ensure that their data remains in the country and complies with local regulations despite cloud infrastructure.

A solid data foundation is essential for companies to meet their compliance obligations and use AI legally. The AI Act prominently features data, as well as its storage and use. To protect individuals‘ fundamental rights, the law emphasizes the protection of personal data when developing and deploying AI systems. The AI Act complements the General Data Protection Regulation (GDPR) and contains specific requirements for data processing in the context of AI. Systems, especially high-risk ones, must be transparent and comprehensible. This includes documenting data processing and having the ability to trace decisions.

Check and optimize the data basis

Implementing the new EU law provides companies with the opportunity to thoroughly test and optimize their data management. Ideally, the regulatory initiatives of the EU and its member states will contribute to the establishment of a solid foundation for a competitive ecosystem within the European Economic Area. This will be achieved by helping companies manage and protect their data proactively and intelligently. NetApp helps organizations—including governments and businesses worldwide—develop the right data foundation to prevent AI disruption while generating important competitive advantages. Our intelligent data infrastructure enables companies to automate and effectively manage critical tasks such as data privacy, holistic data usage, and data security. This ensures that AI models are trained using trustworthy and accurate datasets, delivering optimal results.

Bottom line

The EU AI Act is an important step toward a trustworthy and responsible approach to artificial intelligence. It establishes innovation-friendly regulations that guide companies, especially regarding data handling, without stifling them. It is crucial that the requirements remain practical and that companies are not hindered by excessive bureaucracy.

At the same time, the law creates an opportunity to establish data governance and data sovereignty as strategic success factors. Those who set the right course now can use AI effectively and sustainably within their own company, while also complying with regulations.”

 

Der neue Senior Director Partner Sales bei NetApp, Henning Rahe, erklärt im SSCG-Podcast mit Carolina Heyder, wie das Mittelstandsgeschäft gemeinsam mit Partnern gestärkt werden soll. NetApp’s new Senior Director Partner Sales, Henning Rahe, explains in the SSCG Podcast with Carolina Heyder how the company plans to strengthen its midmarket business with partners.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner