Verantwortungsvolle KI muss man mit Vertrauen, Sicherheit und Governance stärken, so Lexy Kassan, Lead Data & AI Strategist bei Databricks. Responsible AI can be strengthened by trust, security and governance, says  Lexy Kassan, Lead Data & AI Strategist at Databricks.
Für den Einsatz von KI ist die Frage der Verantwortung im Hinblick auf die Gewährleistung von Compliance und Kundenfreundlichkeit unumgänglich. Laut McKinsey und Co. könnte das wirtschaftliche Potenzial der generativen KI, einschließlich der Anwendungsfälle und der durch KI ermöglichten Arbeitsproduktivität, die Weltwirtschaft um 17 bis 26 Billionen Dollar bereichern. Infolgedessen konzentrieren sich immer mehr Unternehmen auf die Implementierung von KI als Kernbestandteil ihrer Geschäftsstrategie, um Wettbewerbsvorteile zu erzielen. Dieser Trend wird sich auch in diesem Jahr fortsetzen.

Auch deutsche Unternehmen schätzen das Potenzial von KI optimistisch ein. Laut Bitkom Research 2024 sehen 73 Prozent von ihnen in ihr die wichtigste Technologie der Zukunft. Bei der Einführung von KI in Unternehmen ist es jedoch entscheidend, dass sie verantwortungsvolle KI-Praktiken priorisieren, die Qualität, Sicherheit und Governance abdecken, um Vertrauen in ihre KI-Ziele aufzubauen. KI-Vertrauens-, Risiko- und Sicherheitsmanagements sind dabei für Geschäfts- und Technologieentscheidungen von erhöhter Relevanz, um die (Nutzer-)Akzeptanz sowie die Realisierung der Geschäftsziele zu steigern und aus einer gewöhnliche KI eine Responsible AI zu machen.

Schwierigkeiten bei der Umsetzung von Responsible AI

Doch bei der Umsetzung dieser Qualitätsanforderungen stehen den Unternehmen oft Schwierigkeiten im Weg, die es erschweren, Vertrauen aufzubauen, Risiken zu erkennen und oft eine wirksame Aufsicht über die verwendeten Datensätze behindern:

  • Mangelnde Transparenz der Modellqualität: Die unzureichende Transparenz der Folgen von KI-Modellen ist zu einer der größten Herausforderungen geworden. Unternehmen kämpfen mit mangelndem Vertrauen in die Zuverlässigkeit von KI-Modellen, um durchgängig Ergebnisse zu liefern, die für ihre Nutzer sicher und fair sind. Ohne klare Einblicke in die Funktionsweise dieser Modelle und die potenziellen Auswirkungen ihrer Entscheidungen fällt es Unternehmen schwer, Vertrauen in KI-gestützte Lösungen aufzubauen und zu erhalten.
  • Unzureichende Sicherheitsvorkehrungen: Die Interaktion mit KI-Modellen vergrößert die Angriffsfläche eines Unternehmens, indem sie böswilligen Akteuren eine neue Möglichkeit zur Interaktion mit Daten bietet. Generative KI ist besonders problematisch, da fehlende Sicherheitsvorkehrungen es Anwendungen wie Chatbots ermöglichen können, sensible Daten und geschütztes geistiges Eigentum offenzulegen (und in einigen Fällen möglicherweise zu verändern). Diese Schwachstelle setzt Unternehmen erheblichen Risiken aus, einschließlich Datenschutzverletzungen und Diebstahl geistigen Eigentums, und erfordert robuste Sicherheitsmaßnahmen zum Schutz vor böswilligen Aktivitäten.
  • Siloed Governance: Unternehmen setzen häufig getrennte Daten- und KI-Plattformen ein, wodurch Governance-Silos entstehen, die zu einer begrenzten Sichtbarkeit und Erklärbarkeit von KI-Modellen führen. Dieser unzusammenhängende Ansatz führt zu einer unzureichenden Katalogisierung, Überwachung und Prüfung von KI-Modellen und erschwert die Gewährleistung ihrer angemessenen Nutzung. Darüber hinaus erschwert eine fehlende Datenabfolge das Verständnis dafür, welche Daten für KI-Modelle verwendet werden, und behindert eine wirksame Aufsicht. Einheitliche Governance-Frameworks sind unerlässlich, um sicherzustellen, dass KI-Modelle transparent, nachvollziehbar und rechenschaftspflichtig sind, was eine bessere Verwaltung und Compliance ermöglicht.

Qualitätsüberwachung sorgt für Vertrauen in KI-Systeme

Die Entwicklung und Einführung von Responsible AI hängt von der Einrichtung eines umfassenden Qualitätsüberwachungsrahmens ab, der den gesamten Lebenszyklus von KI-Systemen abdeckt. Dies kann beispielsweise mit einer Data-Intelligence-Plattform umgesetzt werden, die Daten, Modelltraining, Management, Überwachung und Governance vereinheitlicht, indem sie strukturierte und unstrukturierte Daten integriert, verarbeitet und KI-gestützte Analysen ermöglicht. Dieser Rahmen ist unerlässlich, um sicherzustellen, dass KI-Modelle von der Entwicklung bis zum Einsatz vertrauenswürdig und auf die vorgesehenen Anwendungsfälle abgestimmt bleiben. Dabei sind drei entscheidende Aspekte der Modellqualität besonders zu berücksichtigen: Transparenz, Effektivität und Zuverlässigkeit.

  •      Die Transparenz ist von grundlegender Bedeutung, wenn es darum geht, Vertrauen in KI-Systeme zu schaffen und regulatorische Anforderungen zu erfüllen. Es geht darum, Modelle erklärbar und interpretierbar zu machen, so dass die Beteiligten verstehen können, wie Entscheidungen getroffen werden.
  •       Die Effektivität hingegen konzentriert sich auf die Fähigkeit des Modells, genaue und angemessene Ergebnisse zu liefern. Während der Entwicklung ist es wichtig, die Datenqualität, die Leistungskennzahlen des Modells und potenzielle Verzerrungen zu verfolgen, um Probleme frühzeitig zu erkennen und abzumildern.
  •       Die Zuverlässigkeit gewährleistet eine gleichbleibende Leistung im Laufe der Zeit und erfordert eine kontinuierliche Überwachung, um eine Verschlechterung des Modells zu verhindern und Geschäftsunterbrechungen zu vermeiden. Die Überwachung umfasst die Verfolgung potenzieller Probleme, wie z. B. Änderungen in den Vorhersagen, Verschiebungen in der Datenverteilung und Leistungseinbußen, um ein schnelles Eingreifen zu ermöglichen. Die Neuverteilung stellt sicher, dass das Unternehmen nach Modellaktualisierungen oder -ersetzungen weiterhin hochwertige Ergebnisse ohne Ausfallzeiten erhält. Zusammengenommen sind Überwachung und Umstellung von entscheidender Bedeutung für die Aufrechterhaltung der Modellqualität und -zuverlässigkeit.

Unternehmen müssen die Kontrolle über ihre Daten und KI-Modelle haben

Responsible KI-Praktiken sind unerlässlich, um sicherzustellen, dass KI-Systeme hochwertig, sicher und gut verwaltet sind. Qualitätsaspekte sollten bei der KI-Entwicklung im Vordergrund stehen, damit sichergestellt ist, dass KI-Systeme nicht voreingenommen sind und auf ihre Anwendbarkeit und Angemessenheit in den vorgesehenen Anwendungsfällen überprüft werden. Es sollten Sicherheitsmaßnahmen eingeführt werden, um KI-Systeme vor Cyber-Bedrohungen und Datenverletzungen zu schützen. Es sollten Governance-Rahmen geschaffen werden, um Rechenschaftspflicht, Transparenz und die Einhaltung der einschlägigen Gesetze und Vorschriften zu fördern.

Dies erfordert, dass jedes Unternehmen die Verantwortung und Kontrolle über seine Daten und KI-Modelle mit umfassender Überwachung, Datenschutzkontrollen und Governance während der gesamten KI-Entwicklung und -Bereitstellung hat. Dieser einheitliche Ansatz ermöglicht es Unternehmen, verantwortungsvolle KI-Ziele zu erreichen, die Modellqualität zu gewährleisten, sicherere Anwendungen bereitzustellen und die Einhaltung gesetzlicher Vorschriften zu unterstützen.

The use of AI inevitably raises the question of responsibility for ensuring compliance and customer satisfaction. According to McKinsey and Co, the economic potential of generative AI, including the use cases and labor productivity enabled by AI, could add $17 to $26 trillion to the global economy. As a result, more and more companies are focusing on implementing AI as a core part of their business strategy to gain competitive advantage. This trend is set to continue this year.

German companies are also optimistic about the potential of AI. According to Bitkom Research 2024, 73% of them see it as the most important technology of the future. However, when introducing AI into companies, it is crucial that they prioritize responsible AI practices that cover quality, security and governance to build trust in their AI goals. AI trust, risk and safety management are of increased relevance for business and technology decisions in order to increase (user) acceptance and the realization of business goals and to turn ordinary AI into Responsible AI.

Difficulties in the implementation of responsible AI

However, companies often face difficulties in implementing these quality requirements, which make it difficult to build trust, identify risks and often hinder effective oversight of the data sets used:

– Lack of transparency of model quality: insufficient transparency of the consequences of AI models has become one of the biggest challenges. Organizations struggle with a lack of confidence in the reliability of AI models to consistently deliver results that are safe and fair for their users. Without clear insights into how these models work and the potential impact of their decisions, organizations struggle to build and maintain trust in AI-powered solutions.

– Insufficient safety precautions: Interaction with AI models increases an organization’s attack surface by providing a new way for malicious actors to interact with data. Generative AI is particularly problematic as a lack of security safeguards can allow applications such as chatbots to expose (and in some cases potentially alter) sensitive data and proprietary intellectual property. This vulnerability exposes organizations to significant risks, including data breaches and intellectual property theft, and requires robust security measures to protect against malicious activity.

– Siloed governance: Organizations often deploy separate data and AI platforms, creating governance silos that result in limited visibility and explainability of AI models. This disjointed approach leads to insufficient cataloging, monitoring and auditing of AI models, making it difficult to ensure their appropriate use. Furthermore, a lack of data lineage makes it difficult to understand what data is being used for AI models and hinders effective oversight. Consistent governance frameworks are essential to ensure that AI models are transparent, traceable and accountable, enabling better management and compliance.

Quality monitoring ensures trust in AI systems

The development and adoption of Responsible AI depends on the establishment of a comprehensive quality monitoring framework that covers the entire lifecycle of AI systems. This can be implemented, for example, with a data intelligence platform that unifies data, model training, management, monitoring and governance by integrating and processing structured and unstructured data and enabling AI-powered analytics. This framework is essential to ensure that AI models remain trustworthy and aligned with the intended use cases from development to deployment. Three crucial aspects of model quality must be given particular consideration: Transparency, effectiveness and reliability.

  1. Transparency is fundamental when it comes to building trust in AI systems and meeting regulatory requirements. It is about making models explainable and interpretable so that stakeholders can understand how decisions are made.
  2. Effectiveness, on the other hand, focuses on the model’s ability to deliver accurate and appropriate results. During development, it is important to track data quality, model performance metrics and potential biases to identify and mitigate problems early.
  3. Reliability ensures consistent performance over time and requires continuous monitoring to prevent model degradation and avoid business disruption. Monitoring includes tracking potential issues, such as changes in forecasts, shifts in data distribution and performance degradation, to enable rapid intervention. Redeployment ensures that the organization continues to receive high-quality results without downtime after model updates or replacements. Taken together, monitoring and redeployment are critical to maintaining model quality and reliability.

Organizations must be in control of their data and AI models

Responsible AI practices are essential to ensure that AI systems are high quality, secure and well managed. Quality aspects should be at the forefront of AI development to ensure that AI systems are not biased and are checked for their applicability and appropriateness in the intended use cases. Security measures should be put in place to protect AI systems from cyber threats and data breaches. Governance frameworks should be established to promote accountability, transparency and compliance with relevant laws and regulations.

This requires each organization to have accountability and control over its data and AI models with comprehensive monitoring, privacy controls and governance throughout AI development and deployment. This unified approach enables organizations to achieve responsible AI goals, ensure model quality, deliver safer applications and support regulatory compliance.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert