Verantwortungsvolle KI muss man mit Vertrauen, Sicherheit und Governance stärken, so Lexy Kassan, Lead Data & AI Strategist bei Databricks. | Responsible AI can be strengthened by trust, security and governance, says Lexy Kassan, Lead Data & AI Strategist at Databricks. |
Für den Einsatz von KI ist die Frage der Verantwortung im Hinblick auf die Gewährleistung von Compliance und Kundenfreundlichkeit unumgänglich. Laut McKinsey und Co. könnte das wirtschaftliche Potenzial der generativen KI, einschließlich der Anwendungsfälle und der durch KI ermöglichten Arbeitsproduktivität, die Weltwirtschaft um 17 bis 26 Billionen Dollar bereichern. Infolgedessen konzentrieren sich immer mehr Unternehmen auf die Implementierung von KI als Kernbestandteil ihrer Geschäftsstrategie, um Wettbewerbsvorteile zu erzielen. Dieser Trend wird sich auch in diesem Jahr fortsetzen.
Auch deutsche Unternehmen schätzen das Potenzial von KI optimistisch ein. Laut Bitkom Research 2024 sehen 73 Prozent von ihnen in ihr die wichtigste Technologie der Zukunft. Bei der Einführung von KI in Unternehmen ist es jedoch entscheidend, dass sie verantwortungsvolle KI-Praktiken priorisieren, die Qualität, Sicherheit und Governance abdecken, um Vertrauen in ihre KI-Ziele aufzubauen. KI-Vertrauens-, Risiko- und Sicherheitsmanagements sind dabei für Geschäfts- und Technologieentscheidungen von erhöhter Relevanz, um die (Nutzer-)Akzeptanz sowie die Realisierung der Geschäftsziele zu steigern und aus einer gewöhnliche KI eine Responsible AI zu machen. Schwierigkeiten bei der Umsetzung von Responsible AI Doch bei der Umsetzung dieser Qualitätsanforderungen stehen den Unternehmen oft Schwierigkeiten im Weg, die es erschweren, Vertrauen aufzubauen, Risiken zu erkennen und oft eine wirksame Aufsicht über die verwendeten Datensätze behindern:
Qualitätsüberwachung sorgt für Vertrauen in KI-Systeme Die Entwicklung und Einführung von Responsible AI hängt von der Einrichtung eines umfassenden Qualitätsüberwachungsrahmens ab, der den gesamten Lebenszyklus von KI-Systemen abdeckt. Dies kann beispielsweise mit einer Data-Intelligence-Plattform umgesetzt werden, die Daten, Modelltraining, Management, Überwachung und Governance vereinheitlicht, indem sie strukturierte und unstrukturierte Daten integriert, verarbeitet und KI-gestützte Analysen ermöglicht. Dieser Rahmen ist unerlässlich, um sicherzustellen, dass KI-Modelle von der Entwicklung bis zum Einsatz vertrauenswürdig und auf die vorgesehenen Anwendungsfälle abgestimmt bleiben. Dabei sind drei entscheidende Aspekte der Modellqualität besonders zu berücksichtigen: Transparenz, Effektivität und Zuverlässigkeit.
Unternehmen müssen die Kontrolle über ihre Daten und KI-Modelle haben Responsible KI-Praktiken sind unerlässlich, um sicherzustellen, dass KI-Systeme hochwertig, sicher und gut verwaltet sind. Qualitätsaspekte sollten bei der KI-Entwicklung im Vordergrund stehen, damit sichergestellt ist, dass KI-Systeme nicht voreingenommen sind und auf ihre Anwendbarkeit und Angemessenheit in den vorgesehenen Anwendungsfällen überprüft werden. Es sollten Sicherheitsmaßnahmen eingeführt werden, um KI-Systeme vor Cyber-Bedrohungen und Datenverletzungen zu schützen. Es sollten Governance-Rahmen geschaffen werden, um Rechenschaftspflicht, Transparenz und die Einhaltung der einschlägigen Gesetze und Vorschriften zu fördern. Dies erfordert, dass jedes Unternehmen die Verantwortung und Kontrolle über seine Daten und KI-Modelle mit umfassender Überwachung, Datenschutzkontrollen und Governance während der gesamten KI-Entwicklung und -Bereitstellung hat. Dieser einheitliche Ansatz ermöglicht es Unternehmen, verantwortungsvolle KI-Ziele zu erreichen, die Modellqualität zu gewährleisten, sicherere Anwendungen bereitzustellen und die Einhaltung gesetzlicher Vorschriften zu unterstützen. |
The use of AI inevitably raises the question of responsibility for ensuring compliance and customer satisfaction. According to McKinsey and Co, the economic potential of generative AI, including the use cases and labor productivity enabled by AI, could add $17 to $26 trillion to the global economy. As a result, more and more companies are focusing on implementing AI as a core part of their business strategy to gain competitive advantage. This trend is set to continue this year.
German companies are also optimistic about the potential of AI. According to Bitkom Research 2024, 73% of them see it as the most important technology of the future. However, when introducing AI into companies, it is crucial that they prioritize responsible AI practices that cover quality, security and governance to build trust in their AI goals. AI trust, risk and safety management are of increased relevance for business and technology decisions in order to increase (user) acceptance and the realization of business goals and to turn ordinary AI into Responsible AI. Difficulties in the implementation of responsible AI However, companies often face difficulties in implementing these quality requirements, which make it difficult to build trust, identify risks and often hinder effective oversight of the data sets used: – Lack of transparency of model quality: insufficient transparency of the consequences of AI models has become one of the biggest challenges. Organizations struggle with a lack of confidence in the reliability of AI models to consistently deliver results that are safe and fair for their users. Without clear insights into how these models work and the potential impact of their decisions, organizations struggle to build and maintain trust in AI-powered solutions. – Insufficient safety precautions: Interaction with AI models increases an organization’s attack surface by providing a new way for malicious actors to interact with data. Generative AI is particularly problematic as a lack of security safeguards can allow applications such as chatbots to expose (and in some cases potentially alter) sensitive data and proprietary intellectual property. This vulnerability exposes organizations to significant risks, including data breaches and intellectual property theft, and requires robust security measures to protect against malicious activity. – Siloed governance: Organizations often deploy separate data and AI platforms, creating governance silos that result in limited visibility and explainability of AI models. This disjointed approach leads to insufficient cataloging, monitoring and auditing of AI models, making it difficult to ensure their appropriate use. Furthermore, a lack of data lineage makes it difficult to understand what data is being used for AI models and hinders effective oversight. Consistent governance frameworks are essential to ensure that AI models are transparent, traceable and accountable, enabling better management and compliance. Quality monitoring ensures trust in AI systems The development and adoption of Responsible AI depends on the establishment of a comprehensive quality monitoring framework that covers the entire lifecycle of AI systems. This can be implemented, for example, with a data intelligence platform that unifies data, model training, management, monitoring and governance by integrating and processing structured and unstructured data and enabling AI-powered analytics. This framework is essential to ensure that AI models remain trustworthy and aligned with the intended use cases from development to deployment. Three crucial aspects of model quality must be given particular consideration: Transparency, effectiveness and reliability.
Organizations must be in control of their data and AI models Responsible AI practices are essential to ensure that AI systems are high quality, secure and well managed. Quality aspects should be at the forefront of AI development to ensure that AI systems are not biased and are checked for their applicability and appropriateness in the intended use cases. Security measures should be put in place to protect AI systems from cyber threats and data breaches. Governance frameworks should be established to promote accountability, transparency and compliance with relevant laws and regulations. This requires each organization to have accountability and control over its data and AI models with comprehensive monitoring, privacy controls and governance throughout AI development and deployment. This unified approach enables organizations to achieve responsible AI goals, ensure model quality, deliver safer applications and support regulatory compliance. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de