Die Critical AI Security Guidelines V1.0 wurden vom SANS Institute entwickelt, um KI-Risiken zu minimieren. | Critical AI Security Guidelines V1.0 were developed by the SANS Institute to mitigate AI risks. |
KI verändert die Welt, von der persönlichen Technologie bis hin zu jeder Unternehmensfunktion in jeder Branche. KI entwickelt sich wöchentlich weiter, und wenn Sie blinzeln, kommt eine neue KI-Funktion oder ein neues KI-Modell auf den Markt, das Unternehmen sofort implementieren müssen, um wettbewerbsfähig zu bleiben. Jede Technologie bringt neue Risiken mit sich, die mit der Einführung, der schnellen Entwicklung und der Ungewissheit verbunden sind, ob die Geschwindigkeit der KI-Implementierung zu Sicherheitslücken in Ihrem Unternehmen führt.
Die Critical AI Security Guidelines V1.0 sind ein Rahmenwerk, das Unternehmen bei der Implementierung von KI-Lösungen unterstützen soll, indem es ihnen eine Reihe von zentralen Sicherheitsstandards an die Hand gibt, die dazu beitragen, Risiken zu reduzieren und das Vertrauen in ihre KI-Funktionen zu stärken. Darüber hinaus wird ein Konsens über von Experten entwickelte Strategien zur Sicherung von KI-Modellen und -Anwendungen unter Berücksichtigung von Governance, Compliance und Innovation erzielt. Unternehmen, die künstliche Intelligenz in ihre Angebote integrieren, beschleunigen die Innovation, aber viele sind nicht auf die damit verbundenen Sicherheitsherausforderungen vorbereitet. Sie übersehen oft die Risiken von Modellmanipulationen und feindlichen Angriffen – Bedrohungen, für die traditionelle Verteidigungssysteme nicht gerüstet sind, um diese zu erkennen oder zu stoppen. Gleichzeitig ringen viele Führungskräfte immer noch mit der Frage, wie sie KI in ihren Umgebungen auf sichere Weise einsetzen können. In dem Ausmaß und der Geschwindigkeit, in der KI tief in Unternehmen und kritische Infrastrukturen eingebettet wird, nehmen die Risiken schnell und in globalem Maßstab zu. Um Unternehmen bei der Bewältigung dieser Risiken zu unterstützen und ihnen dabei zu helfen, die Kontrolle zurückzuerlangen, startet das SANS Institute eine wichtige Initiative. Dazu gehört die bevorstehende Veröffentlichung der Critical AI Security Guidelines v1.0, ein praktisches, betriebsorientiertes Rahmenwerk für Sicherheitsverantwortliche, die KI-Systeme jetzt absichern müssen. Die Richtlinien werden erstmals auf dem SANS AI Summit 2025 am 31. März vorgestellt und konzentrieren sich auf sechs kritische Bereiche: Zugriffskontrollen, Datenschutz, Bereitstellungsstrategien, Inferenzsicherheit, Überwachung sowie GRC (Governance, Risk, Compliance). Sie wurden entwickelt, um Sicherheitsteams und Führungskräften eine klare, praktische Anleitung für den Schutz von KI-Systemen in realen Umgebungen zu geben. Jeder Abschnitt enthält umsetzbare Empfehlungen, die Unternehmen dabei helfen, die mit modernen KI-Technologien verbundenen Risiken zu erkennen, abzumindern und zu verwalten. Nach ihrer Veröffentlichung werden die Richtlinien für das Feedback der Community freigegeben, so dass Praktiker, Forscher und Experten Erkenntnisse und Aktualisierungen beisteuern können. „Wir beobachten, dass Unternehmen große Sprachmodelle, Retrieval-Augmented Generation (RAG) und autonome Agenten schneller einsetzen, als sie sie sichern können“, sagt Rob T. Lee, Chief of Research und Co-Chair des SANS AI Summits. „Diese Richtlinien wurden für den aktuellen Stand der Technik entwickelt. Sie sind keine Theorie, sondern für Security Analysten und Führungskräfte verfasst worden, die diese Systeme schon heute schützen müssen.“ KI-Technologien sind für jeden Aspekt eines Unternehmens von zentraler Bedeutung. Aus diesem Grund war der Bedarf an Open-Source-Tools zur Unterstützung von Sicherheitsteams und neuen Funktionen zur Absicherung von KI noch nie so groß. Der SANS AI Cybersecurity Hackathon lud daher die Cybersecurity-Community von Mitte Februar bis Mitte März dazu ein, Open-Source-Tools zu entwickeln, die direkt auf die neuen Sicherheitsrichtlinien abgestimmt sind. Die Veranstaltung forderte die Teilnehmer heraus, innovative Sicherheitslösungen und Monitoring für Inferenzprozesse zu entwickeln. Sie mussten Angriffe abwehren und Schwachstellen in KI-Modellen beheben. Die während des Hackathons entwickelten Tools werden auf dem KI-Summit vorgestellt und bieten Unternehmen praxisnahe Lösungen. „Wir brauchen mehr Experten, die verstehen, wie KI funktioniert und wie man sie verteidigt“, sagt Kate Marshall, SANS AI Hackathon Director und Co-Chair des SANS AI Summits. „Es geht nicht nur um die Entwicklung von Tools, sondern auch um Talenten eine Bühne zu geben. Genau das brauchen wir, um KI-Systeme für die Zukunft abzusichern.“ Der Hackathon ist ein wichtiger Schritt, um den wachsenden KI Skills Gap zu schließen. Er bietet den Teilnehmern praktische Erfahrungen und direkte Betreuung durch führende KI-Sicherheitsexperten. Angesichts der wachsenden Nachfrage nach KI-Sicherheitsexperten sind Initiativen wie diese von entscheidender Bedeutung, um sicherzustellen, dass die Talentpipeline den Anforderungen der Branche gerecht wird. Die Gewinner-Tools werden nicht nur bekannt gemacht und unterstützt, sondern werden auch zu einem wichtigen Bestandteil für die effektive Umsetzung von Sicherheitsrichtlinien in Unternehmen. „Wir haben einen Punkt erreicht, an dem diese Art von Arbeit nicht mehr optional ist“, erklärt Rob T. Lee. „Die Branche brauchte etwas Zentrales, einen vertrauenswürdigen Ort für KI-Sicherheit. Wir brauchen echte Kontrollen, echte Werkzeuge und eine Möglichkeit, die Fähigkeiten zu entwickeln, die die Welt schützen werden. Das ist es, worum es hier geht. Es geht nicht um SANS. Es geht darum, als Gemeinschaft zusammenzukommen.“ |
AI is changing the world, from personal technology to every business function in every industry. AI is evolving on a weekly basis, and if you blink, a new AI capability or model will hit the market that organizations must implement immediately to stay competitive. Each technology brings new risks associated with adoption, rapid development, and the uncertainty of whether the speed of AI implementation will lead to security vulnerabilities in your organization.
The Critical AI Security Guidelines V1.0 is a framework designed to help organizations implement AI solutions by providing them with a set of core security standards to help reduce risk and increase confidence in their AI capabilities. It also builds consensus on expert-developed strategies for securing AI models and applications, taking into account governance, compliance, and innovation. Organizations integrating artificial intelligence into their offerings are accelerating innovation, but many are unprepared for the security challenges that come with it. They often overlook the risks of model tampering and adversarial attacks-threats that traditional defenses cannot detect or stop. At the same time, many executives are still grappling with how to securely deploy AI in their environments. At the scale and speed at which AI is becoming deeply embedded in organizations and critical infrastructure, the risks are growing rapidly and on a global scale. To help organizations manage these risks and regain control, the SANS Institute is launching a major initiative. This includes the upcoming release of the Critical AI Security Guidelines v1.0, a practical, operational framework for security leaders who need to secure AI systems now. The guidelines will debut at the SANS AI Summit 2025 on March 31 and focus on six critical areas: Access controls, privacy, deployment strategies, inference security, monitoring, and governance, risk, and compliance (GRC). They are designed to provide security teams and executives with clear, practical guidance for protecting AI systems in real-world environments. Each section provides actionable recommendations to help organizations identify, mitigate, and manage the risks associated with advanced AI technologies. Once published, the guidelines will be open for community feedback, allowing practitioners, researchers and experts to contribute insights and updates. „We see organizations deploying large-scale language models, retrieval augmented generation (RAG) and autonomous agents faster than they can secure them,“ said Rob T. Lee, Chief of Research and Co-Chair of the SANS AI Summit. „These guidelines were developed for the current state of the art. They are not theoretical, but written for the security analysts and executives who must protect these systems today.“ AI technologies are central to every aspect of an organization. That’s why the need for open source tools to support security teams and new skills to secure AI has never been greater. From mid-February to mid-March, the SANS AI Cybersecurity Hackathon invited the cybersecurity community to develop open source tools that directly address the new security guidelines. The event challenged participants to develop innovative security solutions and monitoring for inference processes. They had to defend against attacks and fix vulnerabilities in AI models. The tools developed during the hackathon will be showcased at the AI Summit, providing practical solutions for businesses. „We need more experts who understand how AI works and how to defend against it,“ said Kate Marshall, director of the SANS AI Hackathon and co-chair of the SANS AI Summit. „It’s not just about building tools, it’s about giving talent a stage. This is exactly what we need to secure AI systems for the future.“ The hackathon is an important step in closing the growing AI skills gap. It will provide participants with hands-on experience and direct mentoring from leading AI security experts. With the growing demand for AI security experts, initiatives like this are essential to ensure the talent pipeline meets the needs of the industry. The winning tools will not only be promoted and supported, but will also become an important part of how organizations effectively implement safety policies. „We’ve reached a point where this kind of work is no longer optional,“ explains Rob T. Lee. „The industry needs something centralized, a trusted place for AI security. We need real controls, real tools, and a way to develop the capabilities that will protect the world. That’s what this is about. It’s not about SANS. It’s about coming together as a community.“ |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de