Takeshi Numoto, Executive Vice President and Chief Marketing Officer Microsoft, erklärt das Konzept der Trustworthy AI.Takeshi Numoto, Executive Vice President and Chief Marketing Officer Microsoft, explains the concept of Trustworthy AI.
Microsoft setzt sich für eine vertrauenswürdige KI ein und entwickelt dafür branchenführende Technologien. Das Unternehmen aus Redmond wird neue Produktfunktionen einführen, um die Sicherheit und den Datenschutz von KI-Systemen zu verbessern.

Sicherheit: Die erweiterte Secure Future Initiative (SFI) soll Kunden mehr Sicherheit bieten. Diese Woche hat Microsoft seinen ersten SFI-Fortschrittsbericht veröffentlicht, in dem Updates in den Bereichen Kultur, Governance, Technologie und Betrieb vorgestellt werden. Die Initiative beruht auf drei Prinzipien: Secure by Design, Secure by Default und Secure Operations.

Microsoft Defender und Purview enthalten grundlegende Sicherheitskontrollen, wie z. B. integrierte Funktionen zur Verhinderung von Sofortinfiltration und Urheberrechtsverletzungen.

Analysen in Azure AI Studio zur Unterstützung einer proaktiven Risikobewertung.

Microsoft 365 Copilot wird Einblicke in Webanfragen bieten, damit Administratoren und Nutzer besser verstehen, wie Websuchen die Reaktion von Copilot verbessern. Demnächst verfügbar.

Sicherheit: Microsofts 2018 eingeführte, umfassendere Grundsätze für verantwortungsbewusste KI, die sowohl Sicherheit als auch Datenschutz umfassen, bilden weiterhin die Richtschnur dafür, wie Microsoft KI im gesamten Unternehmen sicher entwickelt und einsetzt. In der Praxis bedeutet dies, dass Systeme ordnungsgemäß erstellt, getestet und überwacht werden, um unerwünschtes Verhalten wie schädliche Inhalte, Verzerrungen, Missbrauch und andere unbeabsichtigte Risiken zu vermeiden. Neue Funktionen stehen zur Verfügung, um Kunden dabei zu helfen, die Vorteile von KI zu nutzen und gleichzeitig die Risiken zu minimieren:

– Eine Korrekturfunktion in Microsoft Azure AI Content Safety’s Groundedness Detection, die dabei hilft, Halluzinationsprobleme in Echtzeit zu beheben, bevor die Nutzer sie sehen.

– Eingebettete Content-Sicherheit, die es Kunden ermöglicht, Azure AI Content Safety in Geräte einzubetten. Dies ist wichtig für On-Device-Szenarien, in denen die Cloud-Konnektivität unterbrochen werden kann oder nicht verfügbar ist.

– Neue Analysefunktionen in Azure AI Studio, mit denen Kunden die Qualität und Relevanz der Ausgabe bewerten und feststellen können, wie häufig ihre KI-Anwendung geschütztes Material ausgibt.

– Die Erkennung von geschütztem Material für Code ist jetzt in der Vorschau in Azure AI Content Safety verfügbar, um bereits vorhandenen Inhalt und Code zu erkennen. Diese Funktion hilft Entwicklern bei der Suche nach öffentlichem Quellcode in GitHub-Repositories, fördert die Zusammenarbeit und Transparenz und ermöglicht gleichzeitig fundiertere Entscheidungen bei der Programmierung.

Datenschutz: Microsoft legt großen Wert auf den Schutz und die Konformität von Kundendaten durch seine langjährigen Datenschutzprinzipien, zu denen die Kontrolle durch den Benutzer, Transparenz sowie rechtlicher und regulatorischer Schutz gehören. Die neuen Funktionen umfassen

– Vertrauliches Inferencing in der Vorschau des Azure OpenAI Service Whisper Modells, mit dem Kunden generative KI-Anwendungen erstellen können, die einen nachweisbaren End-to-End-Datenschutz unterstützen. Vertrauliches Inferencing stellt sicher, dass sensible Kundendaten während des Inferencing-Prozesses sicher und privat bleiben, wenn ein trainiertes KI-Modell Vorhersagen oder Entscheidungen auf der Grundlage neuer Daten trifft. Dies ist besonders wichtig für stark regulierte Branchen wie Gesundheitswesen, Finanzdienstleistungen, Einzelhandel, Fertigung und Energie.

– Allgemeine Verfügbarkeit von Azure Confidential VMs mit NVIDIA H100 Tensor Core Grafikprozessoren, die es Kunden ermöglichen, Daten direkt auf dem Grafikprozessor zu sichern. Dies erweitert die Lösungen für vertrauliches Computing, die sicherstellen, dass Kundendaten in einer sicheren Umgebung verschlüsselt und geschützt sind, um unbefugten Zugriff auf Informationen oder Systeme zu verhindern.

– Azure OpenAI Data Zones für die EU und die USA werden in Kürze verfügbar sein und bauen auf der bestehenden Datenresidenz des Azure OpenAI Service auf, indem sie die Verwaltung der Datenverarbeitung und -speicherung für generative KI-Anwendungen erleichtern. Diese neue Funktion gibt Kunden die Flexibilität, generative KI-Anwendungen über alle Azure-Regionen innerhalb einer Region zu skalieren und gleichzeitig die Kontrolle über die Datenverarbeitung und -speicherung innerhalb der EU oder der USA zu behalten.

Microsoft is committed to ensuring trustworthy AI and is building industry-leading technology to support it. The Redmond-based company will introduce new product features to strengthen the security, safety, and privacy of AI systems.

Security: The expanded Secure Future Initiative (SFI) is designed to make customers more secure. This week, Microsoft released its first SFI Progress Report, highlighting updates in culture, governance, technology and operations. The initiative is guided by three principles: secure by design, secure by default, and secure operations.

Microsoft Defender and Purview include foundational security controls, such as built-in capabilities to prevent prompt injections and copyright infringement.

Analytics in Azure AI Studio to support proactive risk assessment.

Microsoft 365 Copilot will provide visibility into web queries to help administrators and users better understand how web searches improve Copilot response. Coming soon.

Savety: Microsoft’s broader Responsible AI principles, established in 2018, which include both security and privacy, continue to guide how Microsoft builds and deploys AI safely across the company. In practice, this means properly building, testing, and monitoring systems to avoid undesirable behaviors such as harmful content, bias, misuse, and other unintended risks. New capabilities are available to help customers realize the benefits of AI while mitigating the risks:

– A remediation capability in Microsoft Azure AI Content Safety’s groundedness detection, which helps fix hallucination problems in real time before users see them.

– Embedded Content Safety, which allows customers to embed Azure AI Content Safety on devices. This is important for on-device scenarios where cloud connectivity may be intermittent or unavailable.

– New analytics in Azure AI Studio to help customers assess the quality and relevance of output, as well as how often their AI application is outputting protected material.

– Protected Material Detection for Code is now in preview in Azure AI Content Safety, to help detect pre-existing content and code. This feature helps developers explore public source code in GitHub repositories, fostering collaboration and transparency while enabling more informed coding decisions.

.

Privacy:  Microsoft’s priority is to ensure that customer data is protected and compliant through its long-standing privacy principles, which include user control, transparency, and legal and regulatory protections. New features include

– Confidential inferencing in preview in the Azure OpenAI Service Whisper model, so customers can build generative AI applications that support verifiable end-to-end privacy. Confidential inferencing ensures that sensitive customer data remains secure and private during the inferencing process, when a trained AI model makes predictions or decisions based on new data. This is particularly important for highly regulated industries such as healthcare, financial services, retail, manufacturing, and energy.

– General availability of Azure Confidential VMs with NVIDIA H100 Tensor Core GPUs, enabling customers to secure data directly on the GPU. This expands confidential computing solutions that ensure customer data is encrypted and protected in a secure environment, preventing unauthorized access to information or systems.

– Azure OpenAI Data Zones for the EU and US are coming soon, and build on the existing data residency provided by the Azure OpenAI service by making it easier to manage data processing and storage for generative AI applications. This new capability will give customers the flexibility to scale generative AI applications across all Azure regions within a geography, while giving them control over data processing and storage within the EU or U.S.

Arne Lehfeldt, Systems Engineer und CTO Ambassador bei Dell Technologies, erklärt im Podcast Security, Storage und Channel Germany mit Carolina Heyder, warum Unternehmen keine Angst vor KI haben sollten.Arne Lehfeldt, Systems Engineer and CTO Ambassador at Dell Technologies, explains why companies shouldn’t be afraid of AI in the Security, Storage and Channel Germany podcast with Carolina Heyder.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner