Microsoft tritt in die dritte Phase der langfristigen Partnerschaft mit OpenAI ein durch eine mehrjährige, milliardenschwere Investition, um KI-Entwicklungen zu fördern.

Die neue Vereinbarung zwischen Microsoft und OpenAI folgt auf die früheren Investitionen in den Jahren 2019 und 2021. Sie erweitert die laufende Zusammenarbeit in den Bereichen KI-Supercomputing und Forschung.

Microsoft wird seine Investitionen in die Entwicklung und den Einsatz von spezialisierten Supercomputing-Systemen erhöhen, um die KI-Forschung von OpenAI zu beschleunigen. Microsoft wird die Modelle von OpenAI in seinen Verbraucher- und Unternehmensprodukten einsetzen und digitalen Erlebnisse einführen, die auf der Technologie von OpenAI basieren.

Dazu gehört auch der Azure OpenAI Service von Microsoft, der es Entwicklern ermöglicht, innovative KI-Anwendungen durch direkten Zugriff auf OpenAI-Modelle zu entwickeln, die durch die KI-optimierte Infrastruktur und Tools von Azure unterstützt werden. Als exklusiver Cloud-Anbieter von OpenAI wird Azure alle OpenAI-Workloads in den Bereichen Forschung, Produkte und API-Services betreiben.

„Wir haben unsere Partnerschaft mit OpenAI aus dem gemeinsamen Bestreben heraus gegründet, die KI-Spitzenforschung verantwortungsvoll voranzutreiben und KI als neue Technologieplattform zu demokratisieren“, sagte Satya Nadella, Chairman und CEO von Microsoft. „In dieser nächsten Phase unserer Partnerschaft werden Entwickler und Unternehmen aus allen Branchen mit Azure Zugang zu den besten KI-Infrastrukturen, Modellen und Toolchains haben, um ihre Anwendungen zu entwickeln und zu betreiben.“

„Die vergangenen drei Jahre unserer Partnerschaft waren großartig“, sagte Sam Altman, CEO von OpenAI. „Microsoft teilt unsere Werte und wir freuen uns darauf, unsere unabhängige Forschung fortzusetzen und an der Entwicklung fortschrittlicher KI zu arbeiten, von der alle profitieren.“

Seit 2016 hat sich Microsoft verpflichtet, Azure zu einem KI-Supercomputer für die Welt auszubauen. OpenAI hat diese Infrastruktur genutzt, um seine Modelle zu trainieren, die nun in Azure eingesetzt werden, um Produkte wie GitHub Copilot, DALL-E 2 und ChatGPT zu betreiben.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner