OpenAI ist nur die erste Stufe der Apollo-Mission KI, meinen die IDC-Analysten Neil Ward-Dutton und Ewa Zborowska.

OpenAI is just the first stage of the Apollo AI mission, say IDC analysts Neil Ward-Dutton and Ewa Zborowska.

Oracle-Gründer Larry Ellison war der erste, der künstliche Intelligenz mit einem epochalen Schritt in der Raumfahrt verglich. „Generative KI gibt es seit einem Jahr und sie verändert alles. Die Entwickler von Open AI haben selbst nicht erwartet, was passieren würde. ChatGPT 3.5 skalierte und gab plötzlich Antworten. Das war ein Sputnik-Moment, der die ganze Welt überraschte“, sagte Ellison in Anspielung auf den Weltraumflug von Juri Gagarin 1957.

Eine ähnliche Parallele ziehen auch die IDC-Analysten Neil Ward-Dutton (VP, AI and Intelligent Process Automation European Practices, IDC Europe) und Ewa Zborowska (Research Director, AI Europe) in einem Blog-Beitrag: Als die NASA unter der Leitung von Wernher von Braun ihre Apollo-Trägerraketen entwickelte, um Nutzlasten (einschließlich Menschen) in den Weltraum zu bringen, wurden diese mit mehreren Segmenten konzipiert. Das Segment, das beim Start dem Boden am nächsten war (die „erste Stufe“), enthielt riesige Raketen und Treibstofftanks, die alles in die Luft bringen und auf eine Geschwindigkeit beschleunigen konnten, mit der es der Erdanziehungskraft entkommen konnte. An diesem Punkt, weit außerhalb der Erdatmosphäre, würde die erste Stufe abgeworfen und zur Erde zurückkehren. Der Rest der Rakete würde weiterfliegen, da die Fluchtgeschwindigkeit erreicht wäre.

Ein FOMO-Rausch

OpenAI ist das Unternehmen, das in erster Linie für den rasanten Anstieg des Interesses und der Investitionen in generative KI-Technologien (GenAI) verantwortlich ist. Der Start von ChatGPT im November 2022 löste einen FOMO-Rausch (First Man on the Moon) aus, ähnlich der Rivalität zwischen den USA und der Sowjetunion in den 1960er Jahren, die beide versuchten, einen ihrer Raumfahrer als ersten Menschen auf den Mond zu bringen. Dieser Rausch wirkte sich zunächst auf viele Einzelpersonen (ChatGPT überschritt in nur fünf Tagen die Marke von einer Million Nutzern) und dann auf Unternehmen aus – und löste Diskussionen über geistiges Eigentum im digitalen Zeitalter, die potenziellen Auswirkungen von KI auf Beschäftigung und Qualifikationen und vieles mehr aus.

Etwas mehr als zwölf Monate nach der Markteinführung von GenAI, die in erster Linie durch die Attraktivität der OpenAI-Dienste für Verbraucher ausgelöst wurde, führte IDC eine weltweite Umfrage durch, die die unglaubliche Dynamik hinter der neuen Technologie in Unternehmen aufzeigte: Im Januar 2024 gaben 68 % der Unternehmen, die GenAI bereits erforschten oder damit arbeiteten, an, dass GenAI sich in den Jahren 2024-2025 auf ihr Geschäft auswirken werde, und erstaunliche 29 % gaben an, dass GenAI ihr Geschäft bereits in gewissem Maße verändert habe.

OpenAI verfügt nach wie vor über einen erstaunlich hohen Bekanntheitsgrad, dank der guten alten Regel „First to be“, aber auch dank der unbestreitbaren PR-Macht seines CEO Sam Altman – nicht zuletzt in Kreisen der Unternehmensführung. Aber das reicht nicht: Das Unternehmen profitiert auch von einer strategischen Partnerschaft mit Microsoft, in deren Rahmen sich Microsoft verpflichtet hat, 13 Milliarden Dollar zu investieren, um im Gegenzug eine exklusive Lizenz für das geistige Eigentum von OpenAI zu erhalten und der exklusive Cloud-Anbieter von OpenAI zu werden.

Die öffentlichkeitswirksamen Ergebnisse dieser Partnerschaft (Azure OpenAI Service, Verwendung von OpenAI-Modellen in CoPilots etc. Dennoch: OpenAI bewegt sich derzeit nicht in die Richtung, in die Unternehmen gehen wollen.

Das Richtungsproblem von OpenAI

OpenAI wurde als gemeinnütziges Forschungsinstitut gegründet, das sich auf die Entwicklung von künstlicher allgemeiner Intelligenz (KI) konzentriert – ein derzeit hypothetisches zukünftiges Fähigkeitsniveau, das KI-Systeme vorsieht, die bei einem breiten Spektrum kognitiver Aufgaben genauso gut oder besser als Menschen abschneiden – mit einer Tochtergesellschaft mit Gewinnobergrenze (in die Microsoft und andere Unternehmen investieren).

Fragt man die Unternehmen jedoch, was sie von GenAI erwarten, um einen geschäftlichen Nutzen aus der Technologie zu ziehen, so nennen sie in der Regel Eigenschaften wie Genauigkeit, Datenschutz, Sicherheit und Wirtschaftlichkeit. Zum Beispiel: 28% der Unternehmen sind besorgt, dass GenAI die Kontrolle über Daten und geistiges Eigentum gefährdet; 26% sind besorgt, dass der Einsatz von GenAI sie Marken- oder regulatorischen Risiken aussetzt; und 19% der Befragten sind besorgt über die Genauigkeit oder potenzielle Toxizität der Ergebnisse von GenAI-Modellen.

OpenAI entwickelt sich schnell weiter, aber der Schwerpunkt der Innovation liegt auf der Breite und Tiefe der Funktionalität (z.B. die Einführung „multimodaler“ Modelle, die mehrere Arten von Inhalten verarbeiten können, einschließlich Text, Bilder, Audio und Video). Nicht in der Genauigkeit, dem Datenschutz, der Sicherheit, der Wirtschaftlichkeit usw.

Derzeit sind es die Anbieter „höherer Ebenen“ (Anbieter von Unternehmensanwendungen und Unternehmenssoftware-Plattformen), die versuchen, die Lücke mit Funktionen zu schließen, die darauf abzielen, Vertrauensprobleme zu lösen und Risiken zu minimieren. Es ist jedoch klar, dass auch die Anbieter von Basismodellen eine gewisse Verantwortung tragen müssen, um … verantwortlich sein müssen.

Jenseits von OpenAI: Eine Explosion von Anbietern von GenAI-Modellen

OpenAI mag derzeit einen erstaunlichen Einfluss haben, ist aber bei weitem nicht die einzige Quelle für Innovationen bei GenAI-Modellen. Angetrieben durch Risikokapital und Unternehmensinvestitionen sind Wettbewerber in diesen Bereich geströmt, darunter auf GenAI-Forschung fokussierte Anbieter wie Anthropic, AI21 und Cohere, Anbieter von öffentlichen Hyperscale-Clouds wie AWS und Google, Anbieter von Technologieplattformen für Unternehmen wie IBM, Oracle, ServiceNow und Adobe, auf Souveränität fokussierte Anbieter wie Mistral, Aleph Alpha, Qwen und Yi und schließlich auf bestimmte Branchen spezialisierte Anbieter wie Harvey (Versicherungen) und OpenEvidence (Medizin).

Hinzu kommt eine lebendige und schnell wachsende Open-Source-Community mit Tausenden von GenAI-bezogenen Projekten, die auf Hugging Face und GitHub gehostet werden: Open-Source-Gemeinschaften sind ein besonders dynamischer Vektor für Innovation: Open-Source-Projekte entwickeln die Modellfähigkeiten in Bezug auf Modellgröße und -effizienz, Trainings- und Inferenzkosten, Erklärbarkeit und mehr schnell weiter.

Microsoft denkt klar über OpenAI hinaus

Ende Februar veröffentlichte Microsoft-Präsident Brad Smith einen Blog-Eintrag, in dem er Microsofts neue „AI Access Principles“ ankündigte.

Um seine Glaubwürdigkeit als „Good Player“ in der Technologiebranche zu stärken und das Risiko von Eingriffen durch Regulierungsbehörden weltweit zu minimieren, verpflichtet sich Microsoft, ein offenes KI-Ökosystem (kein Wortspiel beabsichtigt) über den gesamten KI-Technologiestack hinweg zu unterstützen (von der Energieversorgung und Konnektivität von Rechenzentren über Infrastruktur-Hardware bis hin zu Dienstleistungen für Entwickler). In diesem Zusammenhang betont Microsoft zunehmend die Bedeutung einer Vielzahl unterschiedlicher Modellanbieter. So wurde kürzlich eine kleine Investition in das französische Unternehmen Mistral AI getätigt und die Unterstützung für Modelle von Anbietern wie Cohere, Meta, NVIDIA und Hugging Face auf der Plattform erweitert.

Wird OpenAI fliegen oder abstürzen?

Damit OpenAI von der Nachfrage der Unternehmen nach der Implementierung von GenAI-Technologie profitieren kann, muss das Unternehmen seinen Ansatz weiterentwickeln. Während der anfängliche Erfolg von ChatGPT die Aufmerksamkeit des Marktes auf sich zog, erfordert die sich schnell entwickelnde Landschaft von Angebot und Nachfrage für GenAI-Technologie einen stärkeren Geschäftsfokus. OpenAI befindet sich in einem Spannungsfeld zwischen seinem forschungsorientierten Ethos und der Nachfrage des Marktes nach praktischen KI-Anwendungen. Dieses Spannungsfeld wirft Fragen nach der Identität und der zukünftigen Strategie des Unternehmens auf.

Und was ist mit Microsoft? Das Unternehmen muss seine neuen Prinzipien mit konkreten Maßnahmen untermauern, die KI wirklich verantwortungsvoll voranbringen. Das Unternehmen muss für Transparenz sorgen und Aktionen vermeiden, die den Eindruck erwecken, dass es „verantwortungsvolle KI“ nur als PR-Instrument zur Gewinnsteigerung einsetzt. Es muss Innovation und Wettbewerb fördern. Niemand will eine Welt, in der die Dominanz eines Modells den Wettbewerb erstickt und die Möglichkeiten für Entwickler einschränkt.

Daher ist die Förderung eines offenen und integrativen Ökosystems, in dem kleinere Akteure wachsen können, für die Glaubwürdigkeit von Microsoft von entscheidender Bedeutung und ermöglicht ein vertrauenswürdiges KI-Ökosystem, von dem alle profitieren.

Oracle founder Larry Ellison was the first to compare artificial intelligence to an epochal step in space travel. „Generative AI has been around for a year, and it changes everything. Even the developers of Open AI did not expect what would happen. ChatGPT 3.5 scaled and suddenly started giving answers. It was a Sputnik moment that took the world by surprise,“ said Ellison, referring to Yuri Gagarin’s 1957 space flight.

IDC analysts Neil Ward-Dutton (VP, AI and Intelligent Process Automation European Practices, IDC Europe) and Ewa Zborowska (Research Director, AI Europe) draw a similar parallel in a blog post: When NASA, under the leadership of Wernher von Braun, developed its Apollo launch vehicles to carry payloads (including humans) into space, they were designed with multiple segments. The segment closest to the ground at launch (the „first stage“) contained huge rockets and fuel tanks that could lift anything into the air and accelerate it to a speed at which it could escape Earth’s gravity. At that point, well outside the Earth’s atmosphere, the first stage would be jettisoned and return to Earth. The rest of the rocket would continue on as it reached escape velocity.

A FOMO Frenzy

OpenAI is the company primarily responsible for the rapid increase in interest and investment in generative AI (GenAI) technologies. The launch of ChatGPT in November 2022 sparked a FOMO (First Man on the Moon) frenzy, similar to the rivalry between the US and the Soviet Union in the 1960s, each trying to put one of their space travelers on the moon as the first man on the moon.

Just over 12 months from the GenAI market launch created primarily by the attractiveness of OpenAI’s consumer services, IDC conducted a worldwide survey that demonstrated the incredible momentum behind the new technology within businesses: in January 2024, 68% of organizations already exploring or working with GenAI said it would have an impact on their business in 2024-2025, and an astounding 29% said that GenAI had already disrupted their business to some extent.

OpenAI continues to benefit from amazing levels of mindshare, thanks to the good old rule of “be first”, but also to the undeniable PR power of its CEO Sam Altman — not least within senior business leadership circles. But mindshare is not enough; it also benefits from a strategic partnership with Microsoft, which has seen Microsoft committing to provide $13 billion of investment, in return for an exclusive license to OpenAI’s IP and an agreement that it would be OpenAI’s exclusive cloud provider.

The heavily promoted downstream results of that partnership (Azure OpenAI Service, use of OpenAI models in CoPilots, and so on) have continued to create mindshare momentum.

And yet: OpenAI is not currently traveling along the route that businesses want to take.

OpenAI’s Alignment Problem

The outfit was founded as a not-for-profit research institute, focused on developing artificial general intelligence (AGI) — a currently hypothetical future level of capability that envisions AI systems that can perform as well or better than humans on a wide range of cognitive tasks — with a capped profit company subsidiary (which is the entity invested in by Microsoft and others).

However, when we ask organizations what they need from GenAI in order to create business value from the technology, they typically cite qualities such as accuracy, privacy, security and frugality. For example: 28% of organizations are concerned that GenAI jeopardizes control of data and intellectual property; 26% are concerned that GenAI use will expose them to brand or regulatory risks; and 19% of respondents are concerned about the accuracy or potential toxicity in the output of GenAI models.

OpenAI is innovating fast, but the dominant innovation focus is on breadth and depth of functionality (e.g., the introduction of “multimodal” models that can manipulate multiple content types, including text, images, sound, and video). Not on accuracy, privacy, security, frugality, and so on.

Currently, it is vendors “higher up the stack” (enterprise application and enterprise software platform vendors) who are attempting to bridge the gap with functionality aimed at addressing trust issues and minimizing risks. But it is clear that foundation model providers also need to bear some responsibility for… being responsible.

Beyond OpenAI: An Explosion of GenAI Model Providers

OpenAI might have amazing mindshare right now, but it is already far from the only source of GenAI model innovation. Fueled by venture capital and corporate investment, competitors have flooded into the space, including:

  • GenAI research-focused vendors like Anthropic, AI21, and Cohere
  • Hyperscale public cloud providers AWS and Google
  • Enterprise technology platform vendors including IBM, Oracle, ServiceNow, and Adobe
  • Sovereignty-focused providers, including Mistral, Aleph Alpha, Qwen, and Yi
  • Industry-specialized providers, including Harvey (insurance) and OpenEvidence (medicine)
  • A vibrant and fast-growing open-source model community, with thousands of GenAI-related projects hosted by Hugging Face and GitHub

Open-source communities are a particularly energetic vector of innovation: open-source projects are quickly evolving model capabilities in terms of model size and efficiency, training and inferencing cost, explainability, and more.

Microsoft Is Clearly Looking Beyond OpenAI

In late February, Microsoft President Brad Smith published a blog post announcing Microsoft’s new “AI Access Principles”.

There’s a lot of detail in the post, but underpinning it all is a clear direction: in order to reinforce its credentials as a “good actor” in the technology industry and minimize the risks of interventions by industry regulators around the world, Microsoft is committing to support an open AI (no pun intended) ecosystem across the full AI technology stack (from datacenter power and connectivity and infrastructure hardware to services for developers). As part of this, it is increasingly emphasizing the importance of a variety of different model providers. For instance, it’s made a recent small investment in France’s Mistral AI and is expanding support for models from providers like Cohere, Meta, NVIDIA, and Hugging Face in its platform.

Will OpenAI Fly or Crash?

In order for OpenAI to reap significant rewards from business demand for GenAI technology implementation, it is going to have to evolve its approach. While the initial success of ChatGPT captured market attention, the rapidly evolving landscape of both GenAI technology supply and demand requires a stronger business focus. OpenAI is faced with tension between its research-oriented ethos and the market’s demand for practical AI applications. This alignment problem raises questions about its identity and future strategy.

Lastly — what about Microsoft? It must back its new principles with tangible actions that genuinely advance AI responsibly. It needs to ensure transparency and avoid actions that would suggest it only uses “responsible AI” as a PR tool for driving profits. It needs to promote both innovation and competition. Nobody wants a world where one model’s dominance could stifle competition and limit options for developers.

Hence, fostering an open and inclusive ecosystem where smaller players can grow will be imperative for Microsoft’s credibility and allow for a trustworthy AI ecosystem benefiting everyone.

 

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner