ChatGPT ist zwar cool, aber nur der Anfang. Der Einsatz generativer KI in Unternehmen ist weitaus anspruchsvoller.  Die Zukunft der generativen KI für Unternehmen hat laut Gartner viele Aspekte.

ChatGPT is cool, but it’s just the beginning. Deploying generative AI in enterprises is far more challenging.  The future of generative AI for enterprises has many aspects, according to Gartner.

ChatGPT hat das Interesse an KI-Lösungen geweckt. Venture-Capital-Firmen haben in den letzten drei Jahren über 1,7 Milliarden Dollar in generative KI-Lösungen investiert, wobei KI-gestützte Medikamentenentwicklung und KI-Software-Codierung die meisten Mittel erhalten haben.

„Frühe KI-Modelle wie ChatGPT konzentrieren sich auf die Fähigkeit der generativen KI, die kreative Arbeit zu unterstützen, aber wir erwarten, dass bis 2025 mehr als 30 % der neuen Medikamente und Materialien systematisch mit Hilfe generativer KI-Techniken entdeckt werden – heute sind es noch null“, sagt Brian Burke, Research VP for Technology Innovation bei Gartner. „Und das ist nur einer von zahlreichen Anwendungsfällen in der Industrie.“

Fünf industrielle Anwendungsfälle für generative KI

Generative KI kann viele mögliche Designs eines Objekts untersuchen, um das richtige oder am besten geeignete zu finden. Sie erweitert und beschleunigt nicht nur das Design in vielen Bereichen, sondern hat auch das Potenzial, neuartige Designs oder Objekte zu „erfinden“, die Menschen sonst vielleicht übersehen hätten.

Marketing und Medien bekommen die Auswirkungen der generativen KI bereits zu spüren. Gartner erwartet:

Bis 2025 werden 30 % der ausgehenden Marketingbotschaften großer Unternehmen synthetisch generiert werden, während es im Jahr 2022 noch weniger als 2 % waren.

Bis 2030 wird ein großer Blockbuster-Film veröffentlicht werden, bei dem 90 % des Films durch KI generiert wurden (von Text bis Video), im Vergleich zu 0 % im Jahr 2022.

Dennoch beschleunigen sich die KI-Innovationen generell und schaffen zahlreiche Anwendungsfälle für generative KI in verschiedenen Branchen, darunter die folgenden fünf.

Nr. 1: Generative KI in der Arzneimittelentwicklung

Einer Studie aus dem Jahr 2010 zufolge belaufen sich die durchschnittlichen Kosten für die Entwicklung eines Medikaments von der Entdeckung bis zur Markteinführung auf etwa 1,8 Milliarden US-Dollar, wovon die Kosten für die Medikamentenentwicklung etwa ein Drittel ausmachen. Generative KI wurde bereits eingesetzt, um Medikamente für verschiedene Anwendungen innerhalb weniger Monate zu entwickeln, was der Pharmaindustrie erhebliche Möglichkeiten bietet, sowohl die Kosten als auch die Zeitspanne für die Medikamentenentwicklung zu reduzieren.

Nr. 2: Generative KI in der Materialwissenschaft

Generative KI wirkt sich auf die Automobil-, Luft- und Raumfahrt-, Verteidigungs-, Medizin-, Elektronik- und Energiebranche aus, indem sie völlig neue Materialien mit spezifischen physikalischen Eigenschaften entwickelt. Bei diesem Prozess, der als inverses Design bezeichnet wird, werden die erforderlichen Eigenschaften definiert und Materialien gefunden, die diese Eigenschaften aufweisen, anstatt sich auf den Zufall zu verlassen, um ein Material zu finden, das diese Eigenschaften besitzt. So lassen sich beispielsweise Werkstoffe finden, die leitfähiger sind oder eine höhere magnetische Anziehungskraft besitzen als die derzeit im Energie- und Transportwesen verwendeten – oder für Anwendungsfälle, in denen Materialien korrosionsbeständig sein müssen.

Nr. 3: Generative KI im Chipdesign

Generative KI kann mit Hilfe von Reinforcement Learning (einer Technik des maschinellen Lernens) die Platzierung von Bauteilen im Halbleiterchipdesign (Floorplanning) optimieren und so die Lebenszykluszeit der Produktentwicklung von Wochen mit menschlichen Experten auf Stunden mit generativer KI reduzieren.

Nr. 4: Generative KI in synthetischen Daten

Generative KI ist eine Möglichkeit, synthetische Daten zu erstellen. Dabei handelt es sich um eine Klasse von Daten, die generiert und nicht aus direkten Beobachtungen der realen Welt gewonnen werden. Dadurch wird die Vertraulichkeit der ursprünglichen Datenquellen, die zum Trainieren des Modells verwendet wurden, gewährleistet. So können beispielsweise Daten aus dem Gesundheitswesen für Forschungs- und Analysezwecke künstlich erzeugt werden, ohne die Identität der Patienten preiszugeben, deren Krankenakten verwendet wurden, um den Datenschutz zu gewährleisten.

Nr. 5: Generative Konstruktion von Teilen

Generative KI ermöglicht es Branchen wie der Fertigungsindustrie, der Automobilindustrie, der Luft- und Raumfahrt und der Verteidigungsindustrie, Teile zu entwerfen, die für bestimmte Ziele und Einschränkungen wie Leistung, Werkstoffe und Herstellungsverfahren optimiert sind. Beispielsweise können Automobilhersteller generatives Design nutzen, um leichtere Konstruktionen zu entwickeln und damit zu ihrem Ziel beizutragen, Autos sparsamer zu machen.

Entfesselung generativer KI

Die meisten KI-Systeme sind heute Klassifizierer, d. h. sie können darauf trainiert werden, zwischen Bildern von Hunden und Katzen zu unterscheiden. Generative KI-Systeme können so trainiert werden, dass sie ein Bild von einem Hund oder einer Katze erzeugen, das in der realen Welt nicht existiert. Die Fähigkeit der Technologie, kreativ zu sein, ist ein entscheidender Faktor. Generative KI ermöglicht es Systemen, hochwertige Artefakte zu erstellen, z. B. Videos, Erzählungen, Trainingsdaten und sogar Entwürfe und Schaltpläne.

Generative Pre-trained Transformer (GPT) zum Beispiel ist eine groß angelegte Technologie für natürliche Sprache, die mithilfe von Deep Learning menschenähnliche Texte erzeugt. Die dritte Generation (GPT-3), die das wahrscheinlichste nächste Wort in einem Satz auf der Grundlage ihrer gesammelten Trainingsdaten vorhersagt, kann Geschichten, Lieder und Gedichte und sogar Computercode schreiben – und ermöglicht es ChatGPT, die Hausaufgaben Ihres Teenagers in Sekundenschnelle zu erledigen.

Neben Text können auch digitale Bildgeneratoren wie DALL-E 2, Stable Diffusion und Midjourney Bilder aus Text erzeugen.  Ähnliches gibt es auch bei Musik.  Beides stößt bei traditionellen Künstlern auf großen Widerstand.

Es gibt eine Reihe von KI-Techniken, die für generative KI eingesetzt werden, aber in letzter Zeit sind vor allem Basismodelle in den Vordergrund gerückt.

Basismodelle werden auf allgemeinen Datenquellen selbstüberwacht vortrainiert und können dann zur Lösung neuer Probleme angepasst werden. Foundation-Modelle basieren hauptsächlich auf Transformer-Architekturen, die eine Art tiefer neuronaler Netzwerkarchitektur verkörpern, die eine numerische Darstellung der Trainingsdaten berechnet.

Transformer-Architekturen lernen den Kontext und damit die Bedeutung, indem sie Beziehungen in sequentiellen Daten verfolgen. Transformer-Modelle wenden eine Reihe von mathematischen Techniken an, die als Aufmerksamkeit oder Selbstaufmerksamkeit bezeichnet werden, um subtile Wege zu erkennen, auf denen selbst weit entfernte Datenelemente in einer Reihe einander beeinflussen und voneinander abhängen.

Risiken der generativen KI

Bevor Sie mit voller Kraft vorausfahren, sollten Sie bedenken, dass generative KI nicht nur Chancen für Unternehmen bietet, sondern auch reale Gefahren birgt – einschließlich des Potenzials für Deepfakes, Urheberrechtsprobleme und andere böswillige Verwendungen generativer KI-Technologie, die sich gegen Ihr Unternehmen richten.

Arbeiten Sie mit den Verantwortlichen für Sicherheit und Risikomanagement zusammen, um proaktiv die Reputations-, Fälschungs-, Betrugs- und politischen Risiken zu mindern, die der böswillige Einsatz von generativer KI für Einzelpersonen, Organisationen und Regierungen darstellt.

Ziehen Sie außerdem in Erwägung, Leitlinien für die verantwortungsvolle Nutzung generativer KI durch eine Liste zugelassener Anbieter und Dienste einzuführen und dabei diejenigen zu bevorzugen, die sich um Transparenz in Bezug auf Trainingsdatensätze und die angemessene Nutzung der Modelle bemühen und/oder ihre Modelle als Open Source anbieten.

ChatGPT has sparked interest in AI solutions. Venture capital firms have invested more than $1.7 billion in generative AI solutions in the past three years, with AI-powered drug development and AI software coding receiving the most funding.

„Early startup models like ChatGPT are focused on generative AI’s ability to support creative work, but we expect more than 30% of new drugs and materials to be systematically discovered using generative AI techniques by 2025, up from zero today,“ said Brian Burke, Research VP for Technology Innovation at Gartner. „And that’s just one of many use cases in industry.“

Five industrial use cases for generative AI

Generative AI can explore many possible designs of an object to find the right or most appropriate one. It not only enhances and accelerates design in many areas, but also has the potential to „invent“ novel designs or objects that humans might otherwise have overlooked.

Marketing and media are already feeling the impact of generative AI. Gartner expects:

By 2025, 30% of outbound marketing messages from large companies will be synthetically generated, up from less than 2% in 2022.

By 2030, a major blockbuster movie will be released with 90% of the movie generated by AI (from text to video), compared to 0% in 2022.

That said, AI innovation in general is accelerating, creating numerous use cases for generative AI in various industries, including the following five.

No. 1: Generative AI in drug development.

According to a 2010 study, the average cost of developing a drug from discovery to market is about $1.8 billion, of which drug development costs account for about one-third. Generative AI has already been used to develop drugs for various applications in a matter of months, providing significant opportunities for the pharmaceutical industry to reduce both the cost and timeline of drug development.

No. 2: Generative AI in materials science.

Generative AI is impacting the automotive, aerospace, defense, medical, electronics and energy industries by developing entirely new materials with specific physical properties. In this process, called inverse design, required properties are defined and materials are found that have those properties, rather than relying on chance to find a material that has those properties. For example, materials can be found that are more conductive or have a higher magnetic attraction than those currently used in power and transportation – or for use cases where materials need to be corrosion resistant.

No. 3: Generative AI in chip design.

Generative AI can use reinforcement learning (a machine learning technique) to optimize component placement in semiconductor chip design (floorplanning), reducing product development lifecycle time from weeks with human experts to hours with generative AI.

No. 4: Generative AI in synthetic data.

Generative AI is a way to create synthetic data. This is a class of data that is generated rather than obtained from direct observations of the real world. This ensures the confidentiality of the original data sources used to train the model. For example, healthcare data can be artificially generated for research and analysis purposes without revealing the identity of the patients whose medical records were used to ensure privacy.

 

No. 5: Generative design of parts.

Generative AI enables industries such as manufacturing, automotive, aerospace and defense to design parts that are optimized for specific goals and constraints such as performance, materials and manufacturing processes. For example, automotive manufacturers can use generative design to develop lighter-weight designs to contribute to their goal of making cars more fuel efficient.

Selected generative AI use cases by industry.

Incorporating the right technologies to unleash generative AI.

Most AI systems today are classifiers, meaning they can be trained to distinguish between images of dogs and cats. Generative AI systems can be trained to produce an image of a dog or cat that does not exist in the real world. The ability of technology to be creative is a critical factor.

 

Generative AI enables systems to create high-quality artifacts, such as videos, narratives, training data, and even blueprints and schematics.

Generative Pre-trained Transformer (GPT), for example, is a large-scale natural language technology that uses Deep Learning to generate human-like text. The third generation (GPT-3), which predicts the most likely next word in a sentence based on its collected training data, can write stories, songs, poems, and even computer code – enabling ChatGPT to do your teenager’s homework in seconds.

Beyond text, digital-image generators, such as DALL·E 2, Stable Diffusion and Midjourney, can generate images from text. This faces a lot of opposition by traditional artists.

There are a number of AI techniques employed for generative AI, but most recently, foundation models have taken the spotlight.

Foundation models are pretrained on general data sources in a self-supervised manner, which can then be adapted to solve new problems. Foundation models are based mainly on transformer architectures, which embody a type of deep neural network architecture that computes a numerical representation of training data.

 

Transformer architectures learn context and, thus, meaning, by tracking relationships in sequential data. Transformer models apply an evolving set of mathematical techniques, called attention or self-attention, to detect subtle ways even distant data elements in a series influence and depend on each other.

 

Don’t forget the risks of generative AI

Before you forge full-speed ahead, remember that generative AI doesn’t just present opportunities for business; the threats are real, too — including the potential for deepfakes, copyright issues and other malicious uses of generative AI technology to target your organization.

 

Work with security and risk management leaders to proactively mitigate the reputational, counterfeit, fraud and political risks that malicious uses of generative AI present to individuals, organizations and governments.

 

Also consider implementing guidance on the responsible use of generative AI through a curated list of approved vendors and services, prioritizing those that strive to provide transparency on training datasets and appropriate model usage, and/or offer their models in open source.

 

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner