Laut Snowflake wurden 2023 90 KI-Apps pro Tag entwickelt. Die bevorzugte Programmiersprache ist Python. |
According to Snowflake, 90 AI apps were developed per day in 2023. The preferred programming language is Python. |
---|---|
Der Markt für KI-Anwendungen explodiert. Große Sprachmodelle (Large Language Models, LLMs) werden zunehmend für Chatbots eingesetzt: Fast jede zweite LLM-Anwendung, die Entwickler heute programmieren, ist ein Chatbot. Der Anteil ist seit Mai 2023 von 18 Prozent auf 46 Prozent gestiegen – Tendenz weiter steigend. Darüber hinaus hat eine Umfrage unter der Streamlit-Entwicklergemeinschaft ergeben, dass fast 65 Prozent der Befragten ihre LLM-Projekte beruflich nutzen. Dies deutet darauf hin, dass generative KI immer wichtiger wird, um Menschen produktiver und effizienter zu machen.
Diese Ergebnisse basieren auf den Nutzungsdaten von mehr als 9.000 Snowflake-Kunden, die das Data-Cloud-Unternehmen in seinem neuen Bericht Data Trends 2024 zusammengefasst hat. Im Mittelpunkt des Interesses stand die Frage, wie sich Unternehmen auf eine Zeit vorbereiten, in der fortgeschrittene KI ihre Geschäftsprozesse verändern und beschleunigen wird. Die neuen Daten zeigen eine Verlagerung von LLM-Anwendungen mit textbasierter Eingabe (2023: 82 %, 2024: 54 %) hin zu Chatbots mit iterativer Texteingabe, die natürliche Konversationen ermöglichen. „Anwendungen mit Chatbots sind auf dem Vormarsch, da diese Art der Interaktion für Menschen besonders intuitiv ist”, erklärt Jennifer Belissent, Principal Data Strategist bei Snowflake. „Wir gehen davon aus, dass sich dieser Trend fortsetzen wird, da es immer einfacher wird, LLM-Anwendungen zu entwickeln und bereitzustellen. Vor allem in dem Wissen, dass die zugrunde liegenden Daten sicher verwaltet und geschützt werden. Diese Gewissheit ist eine der Grundvoraussetzungen für den geschäftlichen Einsatz von Chatbots, der auch den Erwartungen der Nutzer gerecht wird”. Mehr als 33.000 LLM-Anwendungen in neun Monaten Insgesamt haben 20.076 Entwicklerinnen und Entwickler der Streamlit-Community von Snowflake innerhalb von neun Monaten an 33.143 LLM-Anwendungen gearbeitet. Wenn es um die Entwicklung von KI-Projekten geht, ist Python die beliebteste Programmiersprache. Sie ist einfach zu verwenden und verfügt über eine aktive Community sowie ein Ökosystem von Bibliotheken und Frameworks. In Snowpark, einem Tool, das die Programmiermöglichkeiten von Snowflake erweitert, ist die Verwendung von Python im vergangenen Geschäftsjahr deutlich schneller gewachsen als die von Java und Scala – Python um 571 Prozent, Scala um 387 Prozent und Java um 131 Prozent. Python beschleunigt das Prototyping und Experimentieren – und verstärkt damit auch die Lerneffekte, wenn sich Entwicklerteams an innovative KI-Projekte herantasten. Was den Ort der Anwendungsentwicklung betrifft, so geht der Trend dahin, LLM-Anwendungen direkt auf der Plattform zu programmieren, auf der auch die Daten verwaltet werden. Dies wird durch die Zunahme der Snowflake Native Apps um 311 % zwischen Juli 2023 und Januar 2024 belegt. Durch die Entwicklung von Apps innerhalb einer Datenplattform entfällt der Export von Datenkopien. Dadurch müssen Unternehmen ihre Daten nicht mehr zwischen verschiedenen IT-Umgebungen verschieben und können ihre Anwendungen schneller entwickeln und einfacher bereitstellen. Gleichzeitig sinken die Kosten für die operative Wartung.
Data Governance rückt in den Fokus der Unternehmen Die Bedeutung von Daten für den Aufstieg der generativen KI spiegelt sich in der zunehmenden Nutzung unstrukturierter Daten wider. Snowflake-Kunden haben die Verarbeitung unstrukturierter Daten im vergangenen Jahr um 123 Prozent gesteigert. IDC schätzt, dass bis zu 90 Prozent der weltweiten Daten unstrukturierte Videos, Bilder und Dokumente sind. Eine saubere Datenbasis verschafft Sprachmodellen einen Vorsprung, so dass die Erschließung dieser ungenutzten 90 Prozent von großem Wert ist. „Bei Data Governance geht es nicht darum, Daten unter Verschluss zu halten, sondern letztlich den größten Mehrwert aus ihnen zu ziehen”, so Belissent. „Data Governance basiert auf drei Prinzipien: Daten kennen, Daten sichern und Daten wertschöpfend nutzen. Die Unternehmen haben sich im Hinblick auf diese Data Governance weiterentwickelt und nutzen heute eine breite Palette von Standards und Kennzeichnungsfunktionen. Während die Nutzung aller Data Governance-Funktionen um 70 bis 100 Prozent zugenommen hat, ist die Zahl der Abfragen geschützter Objekte um 142 Prozent gestiegen. Diese Entwicklung zeigt deutlich: Wenn Daten sicher verwaltet werden, können sie auch sicher genutzt werden. „Für sich genommen zeigen diese Trends, wie IT-Organisationen mit verschiedenen Herausforderungen umgehen. Zusammengenommen erzählen sie eine größere Geschichte darüber, wie CIOs, CTOs und CDOs ihre Organisationen modernisieren, mit KI experimentieren und Datenprobleme lösen – alles notwendige Schritte, um die Chancen fortschrittlicher KI zu nutzen“, sagt Belissent. „Es ist wichtig zu verstehen, dass die Ära der generativen KI keine grundlegende Änderung der Datenstrategie erfordert. Sie erfordert vielmehr, die Strategie konsequent voranzutreiben, Silos schneller aufzubrechen und den Zugang zu Datenquellen zu öffnen, unabhängig davon, wo genau sie sich im Unternehmen befinden.“ |
The market for AI applications is exploding. Large language models (LLMs) are increasingly being used for chatbots: Almost every second LLM application that developers program today is a chatbot. The proportion has risen from 18% to 46% since May 2023 – and the trend continues to rise. In addition, a survey of the Streamlit developer community revealed that almost 65% of respondents use their LLM projects professionally. This indicates that generative AI is becoming increasingly important in making people more productive and efficient.
These findings are based on usage data from more than 9,000 Snowflake customers, which the data cloud company has summarized in its new „Data Trends 2024“ report. The focus of interest was on how companies are preparing for a time when advanced AI will transform and accelerate their business processes. The new data shows a shift from LLM applications with text-based input (2023: 82%, 2024: 54%) to chatbots with iterative text input that enable natural conversations. „Chatbot applications are on the rise because this type of interaction is particularly intuitive for humans,“ explained Jennifer Belissent, principal data strategist at Snowflake. „We expect this trend to continue as it becomes easier to develop and deploy LLM applications. Especially with the confidence that the underlying data is securely managed and protected. This peace of mind is a key enabler for the business use of chatbots that also meets user expectations.“ Over 33,000 LLM applications in nine months In total, 20,076 developers from Snowflake’s Streamlit community have worked on 33,143 LLM applications in nine months. When it comes to developing AI projects, Python is the most popular programming language. It is easy to use and has an active community and ecosystem of libraries and frameworks. In Snowpark, a tool that extends the programming capabilities of Snowflake, Python usage grew significantly faster than Java and Scala in the last fiscal year – Python by 571 percent, Scala by 387 percent, and Java by 131 percent. Python accelerates prototyping and experimentation – increasing the learning effect as development teams approach innovative AI projects. Regarding the location of application development, the trend is to develop LLM applications directly on the platform where the data is managed. This is evidenced by the 311% increase in Snowflake Native Apps between July 2023 and January 2024. Developing applications within a data platform eliminates the need to export copies of data. This eliminates the need to move data between IT environments, making it faster and easier to develop and deploy applications. At the same time, operational maintenance costs are reduced. Data governance comes to the forefront The importance of data to the rise of generative AI is reflected in the increasing use of unstructured data. Snowflake customers have increased unstructured data processing by 123 percent in the past year. IDC estimates that up to 90 percent of the world’s data is unstructured video, images, and documents. A clean database gives language models a head start, so unlocking that untapped 90 percent is of great value. „Data governance is not about keeping data under lock and key, but ultimately getting the most value out of it,“ says Belissen. „Data governance is based on three principles: Know your data, secure your data, and use your data to create value. Organizations have evolved their data governance practices to include a wide range of standards and tagging capabilities. While the use of all data governance capabilities has increased by 70 to 100 percent, the number of requests for protected objects has increased by 142 percent. This clearly demonstrates that when data is managed securely, it can be used securely. „Individually, these trends show how IT organizations are dealing with different challenges. Together, they tell a larger story about how CIOs, CTOs and CDOs are modernizing their organizations, experimenting with AI and solving data problems – all necessary steps to take advantage of the opportunities presented by advanced AI,“ said Belissent. „It’s important to understand that the era of generative AI does not require a fundamental shift in data strategy. Rather, it requires consistent execution of that strategy, breaking down silos more quickly, and opening up access to data sources regardless of where they reside in the organization. |
Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de