Das Vertrauen in Generative AI schwindet und die Sicherheit wird hinterfragt, erklärt Ali Moniri, Senior Sales Engineer bei Gigamon. | Trust in Generative AI is waning and security is being questioned, explains Ali Moniri, Senior Sales Engineer at Gigamon. |
Im vergangenen Jahr zeigten sich deutsche Unternehmen noch wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten bedingungslos auf die vielversprechenden Anwendungen der Generativen AI und ihre Vorteile. Die Ergebnisse einer aktuellen Studie von Gigamon legen jedoch nahe, dass die Skepsis gegenüber diesen Tools in den letzten zwölf Monaten zugenommen hat. Es ist nun einige Jahre her, seit ChatGPT den Hype um Generative AI und einen Tsunami neuer KI-Tools ausgelöst hat. Viele Unternehmen haben sich die Frage gestellt, wie sicher und vertrauenswürdig diese Technologie ist. Schließlich wird sie – ähnlich wie Instant Messaging und Social Media Apps – im öffentlichen Diskurs vor allem in puncto Sicherheit eher kritisch hinterfragt. Gigamon, marktführender Experte im Bereich Deep Observability, hat auch in diesem Jahr wieder 150 deutsche CIO/CISOs zu diesem Thema befragt. Sie beantworteten Fragen rund um die Sicherheit moderner Technologien und den Umgang mit Risiken. Im Vergleich zur letztjährigen Studie zeigen die aktuellen Ergebnisse einen deutlichen Wandel in der Wahrnehmung. 180-Grad-Wende: Kritischerer Blick auf GenAI-Tools Laut der Gigamon-Studie 2023 war die Mehrheit der deutschen Unternehmen im vergangenen Jahr noch optimistisch gegenüber Generative AI. 75 Prozent der befragten CIO/CISOs sahen keinen Grund, ChatGPT nicht einzusetzen. Der Rest hatte das Tool entweder bereits aus dem Unternehmen verbannt (fünf Prozent) oder wägte die Risiken ab, um eine schnelle Entscheidung zu treffen (20 Prozent). Inzwischen hat sich diese Einstellung um 180 Grad gedreht. Heute setzen deutlich weniger deutsche Unternehmen die Technologie bedenkenlos ein (31 Prozent). 25 Prozent haben die Initiative ergriffen und ChatGPT und Google Gemini abgeschafft (25 Prozent) und 44 Prozent evaluieren derzeit noch mögliche Sicherheitsrisiken. Damit scheint das Vertrauen in Generative KI in den letzten zwölf Monaten gesunken zu sein. Vertrauen in Instant-Messaging-Anwendungen steigt Eine ganz andere Entwicklung zeigt sich bei WhatsApp. Im vergangenen Jahr stieß die Instant Messaging App bei den CIO/CISOs noch überwiegend auf Ablehnung. Damals gaben 67 Prozent an, die Nutzung der Anwendung verboten zu haben. Keines der befragten Unternehmen erlaubte die Nutzung von WhatsApp innerhalb der Unternehmensgrenzen. Die aktuelle Umfrage zeigt jedoch, dass sich der Umgang mit der App gelockert hat. Nur noch 22 Prozent der CIOs/CISOs verbieten sie aus Sicherheitsgründen, 34 Prozent geben an, keine Bedenken zu haben, wenn Mitarbeitende WhatsApp nutzen. Auch bei TikTok hat sich die Situation verändert. Während die Kurzvideo-App 2023 bei zehn Prozent der Befragten auf wenig Gegenliebe stieß, 89 Prozent mögliche Sicherheitsrisiken prüften und nur ein Prozent kein Problem damit hatte, ist die Haltung deutscher Unternehmen heute weniger eindeutig. Zwar verbieten mehr von ihnen die Nutzung von TikTok (47 Prozent), aber auch der Anteil derer, die die App erlauben, ist um 23 Prozent gestiegen. „Deutsche Unternehmen erkennen langsam, dass Generative AI nicht so harmlos ist, wie viele anfangs dachten. Vielleicht sind sie selbst Opfer einer Phishing-Attacke geworden, bei der täuschend echt aussehende E-Mails generiert wurden, oder sie haben andere Nachteile durch die Technologie erfahren. Jedenfalls nehmen immer mehr Unternehmen die Risiken von ChatGPT, Google Gemini und Co. ernst, stellen die Anwendungen auf den Prüfstand und entscheiden sich zunehmend gegen einen bedenkenlosen Einsatz. Aber auch wenn Generative AI genauer unter die Lupe genommen wird, steigt interessanterweise die Akzeptanz anderer Anwendungen wie WhatsApp und TikTok, die bisher unter den wachsamen und skeptischen Augen der CIOs/CISOs standen. Umso wichtiger ist es, die Sichtbarkeit der IT-Umgebung zu erhöhen, um möglichen blinden Flecken entgegenzuwirken“, sagt Ali Moniri, Technical Lead EMEA bei Gigamon. Unternehmen erkennen zunehmend die Bedeutung von Deep Observability Die Umfrage zeigt auch, dass IT-Verantwortliche in Deutschland zunehmend erkennen, wie wichtig Sichtbarkeit bis auf Netzwerkebene (Deep Observability) ist, um sich vor Bedrohungen zu schützen, die sich über Blind Spots einschleichen könnten. Im Vergleich zum Vorjahr haben viele die Transparenz ihrer Infrastrukturen erhöht. 55 Prozent der Befragten berichten von einer Sichtbarkeit, die von der Netzwerk- bis zur Anwendungsebene reicht (2023: 28 Prozent). 53 Prozent geben an, einen besseren Einblick in den bisher stark vernachlässigten verschlüsselten Datenverkehr zu haben (2023: 21 Prozent). Diese Schritte haben dazu geführt, dass sich weniger CIOs/CISOs als zuvor Sorgen über blinde Flecken machen (31 Prozent; 2023: 52 Prozent). Denn sie sind nun in der Lage, Schwachstellen und aktive Angriffe schneller zu erkennen und zu bekämpfen. Deep Observability ist daher ein absolutes Muss für den Einsatz von Technologien wie ChatGPT und WhatsApp, die sich als potenzielle Schwachstellen erweisen können. | Last year, German companies were unimpressed by the security risks of ChatGPT and the like. They fully believed in the promising applications of Generative AI and its benefits. However, the results of a recent Gigamon study suggest that skepticism about these tools has increased over the past twelve months. It’s been a few years since ChatGPT kicked off the Generative AI hype and a tsunami of new AI tools. Many organizations have questioned how secure and trustworthy this technology is. After all, similar to instant messaging and social media apps, it is often criticized in the public discourse, especially when it comes to security. Gigamon, the market-leading expert in the field of Deep Observability, once again surveyed 150 German CIOs/CISOs on this topic. They answered questions about the security of modern technologies and the handling of risks. Compared to last year’s study, the current results show a clear change in perception. A 180-degree turn: A more critical view of GenAI tools According to the Gigamon Study 2023, the majority of German companies were optimistic about Generative AI last year. 75 percent of the CIOs/CISOs surveyed saw no reason not to use ChatGPT. The rest had either already banned the tool from the company (five percent) or were weighing the risks in order to make a quick decision (20 percent). In the meantime, this attitude has turned 180 degrees. Today, significantly fewer German companies use the technology without hesitation (31 percent). 25 percent have taken the initiative to do away with ChatGPT and Google Gemini (25 percent), and 44 percent are still evaluating potential security risks. Trust in Generative AI appears to have declined over the past twelve months. Trust in instant messaging applications grows WhatsApp is a very different story. Last year, the instant messaging app was largely rejected by CIOs/CISOs. At that time, 67 percent said they had banned its use. None of the companies surveyed allowed the use of WhatsApp within company boundaries. However, the current survey shows that attitudes towards the app have relaxed. Only 22% of CIOs/CISOs still ban it for security reasons, while 34% say they have no concerns about employees using WhatsApp. The situation has also changed for TikTok. While in 2023 the short video app met with little approval from ten percent of respondents, 89 percent checked for possible security risks and only one percent had no problem with it, the attitude of German companies today is less clear. Although more of them are banning the use of TikTok (47%), the proportion of those allowing the app has also increased by 23%. „German companies are slowly realizing that Generative AI is not as harmless as many initially thought. They may have been the victims of a phishing attack that generated deceptively real-looking emails, or they may have experienced other drawbacks from the technology. In any case, more and more companies are taking the risks of ChatGPT, Google Gemini, and the like seriously, putting the applications to the test, and increasingly deciding not to use them without hesitation. Interestingly, even as Generative AI comes under greater scrutiny, other applications such as WhatsApp and TikTok, which were previously under the watchful and skeptical eyes of CIOs/CISOs, are gaining acceptance. This makes it all the more important to increase visibility into the IT environment to address potential blind spots,“ said Ali Moniri, Technical Lead EMEA at Gigamon. Organizations increasingly recognize the importance of deep observability The survey also shows that IT managers in Germany are increasingly recognizing the importance of visibility down to the network level (deep observability) to protect against threats that could infiltrate through blind spots. Compared to last year, many have increased the visibility of their infrastructures. 55% of respondents report visibility that extends from the network to the application layer (2023: 28%). 53% say they have better visibility into encrypted traffic, which they had previously neglected (2023: 21%). As a result, fewer CIOs/CISOs are concerned about blind spots (31%; 2023: 52%). This is because they are now able to detect and address vulnerabilities and active attacks more quickly. Deep observability is therefore an absolute must when using technologies such as ChatGPT and WhatsApp, which can prove to be potential vulnerabilities. |
Arne Lehfeldt, Systems Engineer und CTO Ambassador bei Dell Technologies, erklärt im Podcast Security, Storage und Channel Germany mit Carolina Heyder, warum Unternehmen keine Angst vor KI haben sollten. | Arne Lehfeldt, Systems Engineer and CTO Ambassador at Dell Technologies, explains why companies shouldn’t be afraid of AI in the Security, Storage and Channel Germany podcast with Carolina Heyder. |
Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de