Künstliche Intelligenz (KI) stößt derzeit noch an Grenzen. Bei Cybersecurity kann KI aber ein effektives Hilfsmittel für die Anstrengungen echter Experten sein (English Version below).

Autor: Dane Sherrets, Senior Solutions Architect, HackerOne

Seit der Erfindung des ersten modernen Computers Mitte des zwanzigsten Jahrhunderts hat maschinelle Intelligenz die Phantasie der Menschen beflügelt. Und der jüngste Meilenstein im Bereich der künstlichen Intelligenz, ChatGPT, hat unser Interesse an den Möglichkeiten, mit KI unsere Arbeit zu vereinfachen, neu geweckt.

Die Fortschritte von ChatGPT sind beeindruckend: Seine Produkte könnten fast mit menschgemachten verwechselt werden und zeigen, dass KI-Systeme in naher Zukunft noch für so manche Überraschung gut sein werden. Und doch liegt noch ein langer Weg vor dieser Technologie. Nach wie vor kann KI den Menschen (noch) in den meisten Bereichen nicht ersetzen.

Zwischen Wunsch und Wirklichkeit: ChatGPT und die Zukunft, die es verspricht

Um sich voll und ganz auf KI verlassen zu können, müsste sich eine bestimmte KI-Technologie als effektiver erweisen als alle anderen Technologien, die für denselben Zweck entwickelt wurden. Doch KI ist noch nicht so weit fortgeschritten, dass sie völlig autonom arbeiten könnte. Vielmehr beschreibt Narrow AI (ANI) (Enge oder Schwache KI) die KI, die wir heute vor allem kennen: KI, die für eine einzige Aufgabe entwickelt wurde, beispielsweise ein Chatbot oder ein Bildgenerator.

ANI erfordert menschliche Aufsicht und eine gewisse manuelle Konfiguration, um zu funktionieren. Ferner wird sie nicht immer auf Basis neuester Daten und Erkenntnisse betrieben und trainiert. ChatGPT wurde mittels Lernen mit menschlichem Feedback (Reinforcement Learning from Human Feedback, RLHF) trainiert, das es dem Modell ermöglicht hat, aus richtigen und falschen Antworten auf Anfragen zu lernen.

Auch die Art, wie Menschen mit den KI-Systemen interagieren, stellt eine große Herausforderung dar. Machine-Learning-Modelle können durch persönliche Ansichten des Menschen, seine Kultur, die jeweilige Sozialisation und dessen Weltanschauung gefärbt sein. Dies schränkt die Fähigkeit ein, Modelle zu erstellen, die unvoreingenommen arbeiten. Bei unsachgemäßem Einsatz und Training kann ANI dafür sorgen, dass Vorurteile weiterhin Arbeit, Systeme und Kultur beeinflussen.

Es wurden sogar bereits Bug-Bounty-Programme zur Beseitigung der Voreingenommenheit von KI-Systemen ins Leben gerufen – ein eindeutiger Beleg, dass es sich um ein relevantes Problem handelt. Eine völlige Abhängigkeit wäre daher problematisch, solange wir nicht wissen, wie wir bessere KI-Systeme entwickeln können, die nicht durch die menschliche Voreingenommenheit beeinflusst werden.

Cybersicherheit ohne den menschlichen Faktor wäre zu kurzsichtig gedacht

Die sich wandelnde Bedrohungslandschaft, die Diversifizierung der Angriffsvektoren und die immer professioneller arbeitenden Cyberkriminellen erfordern einen mehrgleisigen Ansatz, der die jeweiligen Stärken von menschlicher und maschineller Intelligenz kombiniert. Eine im Jahr 2020 durchgeführte Umfrage ergab, dass 90 Prozent der Cybersicherheitsexperten der Meinung sind, dass die Cybersicherheitstechnologie nicht so effektiv ist, wie sie sein sollte, und teilweise für den wiederholten Erfolg der Angreifer mitverantwortlich ist.

Das uneingeschränkte Vertrauen in KI wird die ohnehin schon große Abhängigkeit vieler Unternehmen von diesen ineffektiven Automatisierungs- und Scanning-Tools nur noch verstärken. Und die durch KI generierten Fehlalarme zu Schwachstellen (“False Positives”), werden die Durchführung von Gegenmaßnahmen sogar noch erschweren.

Technologie hat zweifelsohne ihre Daseinsberechtigung. Allerdings ist in Sachen Cybersicherheit nichts mit einem qualifizierten Menschen mit Hacker-Mentalität vergleichbar. Speziell die Entdeckung schwerwiegender Schwachstellen, die von vielen Hackern gefunden werden, erfordert Kreativität und ein kontextbezogenes Verständnis des betroffenen Systems.

Ein von ChatGPT verfasster Schwachstellenbericht im Vergleich zu einem von einem Hacker durchgängig erstellten Bericht zeigt diesen Unterschied ganz deutlich. Bei einem Test erwies sich der Bericht der KI als repetitiv, unspezifisch und ungenau, während der Bericht des Hackers den vollständigen Kontext erfasste und detaillierte Hinweise für Gegenmaßnahmen enthielt.

KI kann Sicherheitsteams unterstützen

Es gibt jedoch einen Mittelweg: Künstliche Intelligenz kann Aufgaben schneller und effizienter bewältigen als ein einzelner Mensch. Das bedeutet, dass KI die Arbeit von Cybersicherheitsexperten erheblich erleichtern kann.

Ethische Hacker nutzen bereits KI-Tools, um Schwachstellenberichte zu verfassen, Codebeispiele zu generieren und Trends in großen Datensätzen zu erkennen. Die vielfältigen Fähigkeiten der Hacker-Community füllen dabei die Fähigkeitslücken der KI aus. KI hilft Hackern und Sicherheitsteams bei dem wichtigsten Aspekt des Schwachstellenmanagements – der Geschwindigkeit.

Da fast die Hälfte der Unternehmen davon ausgeht, nicht in der Lage zu sein, die eigenen Sicherheitslücken zu schließen, kann KI eine entscheidende Rolle bei der Schwachstellenerkennung spielen. Die Fähigkeit der KI, die Zeit bis zur Behebung von Schwachstellen zu verkürzen, indem sie den Teams hilft, große Datensätze schneller zu verarbeiten, könnte die Geschwindigkeit erhöhen, mit der interne Teams große Teile ihrer unbekannten Angriffsfläche analysieren und kategorisieren.

Narrow AI könnte helfen, große Herausforderungen der Industrie zu bewältigen

Es lässt sich bereits beobachten, dass auch die Politik das Potenzial von KI erkennt: Die Cybersecurity and Infrastructure Security Agency (CISA) listet KI als eine mögliche Lösung zum Schutz der Software-Lieferkette. Sofern sich Cybersecurity-Experten in ihrem Arbeitsalltag auf das Wesentliche konzentrieren können und kleinteilige Tätigkeiten entfallen, sind sie in der Lage, Angriffsflächen besser zu überblicken, Schwachstellen schneller zu beheben und stärkere Strategien zur Abwehr von Cyberangriffen zu entwickeln.

Schon bald könnte ANI noch mehr Potenzial bei den Hackern und Cybersicherheitsexperten freisetzen, die davon Gebrauch machen. Anstatt sich Sorgen darüber zu machen, dass KI ihre Arbeit übernehmen könnte, sollten Sicherheitsexperten ein breites Spektrum an Fähigkeiten kultivieren, die die KI-Tools ergänzen, und sich gleichzeitig ihrer derzeitigen Grenzen bewusst sein. KI ist weit davon entfernt, menschliches Denken zu ersetzen, aber das bedeutet nicht, dass sie nicht dazu beitragen kann, eine bessere Zukunft zu schaffen. In einer Branche, in der ein erheblicher Fachkräftemangel herrscht, könnte KI den entscheidenden Unterschied beim Aufbau eines sichereren Internets ausmachen.

English Version

ChatCyberSecurity: Just hot air?

Artificial intelligence (AI) currently still faces limitations. In cybersecurity, however, AI can be an effective tool for the efforts of real experts.

Since the invention of the first modern computer in the mid-twentieth century, machine intelligence has captured people’s imaginations. And the latest milestone in artificial intelligence, ChatGPT, has reignited our interest in the possibilities of using AI to make our jobs easier.

ChatGPT’s progress is impressive: its products could almost be mistaken for human-made ones, showing that AI systems will be good for many a surprise in the near future. And yet, there is still a long way to go for this technology. AI still cannot replace humans (yet) in most areas.

Between wish and reality: ChatGPT and the future it promises

To fully rely on AI, a particular AI technology would have to prove more effective than any other technology developed for the same purpose. But AI has not yet advanced to the point where it can operate fully autonomously. Rather, Narrow AI (ANI) describes the AI we are primarily familiar with today: AI designed for a single task, such as a chatbot or image generator.

ANI requires human supervision and some manual configuration to function. Further, it is not always run and trained based on the latest data and insights. ChatGPT was trained using reinforcement learning from human feedback (RLHF), which allowed the model to learn from correct and incorrect responses to queries.

The way humans interact with AI systems is also a major challenge. Machine learning models can be colored by people’s personal views, their culture, their particular socialization, and their worldview. This limits the ability to create models that work in an unbiased manner. If used and trained improperly, ANI can ensure that biases continue to influence work, systems, and culture.

In fact, bug bounty programs have already been launched to address bias in AI systems – clear evidence that it is a relevant problem. Total reliance would therefore be problematic until we know how to develop better AI systems that are not affected by human bias.

Cybersecurity without the human factor would be too short-sighted thinking

The changing threat landscape, diversification of attack vectors and increasingly professional cybercriminals require a multi-pronged approach that combines the respective strengths of human and machine intelligence. A 2020 survey found that 90 percent of cybersecurity professionals believe cybersecurity technology is not as effective as it should be and is partly responsible for the repeated success of attackers.

Unbridled reliance on AI will only exacerbate many organizations‘ already heavy reliance on these ineffective automation and scanning tools. And the false alerts to vulnerabilities generated by AI („false positives“), will make it even more difficult to implement countermeasures.

Technology undoubtedly has its raison d’être. However, when it comes to cybersecurity, nothing compares to a skilled human with a hacker mentality. Specifically, discovering serious vulnerabilities found by many hackers requires creativity and a contextual understanding of the affected system.

A vulnerability report written by ChatGPT compared to one written by a hacker end-to-end demonstrates this difference quite clearly. In one test, the AI’s report proved repetitive, non-specific and inaccurate, while the hacker’s report captured full context and provided detailed guidance for countermeasures.

AI can help security teams

However, there is a middle ground: artificial intelligence can complete tasks faster and more efficiently than a single human. That means AI can make the job of cybersecurity professionals much easier.

Ethical hackers are already using AI tools to write vulnerability reports, generate code samples, and identify trends in large data sets. In doing so, the diverse capabilities of the hacker community fill in the capability gaps of AI. AI helps hackers and security teams with the most important aspect of vulnerability management – speed.

With nearly half of organizations expecting to be unable to close their own vulnerabilities, AI can play a critical role in vulnerability detection. The ability of AI to reduce time to remediation by helping teams process large data sets faster could increase the speed at which internal teams analyze and categorize large portions of their unknown attack surface.

Narrow AI could help address big industry challenges

We can already see that policymakers are also recognizing the potential of AI, with the Cybersecurity and Infrastructure Security Agency (CISA) listing AI as a potential solution to protect the software supply chain. Provided cybersecurity experts can focus on the essentials in their daily work and eliminate small-scale activities, they will be able to better survey attack surfaces, fix vulnerabilities faster and develop stronger strategies to defend against cyberattacks.

Soon, ANI could unlock even more potential among hackers and cybersecurity professionals who make use of it. Instead of worrying about AI taking over their jobs, security professionals should cultivate a broad range of skills that complement AI tools, while being aware of their current limitations. AI is far from replacing human thinking, but that doesn’t mean it can’t help create a better future. In an industry facing a significant skills shortage, AI could make all the difference in building a safer Internet.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner