Hacker stehen bereit, das KI-Werkzeug ChatGPT von OpenAI für Ihre Zwecke zu missbrauchen (English version below).

Chatbots mit künstlicher Intelligenz wie ChatGPT von OpenAI helfen Cyberkriminellen, ihre Opfer zu erreichen und bessere Angriffe durchzuführen. Die Cybersicherheit und die Anwender werden auf diese Gefahr reagieren müssen, so Bitdefender.

Der Chatbot ChatGPT von OpenAI und seinen Verwandten DALL-E und Midjourney für die Bildbearbeitung haben die Art und Weise verändert, wie die meisten von uns die nahen und unmittelbaren Auswirkungen von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) auf unser tägliches Leben sehen. Versierte Computernutzer setzen diese KI-Tools ein, um alles Mögliche zu tun, von der Aktualisierung ihres Lebenslaufs über das Schreiben und Debuggen von Code bis hin zum Komponieren von Gedichten, Kunst und Musik und darüber hinaus.

Das KI-Modell ChatGPT von OpenAI basiert auf unüberwachtem Lernen. Bei diesem ML-Ansatz wird ein AI-Modell mit einem großen Datensatz ungelabelter Daten gefüttert. Der gewaltige Materialkorpus aus Büchern, Artikeln und Webseiten basiert auf Quellen von vor 2021 und hat noch keine Verbindungen an das aktuelle Internet. Doch bereits das genügt, um die Strukturen natürlicher Sprache zu lernen und um täuschend echt menschlich anmutende Antworten auf Fragen zu bieten.

Die speziellen KI- und maschinellen Lernmodelle, die OpenAI für ChatGPT und Dall-E verwendet, basieren auf einer Art neuronalem Netzwerk, das als Transformer bezeichnet wird.  Transformer sind eine Art von Deep-Learning-Modell, das sich als besonders effektiv bei der Verarbeitung natürlicher Sprache erwiesen hat, z. B. bei der Sprachübersetzung und Texterstellung.

Einer der Hauptunterschiede zwischen den von OpenAI verwendeten Modellen und anderen Modellen ist die Größe der Modelle.  Das ChatGPT von OpenAI ist mit über 175 Milliarden Parametern eines der größten Modelle, die je erstellt wurden.  Dadurch ist es in der Lage, Texte mit einem hohen Maß an Komplexität und Nuancierung zu lernen und zu generieren.  Dadurch ist ChatGPT in der Lage, fast so effektiv wie ein Mensch zu antworten.

Hacker können von einer solchen Hilfe profitieren, selbst wenn bei konkreten Vorhersagen über den Einsatz noch Vorsicht geboten ist. Fünf Beispielfälle skizzieren bereits jetzt die Möglichkeiten der Zukunft:

I Automatisiertes Phishing: Hacker können mit ChatGPT automatisierte Phishing-Attacken starten, die eine neue Qualität erreichen. Fehler in Orthografie und Grammatik, die bisher ein augenscheinliches Indiz für solche Angriffe waren, lassen sich nun ausschließen. Angesichts der Tatsache, dass die Verfasser vieler Phishing-Mails weder Englisch noch Deutsch als Muttersprache sprechen, dürfte dies große Folgen auf die Qualität solcher Mails in der Breite haben. ChatGPT kann Nachrichten in perfekter Grammatik schreiben. Der Kreis von Opfern, die sich überlisten lassen, erweitert sich damit sprunghaft. Es kann Code verfassen, um den Schreibprozess zu automatisieren.

II Vorspielen von Identitäten: ChatGPT kann real existierende Personen oder Organisationen täuschend echt imitieren. Dies wird Identitätsdiebstahl oder andere Betrugsformen befördern. Hacker nutzen den Chatbot, um vermeintliche Nachrichten eines Freundes oder Kollegen zu senden, nach sensiblen Informationen zu fragen und so Zugang zu einem fremden Nutzerkonto zu erlangen.

III Social Engineering: ChatGPT und andere KI-Chatbots können Social-Engineering-Attacken zielgerechter gestalten. Hacker manipulieren die Adressaten durch noch besser personalisierte und scheinbar legitime Unterhaltungen. Bisher war Vertrautheit ab einem gewissen Grad realistisch nicht ohne persönlichen physischen Kontakt möglich. Das ist spätestens dann nicht mehr der Fall, wenn das Tool Informationen aus dem Internet heranzieht. Die Antworten des Bots sind so menschenähnlich, dass sie sich von einer menschlichen Antwort kaum unterscheiden.

IV Gefälschter Support: Unternehmen werden weiterentwickelte KI-Chatbots für ihren Kundenkontakt einsetzen. Hacker werden die Trittbrettfahrer sein und selbst agieren – etwa mit einem täuschend ähnlich imitierten betrügerischen Bank-Auftritt und einem scheinbar menschlichen Kundendienst. Wiederum ist das Ziel, sensible Informationen zu erbeuten. Banking-Malware war bereits in der Vergangenheit Vorreiter, um neue Angriffsmethoden zu entwickeln.

V Beschleunigtes Entwickeln von Angriffen – bis hin zur Hilfe beim Code: Über erste Fälle hat Forbes bereits berichtet. Offenbar nutzen Hacker den Bot, um bösartigen Code für das Verschlüsseln und Exfiltrieren von Daten zu verfassen. ChatGPT ist vertraut mit den meistverbreiteten Coding-Sprachen und könnte die Zeit zum Entwickeln von Angriffen verkürzen. Ein Hacker mit dem gefragten Spezialwissen zu Schwachstellen im Netzwerk schließt mit dem Bot schneller seine Lücken beim Verfassen von Code. Das Reverse Engineering einer stattgefundenen Cyberattacke kann leichter sein. KI kann helfen, um Code zu modifizieren, zu verbessern und um Attacken besser an ein ausgewähltes Ziel anzupassen.

ChatGPT kann wohl noch keine fehlerfreien Codes schreiben, aber helfen. Bedenklich ist, dass Sicherheitsmaßnahmen nicht unbedingt greifen. Der „Safety Switch“ lässt sich umgehen. Der Switch soll das KI-Modell daran hindern, gewalttätige, diskriminierende oder sexuell explizite Texte zu schreiben. Er soll helfen, solche Fragen des Nutzers zu identifizieren, die eindeutig nach Antworten suchen, welche schändlichen Zwecken dienen. Die direkte Frage danach, Python-Code zu schreiben, um eine Log4j-Schwachstelle auszunutzen, lehnt der Chatbot noch ab. Ein sachkundiger Nutzer kann den Schutzmechanismus aber umgehen. Eine Möglichkeit ist etwa, dieselbe Frage in einer anderen Sprache zu stellen. Er findet Hinweise, um die richtigen Fragen zu stellen.

KI-gestützte Attacken erreichen in Zukunft ein neues Niveau. Opfer müssen misstrauischer sein. Die klassischen Phishing-Mails, die der unscheinbare Auftakt für viele, wenn nicht sogar die meisten schwerwiegenden Attacken sind, werden immer täuschender. Helfen kann dagegen nur Vorsicht oder mehr Datensparsamkeit im Internet oder in sozialen Medien. Denn gerade Cyberbetrug, der auf dem Kapern einer Identität basiert, wird in dem Maße täuschender, in dem den Hackern Informationen zum vermeintlichen Absender einer bösartigen Nachricht vorliegen. Chatbots, die wie neue Suchmaschinen agieren, schaffen eine neue Qualität für vorhandene Angriffsmechanismen.

English version

ChatGPT helps cybercriminals

Hackers are ready to abuse OpenAI’s ChatGPT AI tool for their own purposes.

Artificial intelligence chatbots like OpenAI’s ChatGPT help cybercriminals reach their victims and launch better attacks. Cybersecurity and users will need to respond to this threat, says Bitdefender.

OpenAI’s ChatGPT chatbot and its relatives DALL-E and Midjourney for image processing have changed the way most of us view the near and immediate impact of artificial intelligence (AI) and machine learning (ML) on our daily lives. Savvy computer users are using these AI tools to do everything from updating their resumes to writing and debugging code to composing poetry, art, music, and beyond.

OpenAI’s ChatGPT AI model is based on unsupervised learning. In this ML approach, an AI model is fed a large dataset of unlabeled data. The massive corpus of material from books, articles, and web pages is based on sources from before 2021 and does not yet have connections to the current Internet. But even that is enough to learn the structures of natural language and offer deceptively human-looking answers to questions.

The special AI and machine learning models OpenAI uses for ChatGPT and Dall-E are based on a type of neural network called a transformer.  Transformers are a type of deep learning model that has been shown to be particularly effective in natural language processing, such as language translation and text generation.

One of the main differences between the models used by OpenAI and others is the size of the models.  OpenAI’s ChatGPT is one of the largest models ever created, with over 175 billion parameters.  As a result, it is able to learn and generate text with a high degree of complexity and nuance.  As a result, ChatGPT is able to respond almost as effectively as a human.

Hackers can benefit from such assistance, even if caution is still needed in making specific predictions about its use. Five example cases already outline the possibilities of the future:

I Automated phishing: hackers can use ChatGPT to launch automated phishing attacks that reach a new level of quality. Errors in spelling and grammar, which were previously obvious indicators of such attacks, can now be eliminated. Given the fact that the authors of many phishing emails do not speak English or German as their native language, this is likely to have major consequences for the quality of such mails across the board. ChatGPT can write messages in perfect grammar. The circle of victims who can be duped thus expands by leaps and bounds. It can write code to automate the writing process.

II Impersonation: ChatGPT can impersonate real people or organizations. This will promote identity theft or other forms of fraud. Hackers use the chatbot to send supposed messages from a friend or colleague, ask for sensitive information, and gain access to someone else’s user account.

III social engineering: ChatGPT and other AI chatbots can target social engineering attacks. Hackers manipulate addressees through even better personalized and seemingly legitimate conversations. Until now, familiarity beyond a certain level was not realistically possible without face-to-face physical contact. This is no longer the case, at the latest, when the tool draws on information from the Internet. The bot’s responses are so human-like that they hardly differ from a human response.

IV Fake support: companies will use more advanced AI chatbots for their customer contact. Hackers will be the free riders and act themselves – for example, with a deceptively similar imitation fraudulent bank appearance and seemingly human customer service. Again, the goal is to capture sensitive information. Banking malware has been at the forefront of developing new attack methods in the past.

V Accelerated development of attacks – up to and including help with code: Forbes has already reported on the first cases. Apparently, hackers use the bot to write malicious code for encrypting and exfiltrating data. ChatGPT is familiar with the most widely used coding languages and could shorten the time to develop attacks. A hacker with the sought-after specialized knowledge of network vulnerabilities uses the bot to more quickly close his gaps when writing code. Reverse engineering a cyberattack that has taken place can be easier. AI can help to modify code, improve it, and better tailor attacks to a selected target.

ChatGPT probably can’t write bug-free code yet, but it can help. Of concern is that safety measures don’t necessarily kick in. The „safety switch“ can be bypassed. The switch is supposed to prevent the AI model from writing violent, discriminatory or sexually explicit texts. It is supposed to help identify those user questions that clearly seek answers that serve nefarious purposes. The chatbot still rejects the direct question about writing Python code to exploit a Log4j vulnerability. However, a knowledgeable user can bypass the protection mechanism. One way, for example, is to ask the same question in a different language. He finds clues to ask the right questions.

AI-supported attacks will reach a new level in the future. Victims will have to be more suspicious. The classic phishing emails that are the inconspicuous prelude to many, if not most, serious attacks are becoming more deceptive. The only thing that can help against this is caution or more data thrift on the Internet or in social media. Because cyber fraud in particular, which is based on hijacking an identity, becomes more deceptive to the extent that the hackers have information about the supposed sender of a malicious message. Chatbots that act like new search engines create a new quality for existing attack mechanisms.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner