KI kann Deepfakes optimieren. Diese täuschend echten Fälschungen stellen eine Gefahr für die Demokratie dar, erklärt Morgan Wright, Chief Security Advisor bei SentinelOne.

AI optimizes deepfakes. These deceptively real fakes pose a threat to politics and democracy, explains Morgan Wright, chief security advisor at SentinelOne.

„Deepfakes“ sind authentisch aussehende Videos (und andere Medien), die mithilfe von Technologie Personen oder Szenen imitieren. Sie existieren schon seit Jahren. So können beispielsweise verstorbene Künstler wie Salvador Dalí mit Hilfe dieser Technologie in interaktiven Ausstellungen wieder zum Leben erweckt werden.

In der politischen Arena geht jedoch nicht darum, KI für Spezialeffekte, futuristische Kulissen oder dystopische Zukunftsszenarien einzusetzen. Vielmehr bedeuten die außerordentlichen Fortschritte in der Künstlichen Intelligenz (KI), dass die Möglichkeiten und Werkzeuge der Bedrohungsakteure massiv gewachsen sind. So können sie beispielsweise Wahlwerbespots mit computergenerierten, lebensecht wirkenden Fake-Bildern von Kandidaten produzieren, um deren Ansichten falsch darzustellen und sie damit zu kompromittieren.

 

Die Auswirkungen von Deepfakes auf politische Prozesse

Eine Erzählung braucht ein fesselndes Element, um sie im Gedächtnis der Zielgruppe zu verankern. Bei Filmen geht es um Unterhaltung und die Flucht vor der Realität – oft ist das in der Politik nicht viel anders.

Das fesselnde Element kann ein Bild, ein Audio-Clip oder ein Video sein. Die Fortschritte im Bereich KI haben sowohl in der Unterhaltungsbranche als auch als Werkzeug für Täuschung ganz neue Möglichkeiten eröffnet. KI benötigt große Datenmengen, um effektiv trainiert werden zu können und verlässliche und hochwertige Antworten zu liefern. Je mehr Inhalt, desto besser kann KI die angestrebten Ergebnisse erzielen. Für Bedrohungsakteure deren Ziel die Manipulation menschlichen Verhaltens und die Veränderung zuvor gesicherter Überzeugungen ist, stellt die Fülle von Audio-, Video- und Bilddateien in der politischen Sphäre einen erstklassigen Trainingsplatz dar.

Die Geschichte hat uns gelehrt, dass Lügen oftmals leichter verbreitet werden als die Wahrheit und sehr schwer zu korrigieren sind. In unseren Köpfen gibt es eine direkte Verbindung der eigenen Wahrnehmung hin zu unserem Verständnis von Realität, und es fällt uns sehr schwer, dieses anfänglich erzeugte Bild der Realität kritisch zu hinterfragen.

Dieses Phänomen hat ein erhebliches rechtliches und technisches Dilemma geschaffen: Wie können wir sicher sein, dass ein Video kein Deepfake ist? Wie beweist man, dass etwas nicht passiert ist? Und die größere Frage, die sich uns stellt: Wie können wir definitiv beweisen, dass etwas gefälscht ist? Im Jahr 2023 hat KI sich in vielen Bereichen bereits weit über die grundlegende menschliche Fähigkeit hinaus entwickelt: Sie ermöglicht es, täuschend echte Aufnahmen – ein Bild, ein Video oder eine Stimme – sehr schnell und unkompliziert zu fälschen. Es werden Situationen geschaffen, in denen die Wahrnehmung in den Köpfen der Menschen beeinflusst werden kann, durch gezielte Falschinformationen, was eine sehr gefährliche und wirksame politische Waffe darstellt.

Täuschung der Massen                                      

Deepfakes sind dadurch eine neue Art der „Weapons of Mass Deception“, also Waffen der Massentäuschung, geworden. Die größte Auswirkung von Deepfake-Videos ist nicht die Tatsache, dass sie gefälscht sind. Es sind die Nachwirkungen der Täuschung, die auch lange nach der Entdeckung der Wahrheit in den Köpfen der Menschen bestehen bleiben – ein äußerst mächtiges Werkzeug in den Händen von Bedrohunsgakteuren.

Diese Art von Szenario und seine potenziellen Folgen hat bereits 1710 Jonathan Swift, der Autor von „Gullivers Reisen“, beleuchtet. In einem Artikel für „The Examiner“ bemerkte er: „Wenn eine Lüge nur eine Stunde lang geglaubt wird, hat sie ihre Arbeit getan, und es besteht keine weitere Notwendigkeit dafür. Die Falschheit fliegt, und die Wahrheit kommt hinkend nach, so dass, wenn die Menschen wieder aufgeklärt werden, es zu spät ist; der Witz ist vorbei, und die Geschichte hat ihre Wirkung entfaltet.“

Eine große Chance für Sicherheitsteams in der Bekämpfung von durch KI optimierten Deepfakes, besteht darin, KI einzusetzen, die darauf trainiert wurde, Deepfakes zu erkennen. Aber auch andere Prozesse sind vonnöten: Angesichts der Bedrohung durch Deepfakes muss die Gesellschaft der digitalen Bildung Vorrang einräumen, den Einzelnen in die Lage versetzen, zwischen echten und manipulierten Medien zu unterscheiden, in Technologien zur Erkennung von Deepfakes investieren und rechtliche Rahmenbedingungen schaffen, um böswillige Nutzung zu verhindern. Eine proaktive Zusammenarbeit zwischen Technologieunternehmen, Regulierungsbehörden und der Gesellschaft ist unabdingbar, um dem Anstieg der betrügerischen Deepfakes begegnen zu können.

„Deepfakes are authentic-looking videos (and other media) that use technology to imitate people or scenes. They’ve been around for years. For example, deceased artists such as Salvador Dalí can be brought back to life in interactive exhibitions using the technology.

But the political arena is not about using AI for special effects, futuristic settings, or dystopian future scenarios. Rather, the extraordinary advances in artificial intelligence (AI) mean that the capabilities and tools of threat actors have grown massively. For example, they can produce campaign ads with computer-generated, lifelike fake images of candidates to misrepresent their views and compromise them.

 

The impact of deepfakes on the political process

A narrative needs a compelling element to anchor it in the mind of the target audience. Movies are about entertainment and escaping reality – politics is often not much different.

The compelling element can be an image, an audio clip, or a video. Advances in AI have opened up new possibilities for both entertainment and deception. AI requires large amounts of data to train effectively and provide reliable, high-quality answers. The more content, the better the AI can achieve the intended results. For threat actors whose goal is to manipulate human behavior and alter previously secured beliefs, the abundance of audio, video, and imagery in the political sphere provides a prime training ground.

History has taught us that lies are often more easily spread than truth and are very difficult to correct. In our minds, there is a direct link from our own perceptions to our understanding of reality, and it is very difficult for us to critically challenge this initially generated image of reality.

This phenomenon has created a significant legal and technical dilemma: How can we be sure that a video is not a deepfake? How do we prove that something didn’t happen? And the bigger question we face: How can we definitively prove something is fake? In 2023, AI has already evolved far beyond basic human capability in many areas: it makes it possible to fake deceptively real recordings – an image, a video, or a voice – very quickly and easily. Situations are created in which perceptions can be influenced in people’s minds, through targeted misinformation, which is a very dangerous and effective political weapon.

Deception of the masses

Deepfakes have thus become a new type of Weapons of Mass Deception. The biggest impact of deepfake videos is not the fact that they are fake. It is the aftermath of deception that persists in people’s minds long after the truth has been discovered – an extremely powerful tool in the hands of threat actors.

This type of scenario and its potential consequences were highlighted as early as 1710 by Jonathan Swift, author of „Gulliver’s Travels.“ In an article for „The Examiner,“ he noted, „If a lie is believed for but an hour, it has done its work, and there is no further need for it. The falsehood flies, and the truth comes limping along, so by the time people are enlightened again, it’s too late; the joke is over, and the story has had its effect.“

A big opportunity for security teams in combating AI-optimized deepfakes is to use AI that has been trained to detect deepfakes. But other processes are also needed: in the face of the threat of deepfakes, society must prioritize digital literacy, empower individuals to distinguish between real and manipulated media, invest in technologies to detect deepfakes, and create legal frameworks to prevent malicious use. Proactive collaboration between technology companies, regulators, and society is essential to address the rise of fraudulent deepfakes.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner