Nominiert für die »WOMEN OF THE YEAR«-Awards 2025! Kategorie: IT – CxO Vote for Carolina: https://www.fit-kongress.de/award Link anklicken/ zur Abstimmung/ jetzt starten /Women in IT/ CxO/ Carolina Heyder |
Nominated for the „WOMEN OF THE YEAR“ Awards 2025! Category: IT – CxO Vote for Carolina: https://www.fit-kongress.de/award Click the link / to vote / start now / Women in IT / CxO / Carolina Heyder |
KI-generierte Deepfakes sind keine Zukunftstechnologie mehr, denn sie verursachen bereits heute Millionenschäden. Marco Eggerling, Global CISO bei Check Point, erklärt, wie sich Unternehmen gegen die wachsende Bedrohung schützen können. | AI-generated deepfakes are no longer just a technology of the future; they are already causing millions of dollars in damage today. Marco Eggerling, Global CISO at Check Point, explains how companies can protect themselves against this growing threat. |
Deepfakes sind längst keine Spielerei mehr. Was als unterhaltsamer Internettrend begann, ist heute ein hochentwickeltes Werkzeug für Cyberkriminalität. Moderne Deepfakes sehen täuschend echt aus, lassen sich in Echtzeit einsetzen und sind massentauglich. Damit stellen sie eine akute Bedrohung für Wirtschaft und Gesellschaft dar.
Laut dem „Check Point AI Security Report 2025” verursachten Deepfake-Angriffe allein in zwei bekannt gewordenen Fällen in Kanada und Großbritannien einen Schaden in Höhe von über 35 Millionen US-Dollar. Noch gravierender ist jedoch, dass sich die kriminelle Nutzung längst nicht mehr auf Videos beschränkt. KI-generierte Stimmen werden mittlerweile regelmäßig bei Sextortion, CEO-Hochstapelei und Fake-Geiselnahmen eingesetzt. So wurden beispielsweise in Italien der Verteidigungsminister sowie Giorgio Armani und andere Konzernführer per Deepfake-Stimme nachgeahmt, um prominente Kontakte zu erpressen. Die technische Basis dafür ist ebenso erschreckend wie leicht zugänglich: Voice-Cloning-Systeme lassen sich mit nur wenigen Minuten Audiomaterial trainieren, kosten etwa 20.000 US-Dollar und können jede Stimme in jeder Sprache in Echtzeit imitieren – sogar über mehrere Gespräche hinweg. Ergänzt werden diese Systeme durch gefälschte Business-E-Mail-Kits und auf Betrug zugeschnittene Phishing-Suites. Sie sind im Darknet und auf Telegram für wenige Hundert US-Dollar erhältlich und kommen ohne menschliche Beteiligung aus. Besonders besorgniserregend ist die zunehmende Kommerzialisierung dieser Technologien. Selbst technisch weniger versierte Hacker können mithilfe von Tools, die auf generativer KI basieren, kontinuierlich dazulernen und sich dynamisch an das Verhalten ihrer Opfer anpassen. Damit können sie täuschend echte CEO-Anrufe, gefälschte Konferenzschaltungen oder personalisierte Phishing-Kampagnen durchführen. Diese Automatisierung der Cyberkriminalität macht Deepfakes so skalierbar wie nie zuvor. Die Technologie wurde in den letzten Jahren stark verbessert. So gibt es beispielsweise autonome Live-Agenten. Mit diesen kann man nicht nur Identitäten fälschen, sondern auch ganze Gespräche mit Avataren führen, die von künstlicher Intelligenz gesteuert werden. Die Übergänge zwischen Realität und Simulation werden somit fließend, sodass herkömmliche Überprüfungsmechanismen nicht mehr greifen. Einerseits hilft es, die Aufmerksamkeit der Nutzer zu schärfen, um Ungereimtheiten zu erkennen und nicht alles zu glauben, was seriös erscheint. Andererseits können sich Unternehmen und Behörden mithilfe mehrschichtiger Sicherheitsarchitekturen, die verschiedene Komponenten konsolidieren, gegen solche Betrügereien schützen. Die Einbindung von KI in die Cyber-Abwehr ist außerdem ideal, um KI-generierte Angriffe abzuwehren, da hier Ähnliches mit Ähnlichem gekontert wird. Mithilfe KI-basierter Verteidigungssysteme lassen sich gefälschte Medien, verdächtige Kommunikation und Anomalien im Verhalten frühzeitig erkennen und blockieren, bevor Schaden entsteht. Die Technologien erkennen Deepfakes in Audiodateien, isolieren Angriffe von autonomen KI-Agenten und verhindern die Ausführung manipulierten Inhalts. In Kombination mit Zero-Trust-Modellen und gezielten Awareness-Programmen entsteht so ein umfassender Schutzschild gegen Deepfake-Angriffe. Jedem sollte daher bewusst sein: Deepfakes sind keine theoretische Zukunftsvision mehr oder eine kleine Spielerei einiger Hacker, um die Öffentlichkeit zu erschrecken, sondern knallharte Realität der Cyberkriminalität. |
Deepfakes are no longer just a gimmick. What began as an entertaining internet trend has become a sophisticated tool for cybercrime. Modern deepfakes look deceptively real, can be used in real time, and are ready for widespread use. Therefore, they pose an acute threat to the economy and society.
According to the Check Point AI Security Report 2025, deepfake attacks caused over US$35 million in damage in just two known cases in Canada and the United Kingdom. More seriously, criminal use is no longer limited to videos. AI-generated voices are regularly used in sextortion, CEO impersonation scams, and fake hostage situations. In Italy, for example, the Minister of Defense, Giorgio Armani, and other corporate leaders were imitated using deepfake voices to blackmail their prominent contacts. The technology behind this is frighteningly accessible: voice cloning systems can be trained with just a few minutes of audio, cost around $0,000, and can imitate any voice in any language in real time — even across multiple conversations. These systems are complemented by fake business email kits and phishing suites tailored for fraud. They are available on the darknet and on Telegram for a few hundred dollars and do not require human involvement. The increasing commercialization of these technologies is particularly concerning. Even less technically skilled hackers can learn and adapt to their victims‘ behavior continuously using generative AI tools. This enables them to carry out deceptively real CEO calls, fake conference calls, and personalized phishing campaigns. The automation of cybercrime has made deepfakes more scalable than ever before. This technology has significantly improved in recent years. For example, autonomous live agents now exist. These agents can not only forge identities but also conduct entire conversations with avatars controlled by artificial intelligence. The transitions between reality and simulation become seamless, rendering conventional verification mechanisms ineffective. On the one hand, this helps users sharpen their attention to recognize inconsistencies and not believe everything that appears credible. On the other hand, companies and authorities can protect themselves against fraud with multi-layered security architectures that consolidate various components. Furthermore, integrating AI into cybersecurity is ideal for warding off AI-generated attacks because it involves countering like with like. AI-based defense systems can detect and block fake media, suspicious communications, and behavioral anomalies early on, before damage occurs. These technologies can detect deepfakes in audio files, isolate attacks from autonomous AI agents, and prevent the execution of manipulated content. Combined with zero-trust models and targeted awareness programs, these technologies create a comprehensive shield against deepfake attacks. Therefore, it is important to recognize that deepfakes are not just a theoretical concept or a minor tactic used by hackers to scare the public; they are a stark reality of cybercrime. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de