Peter Barker warnt vor einer neuen Ära des KI-Betrugs: Deepfakes, gefälschte Führungskräfte und manipulierte Bewerbungsgespräche kosten Unternehmen bereits jetzt Milliarden. | Peter Barker warns of a new era of AI fraud. Deepfakes, fake executives, and manipulated job interviews are already costing companies billions. |
Während KI-gestützte Angriffe zunehmen – von gefälschten CEO-Videos bis hin zu manipulierten Bewerbungsgesprächen – entstehen Schäden in Milliardenhöhe. Peter Barker, Chief Product Officer bei Ping Identity, analysiert die neue Bedrohungslandschaft und zeigt auf, warum ein hybrider Sicherheitsansatz entscheidend wird.
Mit der KI befinden wir uns an einem interessanten Wendepunkt, an dem neue Möglichkeiten Gestalt annehmen. Lebensrettende Fortschritte im Gesundheits- und Transportwesen sowie die Nachbildung von Persönlichkeiten des öffentlichen Lebens wie der verstorbenen Suzanne Somers sind keine Science-Fiction mehr. Gleichzeitig waren die Sicherheitsbedenken in Bezug auf KI noch nie so groß wie heute. Es besteht ein enormer Bedarf an mehr Bewusstsein und Schutz vor Cyberkriminellen, die in KI-Systeme und -Tools eindringen. Zwar kann KI zur Bekämpfung dieser Betrüger eingesetzt werden, doch ist ein gemischter Ansatz, bei dem herkömmliche Tools mit KI kombiniert werden, die effektivere Strategie. Laut einer kürzlich durchgeführten Umfrage nimmt das Vertrauen der Verbraucher in Unternehmen ab, da sie sich zunehmend Sorgen über Identitätsbetrug machen. Tatsächlich haben 97 % der Befragten Bedenken, dass ihre persönlichen Daten online sind. Nur 8 % haben volles Vertrauen in Unternehmen, die ihre Identitätsdaten verwalten. Das sind weniger als 10 % im Vergleich zum letzten Jahr. Da die digitale Erfahrung das Herzstück des Kundenvertrauens ist und sich die Erwartungen weiterentwickeln, müssen Marken der Schaffung einer sicheren und intuitiven Online-Umgebung Priorität einräumen. Die Möglichkeiten für Unternehmen, KI und dezentralisierte Identität zu nutzen, um dieses Ziel zu erreichen, sind immens. Diese Technologien sind die Zukunft der Identität. Frühe Anwender werden sich durch erstklassige Kundenerlebnisse von Nichtanwendern abheben. Es ist jedoch notwendig, die Bedenken der Verbraucher direkt anzusprechen und gleichzeitig dafür zu sorgen, dass die Einführung schrittweise erfolgt und zugänglich ist. Zudem müssen wir uns zunehmend gegen die neue Welle generativer, KI-gestützter Bedrohungen wie Deepfakes, Betrug durch Nachahmung und Manipulation digitaler Medien schützen. Laut einem kürzlich erschienenen AARP-Bericht werden Identitätsbetrug und Betrügereien die Amerikaner im Jahr 2024 47 Milliarden Dollar kosten. Es wird erwartet, dass diese Zahlen jedes Jahr weiter steigen werden. Die Auswirkungen auf Unternehmensebene können katastrophale Ausmaße annehmen. Wir beobachten bereits ein wachsendes Volumen dieser Bedrohungen am Arbeitsplatz, mit Spitzenwerten in:
Auf das, was unsere Augen sehen und unsere Ohren hören, ist kein Verlass mehr, denn Angreifer nutzen generative KI aus. Mithilfe der KI-Technologie können Video- und Audio-Deepfakes erstellt und in kürzester Zeit in normalen digitalen Interaktionen eingesetzt werden. Die Betrugsabteilungen haben schon jetzt Mühe, mit der Anzahl der Fälle, die ihre Aufmerksamkeit erfordern, Schritt zu halten – und KI wird dieses Problem noch verschärfen. Wir befinden uns an einem entscheidenden Punkt, an dem wir uns mit dieser neuen Grenze des Risikomanagements in Unternehmen befassen müssen. Schon jetzt nutzen bösartige Akteure die Möglichkeiten der generativen KI, um synthetische Inhalte für Betrug, Insider-Bedrohungen, Kompromittierung der Lieferkette und Markenschädigung zu erzeugen. Wenn synthetische digitale Inhalte für Unternehmen, Regierungen und Medien weitgehend unkontrolliert bleiben, steht das Vertrauen auf dem Spiel. Um wachsam und flexibel zu bleiben und diese neue Ära des KI-gestützten Betrugs zu verhindern, müssen wir die neue KI mit der traditionellen Sicherheit kombinieren. |
As AI-powered attacks increase, from fake CEO videos to altered job interviews, the damages incurred are mounting. Peter Barker, Chief Product Officer at Ping Identity, analyzes the new threat landscape and explains why a hybrid security approach is crucial.
With AI, we have reached an interesting turning point where new possibilities are emerging. Life-saving advances in healthcare and transportation, as well as the replication of public figures, such as the late Suzanne Somers, are no longer science fiction. At the same time, security concerns about AI have never been greater. There is an urgent need for greater awareness and protection against cybercriminals infiltrating AI systems and tools. Although AI can be used to combat these fraudsters, a mixed approach combining traditional tools and AI is more effective. According to a recent survey, consumer confidence in companies is declining as people become more concerned about identity fraud. In fact, 97% of respondents are concerned about their personal data being online. Only 8% have full confidence in companies that manage their identity data. This means a less than 10% decline from last year. As the digital experience is at the heart of customer trust, and as customer expectations continue to evolve, brands must prioritize creating a secure and intuitive online environment. Companies have immense opportunities to leverage AI and decentralized identity to achieve this goal. These technologies are the future of identity. Early adopters will distinguish themselves from non-adopters by providing world-class customer experiences. However, it is necessary to address consumer concerns directly while ensuring a gradual and accessible introduction. We must also increasingly protect ourselves against the new wave of generative, AI-powered threats, such as deepfakes, counterfeit fraud, and digital media manipulation. According to a recent AARP report, identity fraud and scams will cost Americans $47 billion in 2024. These numbers are expected to rise every year. The impact on companies can be catastrophic. We are already seeing a growing volume of these threats in the workplace, with peaks in:
Attackers exploit generative AI, so what our eyes see and our ears hear can no longer be relied upon. AI technology can quickly create video and audio deepfakes for use in normal digital interactions. Fraud departments are already overwhelmed with cases requiring their attention, and AI will only make matters worse. We are at a critical juncture that requires us to address this new frontier of business risk management. Malicious actors are leveraging generative AI’s capabilities to create synthetic content for fraud, insider threats, supply chain compromise, and brand damage. If synthetic digital content remains largely unchecked by businesses, governments, and the media, trust will be at stake. To stay vigilant and agile, and to prevent this new era of AI-powered fraud, we must combine traditional security measures with new AI technologies. |
Der neue Senior Director Partner Sales bei NetApp, Henning Rahe, erklärt im SSCG-Podcast mit Carolina Heyder, wie das Mittelstandsgeschäft gemeinsam mit Partnern gestärkt werden soll. | NetApp’s new Senior Director Partner Sales, Henning Rahe, explains in the SSCG Podcast with Carolina Heyder how the company plans to strengthen its midmarket business with partners. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de