Peter Barker, Chief Product Officer Ping Identity
Peter Barker warnt vor einer neuen Ära des KI-Betrugs: Deepfakes, gefälschte Führungskräfte und manipulierte Bewerbungsgespräche kosten Unternehmen bereits jetzt Milliarden. Peter Barker warns of a new era of AI fraud. Deepfakes, fake executives, and manipulated job interviews are already costing companies billions.
Während KI-gestützte Angriffe zunehmen – von gefälschten CEO-Videos bis hin zu manipulierten Bewerbungsgesprächen – entstehen Schäden in Milliardenhöhe. Peter Barker, Chief Product Officer bei Ping Identity, analysiert die neue Bedrohungslandschaft und zeigt auf, warum ein hybrider Sicherheitsansatz entscheidend wird.

Mit der KI befinden wir uns an einem interessanten Wendepunkt, an dem neue Möglichkeiten Gestalt annehmen. Lebensrettende Fortschritte im Gesundheits- und Transportwesen sowie die Nachbildung von Persönlichkeiten des öffentlichen Lebens wie der verstorbenen Suzanne Somers sind keine Science-Fiction mehr. Gleichzeitig waren die Sicherheitsbedenken in Bezug auf KI noch nie so groß wie heute. Es besteht ein enormer Bedarf an mehr Bewusstsein und Schutz vor Cyberkriminellen, die in KI-Systeme und -Tools eindringen. Zwar kann KI zur Bekämpfung dieser Betrüger eingesetzt werden, doch ist ein gemischter Ansatz, bei dem herkömmliche Tools mit KI kombiniert werden, die effektivere Strategie.

Laut einer kürzlich durchgeführten Umfrage nimmt das Vertrauen der Verbraucher in Unternehmen ab, da sie sich zunehmend Sorgen über Identitätsbetrug machen. Tatsächlich haben 97 % der Befragten Bedenken, dass ihre persönlichen Daten online sind. Nur 8 % haben volles Vertrauen in Unternehmen, die ihre Identitätsdaten verwalten. Das sind weniger als 10 % im Vergleich zum letzten Jahr.

Da die digitale Erfahrung das Herzstück des Kundenvertrauens ist und sich die Erwartungen weiterentwickeln, müssen Marken der Schaffung einer sicheren und intuitiven Online-Umgebung Priorität einräumen. Die Möglichkeiten für Unternehmen, KI und dezentralisierte Identität zu nutzen, um dieses Ziel zu erreichen, sind immens. Diese Technologien sind die Zukunft der Identität. Frühe Anwender werden sich durch erstklassige Kundenerlebnisse von Nichtanwendern abheben. Es ist jedoch notwendig, die Bedenken der Verbraucher direkt anzusprechen und gleichzeitig dafür zu sorgen, dass die Einführung schrittweise erfolgt und zugänglich ist.

Zudem müssen wir uns zunehmend gegen die neue Welle generativer, KI-gestützter Bedrohungen wie Deepfakes, Betrug durch Nachahmung und Manipulation digitaler Medien schützen. Laut einem kürzlich erschienenen AARP-Bericht werden Identitätsbetrug und Betrügereien die Amerikaner im Jahr 2024 47 Milliarden Dollar kosten. Es wird erwartet, dass diese Zahlen jedes Jahr weiter steigen werden. Die Auswirkungen auf Unternehmensebene können katastrophale Ausmaße annehmen. Wir beobachten bereits ein wachsendes Volumen dieser Bedrohungen am Arbeitsplatz, mit Spitzenwerten in:

  • Nachahmung von Führungskräften: Betrüger ahmen CEOs und CFOs nach, um betrügerische Überweisungen zu autorisieren und das Vertrauen in die hierarchische Kommunikation auszunutzen. Durch die Verwendung realistischer Video- oder Audiomaterialien wirken betrügerische Anträge glaubwürdiger und umgehen herkömmliche Überprüfungsmethoden.
  • Beim Onboarding-Betrug werden gefälschte Identitäten verwendet, um eine Anstellung zu erhalten und oft auf sensible Systeme oder Daten zuzugreifen. Mit Deepfakes angereicherte Lebensläufe und Vorstellungsgespräche erleichtern es Betrügern, unbemerkt in Unternehmen einzudringen.
  • Verstöße gegen den privilegierten Zugang: Indem sie sich als Mitarbeiter mit hochrangigem Zugang ausgeben, können Betrüger in kritische Infrastrukturen eindringen. Dies führt häufig zu weitreichenden Datenverletzungen oder Betriebsstörungen.

Auf das, was unsere Augen sehen und unsere Ohren hören, ist kein Verlass mehr, denn Angreifer nutzen generative KI aus. Mithilfe der KI-Technologie können Video- und Audio-Deepfakes erstellt und in kürzester Zeit in normalen digitalen Interaktionen eingesetzt werden. Die Betrugsabteilungen haben schon jetzt Mühe, mit der Anzahl der Fälle, die ihre Aufmerksamkeit erfordern, Schritt zu halten – und KI wird dieses Problem noch verschärfen.

Wir befinden uns an einem entscheidenden Punkt, an dem wir uns mit dieser neuen Grenze des Risikomanagements in Unternehmen befassen müssen. Schon jetzt nutzen bösartige Akteure die Möglichkeiten der generativen KI, um synthetische Inhalte für Betrug, Insider-Bedrohungen, Kompromittierung der Lieferkette und Markenschädigung zu erzeugen. Wenn synthetische digitale Inhalte für Unternehmen, Regierungen und Medien weitgehend unkontrolliert bleiben, steht das Vertrauen auf dem Spiel. Um wachsam und flexibel zu bleiben und diese neue Ära des KI-gestützten Betrugs zu verhindern, müssen wir die neue KI mit der traditionellen Sicherheit kombinieren.

As AI-powered attacks increase, from fake CEO videos to altered job interviews, the damages incurred are mounting. Peter Barker, Chief Product Officer at Ping Identity, analyzes the new threat landscape and explains why a hybrid security approach is crucial.

With AI, we have reached an interesting turning point where new possibilities are emerging. Life-saving advances in healthcare and transportation, as well as the replication of public figures, such as the late Suzanne Somers, are no longer science fiction. At the same time, security concerns about AI have never been greater. There is an urgent need for greater awareness and protection against cybercriminals infiltrating AI systems and tools. Although AI can be used to combat these fraudsters, a mixed approach combining traditional tools and AI is more effective.

According to a recent survey, consumer confidence in companies is declining as people become more concerned about identity fraud. In fact, 97% of respondents are concerned about their personal data being online. Only 8% have full confidence in companies that manage their identity data. This means a less than 10% decline from last year.

As the digital experience is at the heart of customer trust, and as customer expectations continue to evolve, brands must prioritize creating a secure and intuitive online environment. Companies have immense opportunities to leverage AI and decentralized identity to achieve this goal. These technologies are the future of identity. Early adopters will distinguish themselves from non-adopters by providing world-class customer experiences. However, it is necessary to address consumer concerns directly while ensuring a gradual and accessible introduction.

We must also increasingly protect ourselves against the new wave of generative, AI-powered threats, such as deepfakes, counterfeit fraud, and digital media manipulation. According to a recent AARP report, identity fraud and scams will cost Americans $47 billion in 2024. These numbers are expected to rise every year. The impact on companies can be catastrophic. We are already seeing a growing volume of these threats in the workplace, with peaks in:

  • Executive impersonation: Fraudsters impersonate CEOs and CFOs to authorize fraudulent transfers and exploit trust in hierarchical communication. Using realistic video or audio materials makes fraudulent applications appear more credible and bypasses traditional verification methods.
  • Onboarding fraud involves using fake identities to gain employment and often access sensitive systems or data. Resumes and interviews enriched with deepfakes make it easier for fraudsters to infiltrate companies unnoticed.
  • Privileged Access Violations: Posing as employees with high-level access, fraudsters can infiltrate critical infrastructures. This often leads to far-reaching data breaches or operational disruptions.

Attackers exploit generative AI, so what our eyes see and our ears hear can no longer be relied upon. AI technology can quickly create video and audio deepfakes for use in normal digital interactions. Fraud departments are already overwhelmed with cases requiring their attention, and AI will only make matters worse.

We are at a critical juncture that requires us to address this new frontier of business risk management. Malicious actors are leveraging generative AI’s capabilities to create synthetic content for fraud, insider threats, supply chain compromise, and brand damage. If synthetic digital content remains largely unchecked by businesses, governments, and the media, trust will be at stake. To stay vigilant and agile, and to prevent this new era of AI-powered fraud, we must combine traditional security measures with new AI technologies.

Der neue Senior Director Partner Sales bei NetApp, Henning Rahe, erklärt im SSCG-Podcast mit Carolina Heyder, wie das Mittelstandsgeschäft gemeinsam mit Partnern gestärkt werden soll. NetApp’s new Senior Director Partner Sales, Henning Rahe, explains in the SSCG Podcast with Carolina Heyder how the company plans to strengthen its midmarket business with partners.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner