Unit 42 warnt vor Deepfake-Angriffen in der Arbeitswelt. Hier sind die Sicherheitsrisiken und praktische Handlungsanweisungen für HR- und Sicherheitsteams. Unit 42 warns of deepfake attacks in the workplace. Here are the security risks and appropriate advice for HR and security teams.
Freundlichen Gesichtern sollte man nicht trauen: Unit 42 von Palo Alto Networks hat einen neuen Forschungsbericht veröffentlicht, der aufzeigt, wie staatliche Hacker im Auftrag des nordkoreanischen Geheimdienstes Deepfake-Technologie in Echtzeit nutzen, um Unternehmen über Remote-Arbeitsplätze zu infiltrieren.

Der Forschungsbericht zeigt signifikante Sicherheits-, Rechts- und Compliance-Risiken auf und liefert zudem praktische Handlungsanweisungen für Sicherheits- und HR-Teams zur Optimierung ihrer internen Prozesse.

Die wichtigsten Erkenntnisse auf einen Blick:

  • Innerhalb von etwas mehr als einer Stunde und ohne Vorkenntnisse können selbst Computerlaien mit leicht erhältlichen Tools und günstiger Consumer-Hardware einen Deepfake in Echtzeitzu erstellen.

Dadurch können Angreifer leicht überzeugende künstliche Identitäten erstellen, die es ihnen ermöglichen, unentdeckt zu operieren und für sanktionierte Regime Devisen zu beschaffen.

  • Die Grenzen der Deepfake-Technologie verschwimmen zunehmend. Da sich die Technologien für synthetische Identitäten ständig weiterentwickeln, müssen Unternehmen mehrschichtige Abwehrstrategieneinführen, die Folgendes kombinieren:
    • Verbesserte Verifizierungsverfahren
    • KI-gestützte Gegenmaßnahmen zur Erkennung von Deepfakes
    • Kontinuierliche Verifizierungen während des gesamten Beschäftigungsverhältnisses
  • Dieser Ansatz verbessert die Erkennungs- und Abwehrfähigkeiten eines Unternehmens erheblich, sowohl in Bezug auf staatliche Hacker im Auftrag des nordkoreanischen Geheimdienstes als auch auf eine Vielzahl ähnlicher Bedrohungen.

Deepfakes entdecken

Es gibt mehrere technische Unzulänglichkeiten in Echtzeit-Deefaking-Systemen, die die Entdeckung erleichtern:

Probleme mit der zeitlichen Konsistenz: Schnelle Kopfbewegungen verursachten auffällige Artefakte, da das Tracking-System Schwierigkeiten hatte, die genaue Position der Landmarken beizubehalten.

Okklusionsverarbeitung: Wenn die Hand des Operators über das Gesicht fuhr, konnte das Deepfake-System das teilweise verdeckte Gesicht nicht korrekt rekonstruieren Lichtanpassung: Bei plötzlichen Änderungen der Lichtverhältnisse traten Inkonsistenzen in der Darstellung auf, insbesondere an den Rändern des Gesichts Audio-visuelle Synchronisation: Bei genauer Beobachtung waren leichte Verzögerungen zwischen Lippenbewegungen und Sprache zu erkennen.

Gegenwärtig gibt es mehrere Möglichkeiten, den Hackern das Leben schwer zu machen. Die effektivste Methode scheint zu sein, mit der Hand über das Gesicht zu fahren und so die Verfolgung der Gesichtszüge zu unterbrechen.

Diese Techniken nutzen die Schwächen von Echtzeit-Deepfake-Systemen aus und erzeugen sichtbare Artefakte, die Menschen helfen, Fälschungen mit hoher Genauigkeit zu erkennen.

Strategien gegen Deepfakes

Für Personalabteilungen:

  • Bitten Sie die Bewerber, ihre Kameras während der Vorstellungsgespräche einzuschalten, einschließlich der Erstgespräche
  • Zeichnen Sie diese Gespräche (mit der entsprechenden Zustimmung) für eine mögliche forensische Analyse auf
  • Implementieren Sie einen umfassenden Workflow zur Identitätsüberprüfung, der Folgendes umfasst
  • Überprüfung der Dokumentenechtheit mit automatisierten forensischen Tools, die Sicherheitsmerkmale, Manipulationsindikatoren und die Konsistenz der Informationen in den eingereichten Dokumenten überprüfen
  • Identitätsprüfung mit integrierter Live-Erkennung, die Bewerber auffordert, ihren physischen Ausweis vorzulegen, während sie bestimmte Aktionen in Echtzeit ausführen Abgleich von Ausweisdokumenten und Interviewpartner, um sicherzustellen, dass die interviewte Person mit ihrer angeblichen Identität übereinstimmt
  • Schulung von Personalvermittlern und technischen Interviewteams, um verdächtige Muster in Videointerviews zu erkennen, wie z. B. unnatürliche Augenbewegungen. z.B. unnatürliche Augenbewegungen, Unstimmigkeiten in der Beleuchtung und Probleme bei der audiovisuellen Synchronisation
  • Interviewer sollten sich daran gewöhnen, Kandidaten zu bitten, Bewegungen auszuführen, die für Deepfake-Software schwierig zu erkennen sind (z.B. Profildrehungen, Gesten in der Hand)

Sicherheitsteams:

  • Sichern Sie die Einstellungspipeline, indem Sie die IP-Adressen der Bewerbungen aufzeichnen und sicherstellen, dass sie nicht von anonymisierenden Infrastrukturen oder verdächtigen geografischen Regionen stammen.
  • Überprüfen Sie die angegebenen Telefonnummern, um sicherzustellen, dass es sich um Voice-over-Internet-Protocol (VoIP)-Betreiber handelt, insbesondere um solche, die üblicherweise mit der Verschleierung von Identitäten in Verbindung gebracht werden.
  • Vereinbarungen über den Informationsaustausch mit Partnerunternehmen treffen und an einschlägigen Informationsaustausch- und Analysezentren (ISACs) teilnehmen, um über die neuesten Techniken der Identitätsverschleierung auf dem Laufenden zu bleiben.
  • Identifizieren und blockieren Sie Softwareanwendungen, die die Installation virtueller Webcams auf von Unternehmen verwalteten Geräten ermöglichen, wenn es keine legitime geschäftliche Rechtfertigung für deren Verwendung gibt.

Zusätzliche Indikatoren:

Überwachung auf anormale Netzwerkzugriffsmuster nach der Einstellung, insbesondere Verbindungen zu Anonymisierungsdiensten oder nicht autorisierte Datenübertragungen Verwendung von Multi-Faktor-Authentifizierungsmethoden, die den physischen Besitz von Geräten erfordern, um Identitätsdiebstahl zu erschweren

Überlegungen zur Organisationsrichtlinie

Entwickeln Sie klare Protokolle für den Umgang mit Verdachtsfällen synthetischer Identitäten, einschließlich Eskalationsverfahren und Methoden zur Beweissicherung Entwickeln Sie ein Programm zur Sensibilisierung für Sicherheitsfragen, das alle an der Einstellung beteiligten Mitarbeiter über Warnsignale für synthetische Identitäten aufklärt.

Richten Sie technische Kontrollen ein, die den Zugang für neue Mitarbeiter einschränken, bis zusätzliche Verifizierungsmeilensteine erreicht sind Dokumentieren Sie Verifizierungsfehler und teilen Sie relevante technische Indikatoren mit Industriepartnern und zuständigen Regierungsbehörden mit.

Friendly faces are not to be trusted: Palo Alto Networks‘ Unit 42 has released a new research report that reveals how North Korean hackers are using real-time deepfake technology to infiltrate organizations through remote workstations.

The research report highlights significant security, legal, and compliance risks, and provides practical guidance for security and HR teams to streamline their internal processes.

Key findings include:

In just over an hour and with no prior knowledge, even novice computer users can create a deepfake in real time using readily available tools and inexpensive consumer hardware.

This makes it easy for attackers to create convincing artificial identities that allow them to operate undetected and earn money for sanctioned regimes.

– The boundaries of deepfake technology are becoming increasingly blurred. As synthetic identity technologies continue to evolve, organizations must adopt layered defense strategies that combine the following: o Improved vetting o AI-based deepfake detection countermeasures o Continuous vetting throughout the employment relationship

– This approach significantly improves an organization’s detection and defense capabilities, both with respect to North Korean hackers and a wide range of similar threats.

Detecting Deepfakes

There are several technical shortcomings in real-time deepfake systems that make detection easier:

Temporal Consistency Issues: Rapid head movements caused noticeable artifacts as the tracking system struggled to maintain the exact position of landmarks.

Occlusion processing: When the operator’s hand passed over the face, the deepfake system could not correctly reconstruct the partially occluded face: When there were sudden changes in lighting conditions, there were inconsistencies in the rendering, especially at the edges of the face: Under close observation, there were slight delays between lip movements and speech.

There are currently several ways to make life difficult for hackers. The most effective seems to be running a hand over the face, which interrupts the tracking of facial features.

These techniques exploit the weaknesses of real-time deepfake systems and create visible artifacts that help humans detect fakes with high accuracy.

Deepfake countermeasures For HR departments:

– Ask applicants to turn on their cameras during interviews, including initial interviews – Record these interviews (with appropriate consent) for possible forensic analysis

– Implement a comprehensive identity verification workflow that includes:

– Verifying document authenticity with automated forensic tools that check security features, tamper indicators, and consistency of information, Identity verification with integrated live recognition that prompts candidates to present their physical ID while performing certain actions in real time

– Matching ID documents and interviewees to ensure that the interviewee matches their purported identity

– Training recruiters and technical interview teams to recognize suspicious patterns in video interviews, such as unnatural eye movements, lighting inconsistencies, and audio-visual synchronization issues

– Interviewers should get used to asking candidates to make movements that are difficult for deepfake software to detect (e.g., profile rotations, hand gestures)

Security teams:

– Secure the hiring pipeline by recording the IP addresses of job applicants and ensuring that they do not originate from anonymizing infrastructures or suspicious geographic regions.

– Verify phone numbers provided to ensure they are Voice over Internet Protocol (VoIP) operators, especially those commonly associated with identity concealment.

– Establish information sharing agreements with partner companies and participate in relevant Information Sharing and Analysis Centers (ISACs) to stay abreast of the latest identity obfuscation techniques.

– Identify and block software applications that allow virtual webcams to be installed on corporate-managed devices when there is no legitimate business justification for their use.

Additional indicators:

Monitor for abnormal network access patterns after hiring, especially connections to anonymization services or unauthorized data transfers Use multi-factor authentication methods that require physical possession of devices to make identity theft more difficult

Organizational policy considerations

Develop clear protocols for handling suspected cases of synthetic identities, including escalation procedures and methods for preserving evidence Develop a security awareness program that educates all employees involved in hiring about warning signs of synthetic identities.

Establish technical controls that restrict access for new employees until additional verification milestones are met Document verification failures and share relevant technical indicators with industry partners and appropriate government agencies.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert