Microsoft wirft China und Nordkorea vor, gezielt Falschinformationen zu verbreiten. Adam Marrè, Chief Information Security Officer bei Arctic Wolf, nimmt dazu Stellung.

Microsoft accuses China and North Korea of deliberately spreading false information. Adam Marrè, Chief Information Security Officer at Arctic Wolf, comments.

In seinem jüngsten Threat Intelligence Report (4. April 2024) stellt Microsoft fest: „China nutzt gefälschte Social-Media-Konten, um Wählerinnen und Wähler zu befragen, was sie am meisten trennt, um Zwietracht zu säen und möglicherweise den Ausgang der US-Präsidentschaftswahlen zu seinen Gunsten zu beeinflussen. China setzt auch zunehmend KI-generierte Inhalte ein, um seine Ziele weltweit zu erreichen.

Nordkorea hat seine Angriffe auf Kryptowährungen und die Lieferkette intensiviert, um seine militärischen Ziele und seine Informationsbeschaffung zu finanzieren und voranzutreiben.  Es hat auch begonnen, KI einzusetzen, um seine Operationen effektiver und effizienter zu gestalten.“

Adam Marrè, Chief Information Security Officer Arctic Wolf

Adam Marrè, Chief Information Security Officer bei Arctic Wolf und ehemaliger FBI-Agent für Cybersecurity, ordnet die neuen Erkenntnisse zu dieser Desinformationskampagne aus Fernost ein.

„Wahlen weltweit werden zum digitalen KI-Schlachtfeld. Der Bericht, dass China angeblich Wahlen stört und manipuliert, indem es KI-generierte Inhalte zur Verbreitung von Desinformationen nutzt, sollte keine Überraschung sein.

China hat in der Vergangenheit immer wieder bewiesen, dass es in der Lage ist, Taktiken der Cyberkriminalität für seine wirtschaftlichen und politischen Zielsetzungen zu nutzen. Der Einsatz von KI zur Störung oder Beeinflussung von Wahlen ist daher eine logische Erweiterung des chinesischen Staatsapparats, wie wir an den jüngsten Details zu iSoon und APT31 gesehen haben.

Diese Entwicklung bestätigt erneut die beunruhigende Realität, der wir uns schon seit einiger Zeit gegenübersehen: Die aktuelle weltweite Wahlperiode wird zu einem noch nie dagewesenen digitalen Schlachtfeld, auf dem KI-Tools zum Einsatz kommen, die Fake-Inhalte erzeugen und verbreiten können – eine Herausforderung, auf die wir alarmierend wenig vorbereitet sind.

Eine Umfrage von Arctic Wolf zum Thema Cybersicherheit bei Wahlen hat ergeben, dass mehr als die Hälfte der Führungskräfte in den US-Bundesstaaten und -Kommunen Fehlinformationskampagnen als ihre größte Sorge ansehen.

Angesichts des globalen Ausmaßes der Wahlen in diesem Jahr, darunter entscheidende Abstimmungen in den USA, der EU und Teilen von Deutschland, in Großbritannien, Indien und Südkorea ist das strategische Interesse von Nationen wie China an der Destabilisierung und Beeinflussung wichtiger demokratischer Prozesse nicht zu übersehen.“

Cybersicherheitsexperten warnen seit langem vor den Risiken, die von KI-generierten Inhalten und deren Potenzial zur Beeinflussung von Wählermeinungen ausgehen. Die Bedrohung wird verstärkt durch die Fähigkeit von Gegnern wie China, irreführende und manipulierte Informationen durch ausgeklügelte Falsch- und Desinformationskampagnen zu verbreiten. Die Fähigkeit der Bedrohungsakteure, überzeugende Inhalte zu erstellen und sie schnell über digitale Plattformen zu verbreiten, unterstreicht eine dringende Notwendigkeit: die Erhöhung unserer kollektiven Wachsamkeit im Bereich der Cybersicherheit und eine bessere Überprüfung unserer Informationsquellen, um falsche Inhalte zu erkennen und die Abwehrmaßnahmen sowie die Ausweitung der Cybersicherheitsaufklärung unserer Bürgerinnen und Bürger zu verbessern. Solche Schritte sind angesichts nahender Wahltermine von entscheidender Bedeutung, um die Verteidigung gegen diese Bedrohungen zu verstärken.“

Microsoft says in its latest Threat Intelligence Report (April 4, 2024): “China is using fake social media accounts to poll voters on what divides them most to sow division and possibly influence the outcome of the U.S. presidential election in its favor. China has also increased its use of AI-generated content to further its goals around the world.

North Korea has increased its cryptocurrency heists and supply chain attacks to fund and further its military goals and intelligence collection.  It has also begun to use AI to make its operations more effective and efficient.“

Adam Marrè, Chief Information Security Officer Arctic Wolf

Adam Marrè, Chief Information Security Officer at Arctic Wolf and former FBI cybersecurity agent, sums up the new findings on this disinformation campaign from the Far East.

„Elections around the world are becoming a digital AI battleground. The report that China is allegedly disrupting and manipulating elections by using AI-generated content to spread disinformation should come as no surprise.

China has a history of using cybercrime tactics to further its economic and political goals. The use of AI to disrupt or influence elections is therefore a logical extension of the Chinese state apparatus, as we have seen from the recent details of iSoon and APT31.

This development reaffirms the disturbing reality we have been facing for some time: The current global election cycle is becoming an unprecedented digital battleground, using AI tools that can generate and disseminate fake content – a challenge for which we are alarmingly unprepared.

An Arctic Wolf survey on election cybersecurity found that more than half of U.S. state and local leaders consider misinformation campaigns to be their top concern.

Given the global scale of this year’s elections, including crucial votes in the U.S., EU, and parts of Germany, the U.K., India, and South Korea, the strategic interest of nations like China in destabilizing and influencing key democratic processes cannot be overlooked.“

Cybersecurity experts have long warned of the risks posed by AI-generated content and its potential to sway voter opinion. The threat is compounded by the ability of adversaries, such as China, to spread misleading and manipulated information through sophisticated misinformation and disinformation campaigns. The ability of threat actors to create persuasive content and rapidly disseminate it across digital platforms underscores an urgent need: to increase our collective cybersecurity vigilance and better vet our information sources to detect false content, improve defenses, and expand cybersecurity education for our citizens. Such steps are critical as election deadlines approach to strengthen our defenses against these threats.“

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner