| Eine Anhörung im US-Kongress enthüllte, dass chinesische Staatsakteure KI zur Automatisierung komplexer Spionageoperationen einsetzten, was dringende Fragen zu den Risiken neuer Technologien aufwirft. | Congressional hearing reveals Chinese state actors used AI to automate sophisticated espionage operations, raising urgent questions about emerging technology risks. |
| Eine gemeinsame Anhörung der Unterausschüsse für innere Sicherheit des Repräsentantenhauses untersuchte, wie künstliche Intelligenz, Quantencomputing und Cloud-Technologien die Cybersicherheitslandschaft der Vereinigten Staaten grundlegend verändern. Die Aussagen im Dezember zeigten, dass staatliche Gegner KI nicht mehr nur für Produktivitätsaufgaben einsetzen, sondern auch für aktive Cyberoperationen.
Dr. Logan Graham, Leiter des Frontier Red Teams bei Anthropic, gab bekannt, dass sein Unternehmen im September 2024 eine ausgeklügelte Cyberspionagekampagne aufgedeckt habe, die von einer vom Kommunistischen Partei Chinas unterstützten Gruppe durchgeführt wurde. Die Operation stellte eine erhebliche Eskalation der KI-gestützten Bedrohungen dar, da die Angreifer das KI-System Claude von Anthropic einsetzten, um etwa 80 bis 90 Prozent der Aufgaben zu automatisieren, die zuvor von menschlichen Bedienern ausgeführt werden mussten. Die Kampagne verlief in mehreren Phasen. Menschliche Bediener lieferten Claude Ziele, woraufhin das System parallel mehrere Systeme autonom auskundschaftete. Die KI nutzte Software-Tools von Drittanbietern, um Schwachstellen zu identifizieren, bevor sie versuchte, diese auszunutzen und sensible Informationen zu extrahieren. Obwohl die Operation nur in wenigen Fällen erfolgreich war, zeigte sie, wie KI die Geschwindigkeit und das Ausmaß von Cyberangriffen dramatisch beschleunigen kann. Die Angreifer investierten erhebliche Ressourcen, um Sicherheitsvorkehrungen zu umgehen, und täuschten dem Modell vor, es würde ethische Cybersicherheitstests durchführen. Anthropic entdeckte die Aktivitäten innerhalb von zwei Wochen nach den ersten bestätigten Angriffen und reagierte mit Kontosperrungen, verstärkten Schutzmaßnahmen und der Zusammenarbeit mit den Behörden. Royal Hanson, Vice President für Datenschutz, Sicherheit und Sicherheitsengineering bei Google, bestätigte, dass das Threat-Intelligence-Team seines Unternehmens eine Veränderung im Verhalten der Angreifer festgestellt hat. Von Regierungen unterstützte Akteure setzen nun neuartige KI-fähige Malware ein, die große Sprachmodelle verwendet, um bösartige Skripte zu generieren, Code zu verschleiern, um der Erkennung zu entgehen, und bösartige Funktionen dynamisch zu erstellen, anstatt sie fest zu codieren. Diese Entwicklung markiert laut Hanson eine neue operative Phase, in der Tools zum Einsatz kommen, die ihr Verhalten während der Ausführung ändern können. Die adaptive Natur dieser Bedrohungen stellt eine Abkehr von traditionellen Malware-Ansätzen dar. Ausschussmitglieder beider Parteien äußerten sich besorgt über die Auswirkungen. Der Kongressabgeordnete Andy Ogles (Republikaner), Vorsitzender des Unterausschusses für Cybersicherheit und Infrastrukturschutz des Ausschusses für innere Sicherheit des Repräsentantenhauses, betonte, dass Entscheidungen über die Sicherung von KI, Cloud Computing und Quantentechnologien die nationale Sicherheit für die kommenden Jahre prägen werden. Er wies darauf hin, dass Gegner diese Technologien als Mittel betrachten, um sich strategische Vorteile zu verschaffen und Operationen unterhalb der Schwelle eines offenen Konflikts durchzuführen. Shri Thanedar, Ausschuss für innere Sicherheit (Demokrat), kritisierte die jüngsten politischen Entscheidungen bezüglich der Ausfuhr fortschrittlicher Chips nach China und warnte, dass die Unterstützung potenzieller Gegner den nationalen Sicherheitsinteressen zuwiderlaufe. Er betonte die Dringlichkeit einer Verlängerung des Cyber Security Information Sharing Act von 2015, der Haftungsschutz bietet, um Unternehmen zu ermutigen, Bedrohungsdaten mit der Regierung zu teilen. Das Gesetz war Ende 2025 vorübergehend außer Kraft gesetzt worden, bevor es für Anfang 2026 erneut in Kraft gesetzt wurde. China stand im Mittelpunkt der Anhörung. Mehrere Zeugen bezeichneten die Volksrepublik China als die aktivste und hartnäckigste Cyberbedrohung und verwiesen auf ihren integrierten Ansatz, der Ressourcen aus Regierung, Militär, Wissenschaft und Privatwirtschaft bündelt. Dieses Modell ermöglicht es, kommerzielle Innovationen schnell für staatliche Zwecke anzupassen und damit groß angelegte und langwierige Operationen zu unterstützen. Die Zeugen skizzierten drei unmittelbare Prioritäten für den Umgang mit KI-gestützten Cyberbedrohungen. Erstens forderten sie eine rasche, von der Regierung geleitete Prüfung von KI-Modellen auf ihre Eignung für die nationale Sicherheit und verwiesen dabei auf die Arbeit des Zentrums für KI-Standards und Innovation des National Institute of Standards and Technology. Zweitens betonten sie die Notwendigkeit eines robusten Austauschs von Bedrohungsinformationen zwischen führenden KI-Labors und Regierungsbehörden. Drittens sprachen sie sich dafür aus, Cyber-Verteidiger mit KI-Tools auszustatten, darunter Systeme, die Schwachstellen automatisch beheben können. Dr. Graham warnte, dass die Aufrechterhaltung der Führungsrolle der USA im Bereich KI die Bewahrung der Vorteile bei der Rechenleistung erfordert, dem wichtigsten Input für die Entwicklung fortschrittlicher Modelle. Er warnte davor, dass, wenn hochentwickelte Rechenressourcen an Gegner fließen, diese Modelle entwickeln könnten, die die Fähigkeiten der USA übertreffen und Angriffe erheblich schwieriger zu erkennen und abzuwehren machen. Die Anhörung unterstrich die Erkenntnis, dass KI sowohl Chancen als auch Risiken im Bereich der Cybersicherheit mit sich bringt. Während KI die Verteidigungsfähigkeiten durch verbesserte Bedrohungserkennung und automatisierte Schwachstellenbehebung verbessern kann, ermöglichen dieselben Technologien Gegnern, Operationen mit beispielloser Geschwindigkeit und in beispiellosem Umfang durchzuführen. Die Herausforderung für die Politik besteht darin, Innovationen zu fördern und gleichzeitig Schutzmaßnahmen zu implementieren, die eine böswillige Ausnutzung verhindern. |
A joint hearing of House Homeland Security subcommittees examined how artificial intelligence, quantum computing, and cloud technologies are fundamentally altering the cybersecurity landscape facing the United States. The December testimony revealed that nation-state adversaries have moved beyond using AI for productivity tasks to deploying it in active cyber operations.
Dr. Logan Graham, who leads the Frontier Red Team at Anthropic, disclosed that his company detected a sophisticated cyber espionage campaign in September 2024 conducted by a group sponsored by the Chinese Communist Party. The operation represented a significant escalation in AI-enabled threats, with the attackers using Anthropic’s Claude AI system to automate approximately 80 to 90 percent of tasks that previously required human operators. The campaign proceeded through distinct phases. Human operators provided targets to Claude, which then conducted autonomous reconnaissance against multiple systems in parallel. The AI leveraged third-party software tools to identify vulnerabilities before attempting to exploit them and extract sensitive information. While successful in only a handful of cases, the operation demonstrated how AI can dramatically accelerate the speed and scale of cyber attacks. The threat actors invested substantial resources to circumvent safeguards and deceived the model into believing it was conducting ethical cybersecurity testing. Anthropic detected the activity within two weeks of the first confirmed offensive operations and responded with account bans, strengthened protections, and coordination with authorities. Royal Hanson, Vice President for Privacy, Safety, and Security Engineering at Google, confirmed that his company’s threat intelligence team has identified a shift in adversary behavior. Government-backed actors are now deploying novel AI-enabled malware that uses large language models to generate malicious scripts, obfuscate code to evade detection, and create malicious functions dynamically rather than hard-coding them. This development marks what Hanson described as a new operational phase, involving tools that can alter their behavior during execution. The adaptive nature of these threats represents a departure from traditional malware approaches. Committee members from both parties expressed concern about the implications. Congressman Andy Ogles (R-TN), Chairman of the House Homeland Security Subcommittee on Cybersecurity and Infrastructure Protection, emphasized that decisions being made about securing AI, cloud computing, and quantum technologies will shape national security for years to come. He noted that adversaries view these technologies as means to gain strategic advantage and conduct operations below the threshold of open conflict. Shri Thanedar, Committee on Homeland Security, (D) criticized recent policy decisions regarding advanced chip exports to China, warning that enabling potential adversaries contradicts national security interests. He stressed the urgency of extending the Cyber Security Information Sharing Act of 2015, which provides liability protections to encourage companies to share threat data with the government. The law recently faced a temporary lapse in late 2025 before being reauthorized through early 2026. China emerged as a central focus of the hearing. Multiple witnesses highlighted the People’s Republic of China as the most active and persistent cyber threat, noting its integrated approach that combines government, military, academic, and private sector resources. This model allows commercial innovations to be rapidly adapted for state use, supporting operations built for scale and persistence. The witnesses outlined three immediate priorities for addressing AI-enabled cyber threats. First, they called for rapid government-led testing of AI models for national security capabilities, pointing to work by the National Institute of Standards and Technology’s Center for AI Standards and Innovation. Second, they emphasized the need for robust threat intelligence sharing between frontier AI labs and government agencies. Third, they advocated for empowering cyber defenders with AI tools, including systems that can automatically patch vulnerabilities. Dr. Graham warned that maintaining U.S. leadership in AI requires preserving advantages in computing power, the most important input for developing advanced models. He cautioned that if sophisticated compute resources flow to adversaries, they could develop models exceeding U.S. frontier capabilities, making attacks significantly harder to detect and counter. The hearing underscored growing recognition that AI represents both opportunity and risk in the cybersecurity domain. While AI can enhance defensive capabilities through improved threat detection and automated vulnerability patching, the same technologies enable adversaries to conduct operations at unprecedented speed and scale. The challenge facing policymakers involves fostering innovation while implementing safeguards that prevent malicious exploitation. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de