Das Jahr 2026 könnte zum Wendepunkt für digitales Vertrauen werden. Chris Cochran, Field CISO & VP, AI Security SANS Institute identifiziert drei zentrale Entwicklungen, die Anwender kennen sollten. 2026 could be a turning point for digital trust. Chris Cochran, Field CISO & VP, AI Security SANS Institute highlights three significant developments that users should be aware of.
Die Bedrohungslandschaft im digitalen Raum verändert sich grundlegend. Was bisher als Nischenphänomen galt, entwickelt sich 2026 zur alltäglichen Herausforderung für Millionen Nutzer weltweit. Drei Trends prägen diese Entwicklung besonders, erklärt Chris Cochran, Field CISO & VP, AI Security SANS Institute.

Mobilgeräte als Hauptangriffsziel

Smartphones und Tablets werden zur bevorzugten Plattform für automatisierte Betrugsversuche. KI-Agenten ermöglichen es Angreifern, Recherchen zu automatisieren und personalisierte Nachrichten in großem Umfang zu erstellen. Über SMS, WhatsApp und soziale Netzwerke laufen Tausende parallele Angriffe gleichzeitig ab. Die Quantität wächst, doch entscheidender ist die gestiegene Qualität: Die Nachrichten wirken authentisch, der Kontext stimmt, die Ansprache passt.

Deepfakes verlassen die Nische

Synthetische Stimmen und Videos entwickeln sich von der technischen Kuriosität zur konkreten Gefahr. Cyberkriminelle nutzen diese Technologie, um sich als Familienmitglieder, Kollegen oder Personen mit Autorität auszugeben. Die Unterscheidung zwischen echten und generierten Inhalten wird selbst für spezialisierte Erkennungstools zur Herausforderung.

Doch es gibt praktische Gegenmaßnahmen. Eine davon: Im Videoanruf die Person bitten, mit der Hand vor dem Gesicht zu winken. Viele Deepfake-Systeme haben Schwierigkeiten, diese Bewegung überzeugend darzustellen. Eine weitere Methode greift auf bewährte Praktiken zurück: vorab vereinbarte Sicherheitswörter, wie sie Familien früher nutzten, bevor die Anruferkennung Standard wurde.

Verschobene Verantwortung durch KI-Integration

Immer mehr Anwendungen integrieren KI-Funktionen, oft ohne dies transparent zu kommunizieren. Nutzer tragen zunehmend Verantwortung dafür, worauf diese Systeme zugreifen und welche Entscheidungen sie treffen dürfen. Nutzungsbedingungen werden komplexer, Berechtigungen invasiver, die Konsequenzen schwerer zu überblicken. Häufig wird das Ausmaß der gewährten Zugriffsrechte erst bei Problemen deutlich.

KI-Systeme übernehmen bereits heute Aufgaben wie Einkäufe, Nachrichtenversand, Logistikkoordination oder die Verwaltung digitaler Prozesse. Bei Fehlentscheidungen oder Schäden liegt die Verantwortung jedoch oft beim Anwender – zahlreiche Vereinbarungen sehen dies bereits vor. Diese Entwicklung wirft grundsätzliche Fragen auf: Welche Schutzmaßnahmen benötigen Verbraucher? Wo liegen die Grenzen digitaler Verantwortung? Wie viel Autonomie sollten automatisierte Systeme erhalten?

Vertrauen neu denken

Diese drei Entwicklungen führen dazu, dass Anwender 2026 ihr Verhältnis zu digitalen Diensten überdenken müssen. Es geht nicht mehr nur um Passwortsicherheit oder Datenschutzeinstellungen. Die Fragen lauten: Wem oder was vertraue ich? Welche Risiken bin ich bereit einzugehen? Und wo ziehe ich persönliche Grenzen?

Die technische Entwicklung lässt sich nicht aufhalten. Doch das Bewusstsein für die damit verbundenen Risiken kann wachsen – und muss es auch.

The threat landscape in the digital space is changing fundamentally. What was previously considered a niche phenomenon will become an everyday challenge for millions of users worldwide. Chris Cochran. Field CISO & VP, AI Security SANS Institute explains that three trends are particularly shaping this development.

Mobile devices are becoming the main target.

Smartphones and tablets are becoming the preferred platform for automated fraud attempts. AI agents enable attackers to automate research and create personalised messages on a large scale. Thousands of attacks are carried out simultaneously via SMS, WhatsApp and social networks. Not only is the quantity growing, but more importantly, the quality has improved: the messages appear authentic, the context is correct and the tone is appropriate.

Deepfakes are leaving the niche

Synthetic voices and videos are evolving from a technical curiosity to a concrete danger. Cybercriminals use this technology to impersonate family members, colleagues or people in positions of authority. Distinguishing between real and generated content is becoming challenging even for specialised detection tools.

However, there are practical countermeasures. One is to ask the person on the video call to wave their hand in front of their face. Many deepfake systems struggle to render this movement convincingly. Another method draws on tried-and-tested practices, such as pre-agreed security words that families used before caller ID became standard.

Responsibility is shifting through AI integration

An increasing number of applications are integrating AI functions, often without making this clear. Users are becoming increasingly responsible for what these systems access and the decisions they are permitted to make. Terms of use are becoming more complex, permissions are becoming more invasive and the potential consequences are becoming more difficult to oversee. Often, the extent of the access rights granted only becomes apparent when issues arise.

AI systems are already performing tasks such as shopping, sending messages, coordinating logistics and managing digital processes. However, if wrong decisions are made or damage occurs, the user is often held responsible – numerous agreements already stipulate this. This development raises fundamental questions: What protective measures do consumers need? Where are the limits of digital responsibility? How much autonomy should automated systems be given?

Rethinking trust

These three developments mean that, by 2026, users will have to reconsider their relationship with digital services. It will no longer just be a matter of password security or privacy settings. The questions are: Who or what can I trust? What risks am I willing to take? And where do I draw my personal boundaries? Technical development cannot be stopped. However, awareness of the associated risks must grow.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner