Ein neues Whitepaper der Plattform Lernende Systeme zeigt, welche Potenziale und Risiken generative KI für Wirtschaft und Industrie birgt – und gibt neun konkrete Handlungsempfehlungen.

Kaum eine Technologie hat Unternehmensflure so schnell durchdrungen wie generative KI. ChatGPT, Copilot, Le Chat – die Tools sind ein paar Klicks entfernt, liefern blitzschnell Texte, Code und Analysen. Doch hinter der beeindruckenden Fassade lauern Risiken, die viele Firmen noch unterschätzen. Ein aktuelles Whitepaper der Plattform Lernende Systeme, verfasst von Expertinnen und Experten aus Wissenschaft, Wirtschaft und Sicherheitsbehörden, gibt Orientierung: fundiert, praxisnah – und mit neun konkreten Handlungsempfehlungen.

Effizienz ja, aber kein Selbstläufer

Generative KI bezeichnet Systeme, die auf Basis riesiger Datenmengen neue Inhalte erzeugen: Texte, Bilder, Videos, Code, Musik. Ihr Herzstück sind sogenannte Basismodelle – allen voran Große Sprachmodelle (Large Language Models, LLMs) wie jene hinter ChatGPT oder Gemini. Für Unternehmen liegt der Reiz auf der Hand: Routineaufgaben wie E-Mail-Beantwortung, Protokollierung, Projektplanung oder Dokumentation lassen sich mit KI-Unterstützung erheblich beschleunigen.

Doch Vorsicht: Effizienzgewinne und echte Entlastung der Beschäftigten sind nicht dasselbe. Das Whitepaper macht deutlich, dass generative KI Arbeitsprozesse nicht einfach abnimmt, sondern oft intensiviert und verdichtet. Aufgaben werden schneller, aber auch anspruchsvoller – wer die Kontrolle über KI-generierte Ergebnisse verliert, riskiert neue Überlastungen statt Erleichterung. Klare Leitlinien zu Transparenz, Qualifizierung und Mitbestimmung sind daher keine Nice-to-haves, sondern Grundvoraussetzung für einen gelingenden KI-Einsatz.

Anwender oder Anbieter? Eine strategische Weichenstellung

Eine zentrale Frage, die das Papier aufwirft: Wollen Unternehmen generative KI nur nutzen – oder auch selbst gestalten? Die Unterscheidung zwischen Anwender- und Anbieterrolle hat weitreichende Konsequenzen. Wer dauerhaft auf die Lösungen großer US-amerikanischer Tech-Konzerne setzt, gerät in Abhängigkeiten: bei Kosten, Datensouveränität und Innovationsgeschwindigkeit.

Besonders interessant: kleine Sprachmodelle (Small Language Models, SLMs). Sie sind ressourcenschonender, lassen sich lokal betreiben und können mit vertraulichen Unternehmensdaten trainiert werden, ohne diese an externe Server abzugeben. Für mittelständische Betriebe und Behörden, die DSGVO-konform arbeiten müssen, können SLMs der Schlüssel zur digitalen Souveränität sein. Ein europäisches Vorzeigeprojekt ist Teuken 7B, ein Open-Source-Modell des Fraunhofer IAIS, trainiert in allen 24 EU-Sprachen – frei nutzbar, anpassbar, datenschutzkonform.

Sicherheit: Mehr als ein IT-Problem

Generative KI verändert die IT-Sicherheitslage grundlegend – in beide Richtungen. Einerseits eröffnet sie neue Verteidigungsmöglichkeiten: Sicherheitsereignisse lassen sich schneller analysieren, Red-Teaming-Simulationen realistischer gestalten, Compliance-Prüfungen teilautomatisieren. Andererseits entstehen neue Angriffsvektoren: durch manipulierte Prompts (sogenanntes Prompt Injection), unkontrollierte Datenabflüsse oder fehlerhafte Modellausgaben mit potenziell gravierenden Folgen.

Besonders brisant: der sogenannte Schatteneinsatz. Mitarbeitende nutzen KI-Tools oft ohne Wissen der IT-Abteilung, auf privaten Geräten, mit Unternehmensdaten. Einmal eingegeben, lassen sich sensible Informationen nicht mehr zurückholen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt ausdrücklich: Generative KI muss klar geregelt, kontrolliert und regulatorisch sauber in bestehende Sicherheitsstrukturen eingebettet werden.

Recht und Compliance: Der AI Act ist in Kraft

Seit August 2024 gilt der europäische AI Act. Seit August 2025 wird er schrittweise verbindlich umgesetzt. Unternehmen sind verpflichtet, ihre KI-Anwendungen nach Risikoklassen einzuordnen – von minimal bis unannehmbar – und entsprechende Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht zu erfüllen. Für sogenannte General-Purpose AI (GPAI) gelten zusätzliche Pflichten: Offenlegung von Trainingsdaten, Urheberrechtsbeachtung, technische Dokumentation.

Ergänzend greifen DSGVO und Bundesdatenschutzgesetz. Die rechtliche Verantwortung liegt ausdrücklich nicht nur bei der IT-Abteilung, sondern bei der Geschäftsleitung. Nur geprüfte und compliance-konforme KI-Lösungen dürfen im Unternehmen eingesetzt werden. Juristische Schulungen des Personals im Themenfeld „KI & Recht“ sind daher unverzichtbar.

SWOT-Analyse statt Bauchgefühl

Wie lässt sich der KI-Einsatz in konkreten Anwendungsfeldern systematisch bewerten? Das Whitepaper schlägt SWOT-Analysen vor – und liefert drei exemplarische Auswertungen: für das Wissensmanagement, die industrielle Produktion und die Softwareentwicklung.

Im Wissensmanagement liegen die Stärken auf der Hand: schnelle Recherche, Verknüpfung von Wissenssilos, Sicherung von Erfahrungswissen scheidender Fachkräfte. Die Schwächen sind ebenso real: Halluzinationen, die unerkannt in Wissensdatenbanken gelangen, oder ein übermäßiger Fokus auf digital Erfasstes zu Lasten impliziten Erfahrungswissens.

In der Industrie punktet KI durch standardisierbare Prozesse und große strukturierte Datenmengen – ideal für Fehleranalyse, CNC-Programmierung oder Requirements Engineering. Risiken entstehen durch Black-Box-Verhalten, fehlende Nachvollziehbarkeit und neue Cyberangriffsflächen. Die Softwareentwicklung profitiert von schnellerer Code-Erstellung und Entlastung bei Routineaufgaben, kämpft aber mit Qualitätsrisiken, Know-how-Verlust und potenziellen Lizenzrechtskonflikten.

Neun Empfehlungen für den Ernstfall

Aus all dem destillieren die Autorinnen und Autoren neun Handlungsempfehlungen. Kurzgefasst: Unternehmen sollten eine verantwortungsbewusste KI-Kultur etablieren, transparente Nutzungsregeln durchsetzen, Pilotprojekte systematisch auswerten und Sicherheit als Gestaltungsprinzip von Anfang an mitdenken. Datenschutz, KI-Governance und rechtliche Compliance müssen von der Geschäftsleitung getragen werden – nicht delegiert und vergessen.

Das Whitepaper ist kein Alarmruf, aber ein klarer Weckruf: Generative KI ist mächtig genug, um Unternehmen voranzubringen oder zu gefährden – je nachdem, wie bewusst sie eingesetzt wird. Die Technologie entwickelt sich in rasantem Tempo weiter. Wer heute die Weichen richtig stellt, hat morgen die Nase vorn.

Von Jakob Jung

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM. Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Hinweis von Real Cookie Banner