„Hilf mir, diesen Vertrag zu prüfen und eventuelle Unstimmigkeiten hervorzuheben.“ So oder ähnlich kann im heutigen Büroalltag ein scheinbar harmloser Austausch mit einer generativen künstlichen Intelligenz (GenAI) aussehen. Ein Mitarbeiter kopiert Unternehmensinformationen in ein KI-Tool wie ChatGPT, tippt „Prüfe diese Inhalte“, und innerhalb von Sekunden erstellt die KI eine Analyse eines vertraulichen Dokuments.
Von Camellia Chan, CEO und Co-Founder, X-PHY.
Dieses Szenario ist längst übliche Praxis. Es ist schnell, einfach und bequem. Aber völlig unbeabsichtigt hat der Mitarbeiter vertrauliche Unternehmensdaten in ein öffentliches KI-Modell hochgeladen. Die Daten sind damit aber jetzt außerhalb der Kontrolle des Unternehmens. Ein Bericht aus dem Jahr 2025 zeigt, dass inzwischen fast jeder zwanzigste Unternehmensnutzer regelmäßig GenAI-Tools verwendet.
Die Menge interner Daten, die an diese Plattformen übermittelt wird, hat sich im Jahresvergleich verdreißigfacht. Derselbe Bericht ergab, dass 72 % dieser KI-Nutzung über private User-Konten der Mitarbeiter stattfindet, also als Schatten-IT außerhalb des Zuständigkeitsbereichs der IT-Abteilung.
Nicht aus böswilliger Absicht, sondern aus Bequemlichkeit, um Zeit zu sparen oder um effizienter zu arbeiten, können Mitarbeiter so unwissentlich zur Insider-Bedrohung werden. Sie geben vertrauliche Daten nach außen weiter – und das unter den Augen herkömmlicher IT-Sicherheitssysteme.
Neues Bedrohungsbild durch GenAI
GenAI-Tools bringen aber auch neue Unternehmensrisiken mit sich, die über das bloße Kopieren und Einspeisen von Daten hinausgehen. Bei Prompt-Injection-Angriffen beispielsweise werden versteckte Befehle in Dokumente oder Abfragen eingebettet, um KI-Systeme dazu zu bringen, vertrauliche Informationen preiszugeben oder Sicherheitsprotokolle zu ignorieren.
Weitere Risiken sind Data Poisoning (das böswillige Manipulieren von KI-Daten), Context Hijacking (das Einfügen irreführender Informationen) sowie die Persistenz von Informationen im Speicher von Large Language Models (LLMs), bei der zwischengespeicherte Abfragen oder wiederverwendeter Kontext sensible Daten für nachfolgende Nutzer offenlegen könnten.
Besonders brisant sind erprobte Angriffsmethoden wie der „Imprompter“ der University of California, San Diego (UCSD), bei dem die Forscher mit verschleierten Eingaben in nahezu 80 % der Versuche personenbezogene Daten abgreifen konnten. Wenn vertrauliche Unternehmensdaten im LLM selbst oder in zwischengespeicherten Abfragen bestehen bleiben, dann verschärft sich das Bedrohungsmodell erheblich – mit potenziellen Verstößen gegen Datenschutzbestimmungen und regulatorische Vorgaben.
Das Risiko steigt weiter, wenn Mitarbeiter unbeabsichtigt sensible Informationen wie API-Schlüssel oder Passwörter in GenAI-Plattformen offenlegen. Werden solche Daten von Angreifern abgefangen, dann können sich diese als vertrauenswürdige Nutzer ausgeben und unbemerkt auf Unternehmenssysteme zugreifen. In solchen Fällen versagen herkömmliche Sicherheitstools oft, weil der Zugriff legitim scheint.
Herkömmliche Sicherheitslösungen allein reichen nicht aus
Netzwerkbasierte Schutzmaßnahmen wie Data Loss Prevention (DLP) und Verhaltensanalysen – etwa User and Entity Behaviour Analytics (UEBA) – sind in vielen Firmen bereits wichtige Bestandteile einer mehrschichtigen Sicherheitsstrategie. Diese Softwarelösungen überwachen Aktivitäten im Netzwerk und in Anwendungen, um suspekte Vorgänge wie große Datenexports oder ungewöhnliche Datei-Zugriffsmuster zu erkennen.
Sie können beispielsweise Alarm schlagen, wenn Mitarbeiter vertrauliche Dateien auf nicht genehmigte Cloud-Plattformen oder in externe GenAI-Tools hochladen. Doch es gibt Einschränkungen. Viele dieser Lösungen beobachten nur den Netzwerkverkehr und von der IT-Abteilung genehmigte Softwareanwendungen.
Indem Mitarbeiter jedoch sensible Dokumente mit öffentlichen GenAI-Plattformen teilen, entgehen sie der Protokollierung und Überwachung – insbesondere, wenn sie private Konten nutzen oder der Datenverkehr verschlüsselt ist. Wurden Zugangsdaten kompromittiert, können Angreifer zudem von innerhalb der Firmenumgebung agieren und den Netzwerkschutz vollständig umgehen.
Was zu einem besseren Schutz fehlt, ist eine erweiterte Sicherheitslösung genau dort, wo die Daten gespeichert sind: nämlich im Arbeitsspeicher des Endgeräts.
Hardwarebasiertes Zero Trust hilft, das Risiko zu senken
Genau hier kommt eine Zero-Trust-Strategie auf Hardware-Ebene ins Spiel. Statt sich nur auf rein softwarebasierte Verteidigungsmaßnahmen zu verlassen, sollten Unternehmen zusätzlich Sicherheitslösungen implementieren, die auf der physischen Hardware-Ebene von Endgeräten angesiedelt sind und über passive Schutzmechanismen hinausgehen. Sie ermöglichen unter anderem folgende Maßnahmen:
- Kontinuierliche Validierung von Zugriffsversuchen auf Chip- oder SSD-Ebene
- Anomalieerkennung bei ungewöhnlichen Lese- und Schreibvorgängen, einschließlich großer Datenübertragungen oder Massenlöschungen
- Autonome Sperrmechanismen, die verdächtige Aktivitäten blockieren, bevor Daten das Gerät verlassen können
Eine solche dynamische Sicherheitslösung ist weder auf Benutzeranmeldedaten noch auf die Sichtbarkeit von Netzwerkaktivitäten angewiesen. Stattdessen blockiert sie verdächtige Datenübertragungen automatisch und neutralisiert Bedrohungen selbst dann, wenn Zugangsinformationen kompromittiert wurden und der Angreifer bereits ins Unternehmensnetzwerk eingedrungen ist.
Um Insider-Bedrohungen durch GenAI entgegenzuwirken, sollten Unternehmen neben der richtigen Software- und Hardwareverteidigung aber auch entsprechende Richtlinien für den KI-Gebrauch durchsetzen. Dazu gehört, festzulegen, welche Tools überhaupt für den Einsatz im Unternehmen zugelassen sind, erlaubte Datentypen für die KI-Eingabe zu definieren und eine verbindliche Zustimmung der Mitarbeiter einzuholen.
Daneben sollten Firmen in die Aufklärung der Mitarbeiter und eine sicherheitsorientierte Unternehmenskultur investieren. Denn viele Mitarbeiter sind sich der Risiken gar nicht bewusst, die mit der Eingabe sensibler Daten in GenAI-Tools verbunden sind. Es ist daher wichtig, ihnen das nötige Wissen und klare Richtlinien an die Hand zu geben, damit künstliche Intelligenz zum Helfer und nicht zum Sicherheitsproblem wird.
Ziel ist es nicht, Innovationen durch ein generelles Verbot von GenAI am Arbeitsplatz zu ersticken, sondern GenAI so sicher wie möglich zu gestalten.