Bei einem Cyberangriff zählt jede Sekunde. Automatisiert agierende KI scheint aus diesem Grund die perfekte Waffe im Kampf gegen Hacker zu sein. Doch der unbedachte Einsatz von KI kann Schaden verursachen. Viele Organisationen setzen daher auf den „Human in the Loop“-Ansatz: Sie lassen die KI arbeiten, während Analysten deren Entscheidungen prüfen. In der Praxis stößt dieser Ansatz jedoch schnell an Grenzen.

Von Markus Ehrenmann, CTO bei Open Systems.

Entweder arbeiten KI-basierte Cybersecurity-Lösungen so gut, dass das Engagement der Analysten schleichend nachlässt, oder die Systeme überschwemmen sie mit zu prüfenden Fehlermeldungen, bis sich die gefürchtete Alert Fatigue bemerkbar macht. Unternehmen brauchen daher einen ganzheitlichen Ansatz, der menschliche Aufmerksamkeit nicht systematisch unterläuft. Genau hier setzt Guided GenAI in Kombination mit Accountability by Design an.

Guided GenAI bezeichnet KI-basierte Cybersecurity-Lösungen, die nachvollziehbar erklären, warum sie eine Maßnahme empfehlen und gleichzeitig Unsicherheiten oder Anomalien offenlegen. Sie lenken zudem die Aufmerksamkeit von Analysten gezielt auf jene Incidents, in denen menschliches Urteilsvermögen gefragt ist, und reduzieren so das Grundrauschen.

Dadurch schaffen sie eine konsistente, nachprüfbare Entscheidungsbasis. Mit dieser Grundlage kann ein Security Operations Center dann auch Accountability by Design implementieren. Menschen behalten bei diesem Ansatz die Kontrolle über Absicht, Interpretation, Ethik und Priorisierung, während KI die skalierbare, konsistente und nachvollziehbare Ausführung übernimmt.

Der Grad der Aufsicht passt sich dabei dynamisch an Risiko und Kontext an: von der verpflichtenden Freigabe durch Analysten bis hin zum komplett autonomen Handeln, das jederzeit auditierbar bleibt. Verantwortlichkeiten sind explizit über klare Protokolle, transparente Entscheidungsketten und definierte Eskalationswege verteilt, sodass die Verantwortung nicht auf einzelne Analysten abgewälzt wird.

Gleichzeitig muss die Aufsicht der KI realistisch und nachhaltig gestaltet sein: An die Stelle monotoner Kontrollaufgaben, die blinde Flecken fördern, treten gezielte Prüfmechanismen, die die Sicherheit erhöhen und die kognitive Belastung der Teams senken. Die Kombination aus Guided GenAI und Accountability by Design entlastet Analysten langfristig – und macht den KI-Einsatz in der Cyberabwehr zugleich effektiver, robuster und verantwortbarer.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.