ChatGPT sorgt weiter für Aufsehen und hält in der Benutzung bereits Einzug in alle Sphären der Gesellschaft – und damit auch in die IT-Sicherheit. Welche Rolle das KI-Wunder in der Cybersecurity und besonders im Identitätsmanagement spielt und was ChatGPT dort vor allem noch nicht leisten kann, erklärt hier Andrew Silberman, Direktor Produktmarketing bei Omada.

In den letzten Wochen musste man nicht zwangsläufig einschlägige Fachmagazine verfolgen, um die Sensation aus der Welt der künstlichen Intelligenz (KI) zu lesen: ChatGPT heißt das Internet-Phänomen, das derzeit nicht nur die IT-Welt in Atem hält.

ChatGPT ist ein neues Tool für das Arbeiten mit KI des US-amerikanischen Unternehmens OpenAI, mit dem Programmierer ihre Fragen einem Chatbot stellen können. Dieser gibt dann eine fast menschlich anmutende Antwort, die wie eine Unterhaltung präsentiert wird. Das Tool kann sich die gesamte Diskussion merken und verwendet frühere Fragen und Antworten, um wiederum künftige Antworten zu ermitteln und diese zu optimieren.

ChatGPT wählt die Antworten wiederum aus, indem es riesige Datenmengen aus dem Internet verarbeitet – aller Art. Es kann auch skurrile Befehle recht akkurat umsetzen, wie das Schreiben einer Geburtstagskarte im Tonfall einer beliebigen Berühmtheit.

ChatGPT selbst sagt jedoch auf Nachfrage über sich: „Ich bin nicht perfekt und habe vielleicht nicht immer die richtige Antwort auf jede Frage. Außerdem sind die Informationen, die ich zur Verfügung stelle, nur so genau wie die Daten, auf die ich trainiert wurde und die einen festen Stichtag haben.

Das bedeutet, dass ich möglicherweise nicht in der Lage bin, Informationen über aktuelle Ereignisse oder Entwicklungen zu liefern, die seit der Erfassung der Trainingsdaten eingetreten sind“, und unterstreicht die Tatsache, dass KI immer noch auf menschliche Komponenten angewiesen ist sowie eine hohe Datenqualität erfordert, um ordnungsgemäß zu funktionieren.

Das Gleiche gilt für den Einsatz von KI in der Identitätsverwaltung: Sie eröffnet viele spannende Möglichkeiten, erfordert aber noch menschliches Eingreifen, damit sie funktioniert. Aus dem Phänomen ChatGPT lassen sich drei wichtige Lehren ziehen:

  1. Menschen sind immer noch wichtig
    Viele sehen hinter ChatGPT auch den Versuch, eine neue Art von Suchmaschine zu etablieren und den derzeitigen Markt aufzurütteln. Wie bei Suchmaschinen ist jedoch sowohl der Mensch, der die Frage stellt, wichtig, als auch die Menschen hinter der Programmierung der KI selbst. Im Bereich der Identitäten kann man an KI denken, die Zugriffsrechte empfehlen kann, die auf der Grundlage von Zugriffsrechten in Peer-Gruppen generiert wurden.

    In diesem Fall kann die Software-Lösung diese Empfehlungen zwar auf der Grundlage dessen, was andere Personen im gesamten Netzwerk tun, kuratieren, doch ist zu Beginn trotzdem noch menschliches Eingreifen erforderlich, denn vorher muss festgestellt werden, wer die wahren Peers sind und welche Arten von Zugriffsrechten und Berechtigungen auf der Grundlage von (stets neu zu bewertenden) Rollen gewährt werden dürfen.

  1. Die Datenqualität ist entscheidend
    Betrachten wir noch einmal das oben genannte Beispiel der Geburtstagskarte: Angenommen, ein Nutzer erhält auf diese Anfrage hin eine ganze Reihe gefälschter Reden eines Politikers, den er sich wünschte, die ebenfalls im Netz kursieren – dann ist das Ergebnis nicht sehr genau und wird den Fragesteller verwirren.

    Ähnlich ist es bei der Identitätsverwaltung, daher ist es nicht so einfach, schlicht ein KI-Tool anzuschließen, denn man bedenke: In diesem wichtigen Segment der IT-Sicherheit spielen Governance, Compliance, Prüfkontrollen und reibungslose Arbeitsabläufe eine wichtige Rolle.

    Damit ein Identitätsmanagement-Tool funktioniert, muss es mit hochqualitativen Daten gefüttert werden, um überwachen zu können, wer Zugriff auf welche Bereiche hat, warum dieser Zugriff gewährt wurde, für wie lange – und so weiter. Für ein leistungsfähiges Identitätsmanagement kann die Einspeisung von Daten aus mehreren Quellen sehr schnell problematisch werden, insbesondere dann, wenn die Daten in unterschiedlichen Formaten oder Modellen gespeichert wurden.

  1. KI ist kein Allheilmittel
    Viele befürchten, dass ChatGPT bedeutet, Kinder bräuchten ihre Hausaufgaben nicht mehr selbst erledigen, oder Fachartikel, Gedichte, ganze Bücher, Komposition, Gemälde oder Kommentare (wie dieser) würden automatisch generiert werden. In einigen Fällen mag dies zutreffen, doch in den meisten Fällen sollte KI nur zur Optimierung der Entscheidungsfindung oder der Prozesse eingesetzt werden, neben dem Menschen, damit sie ihre volle Wirkung entfalten kann.

    Eine wichtige Erkenntnis aus der jüngsten Begeisterung um KI lautet daher, dass sie auf solide Grundprozesse aufgesetzt werden sollte, um den größten Nutzen zu erzielen. Auch bei ChatGPT muss man wissen, welche Fragen man stellen will und wie man sie zu stellen, damit man die besten Informationen erhält.

Mit anderen Worten: Im Identitätsmanagement müssen die KI-Funktionen von IAM-Administratoren und Sicherheitsverantwortlichen in die richtige Richtung gelenkt werden. Um KI optimal nutzen zu können, muss sie in Verbindung mit Menschen eingesetzt werden, damit bessere Entscheidungen getroffen werden können.

KI kann zwar problemlos zur Automatisierung manueller oder sich wiederholender Prozesse eingesetzt werden, aber es wird immer menschliches Eingreifen erforderlich sein, um eine große Anzahl von Identitäten verwalten zu können, die Zugriff auf eine wachsende Liste von Cloud-basierten Anwendungen und Infrastrukturen benötigen.

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.