Im Handumdrehen Content erstellen, Tabellenkalkulationen erzeugen und sogar Programmcode schreiben: Generative KI bietet immense Möglichkeiten beim Arbeiten und Weiterbilden. In praktisch jedem Unternehmen nutzen Mitarbeiter deshalb inzwischen Tools wie ChatGPT oder Bard. So nachvollziehbar es ist, dass sich alle auf generative KI stürzen, so riskant ist es auch.

Die Anbieter setzen nämlich nicht nur frei verfügbare Informationen dazu ein, ihre KI-Modelle zu trainieren und den Output ihrer Tools zu erzeugen, sondern auch die Eingaben der Nutzer. Persönliche Informationen oder geistiges Eigentum könnten so den Weg in die Antworten andere Anwender finden.  Unternehmen sollten aber der Versuchung widerstehen, den Zugriff auf diese KI-Tools einfach zu sperren.

Mitarbeiter können Sperren leicht umgehen, indem sie von außerhalb des Unternehmensnetzwerks darauf zugreifen. Was aber noch viel schwerwiegender ist: Unternehmen behindern dadurch ihre Belegschaft beim produktiven Arbeiten und sorgen für Frust. Die bessere Strategie ist es, generative KI unter eigene Kontrolle zu bringen, indem Unternehmen die richtigen Einsatzziele adressieren, alle Mitarbeiter an Bord holen und einen geeigneten organisatorischen und technischen Rahmen schaffen.

Forcepoint erläutert, wie das in vier Schritten gelingt:

1. Klare Geschäftsziele definieren
Unternehmen sollten gründlich evaluieren, welche konkrete Einsparungen ihnen generative KI ermöglicht und welchen handfesten Nutzen ihnen diese Technologie bringt. Daraus können sie dann ableiten, ob der Einsatz eventuell auf bestimmte Nutzergruppen wie Marketeers, Ingenieure oder Ärzte eingeschränkt werden sollte. Verständnis dafür, zu welchen Zwecken Mitarbeiter Zugriff auf KI-Tools benötigen, ist die Voraussetzung dafür, diese Tools im eigenen Sinne zu kontrollieren.

2. Richtlinien festlegen und Mitarbeiter schulen
Unternehmen sollten Richtlinien aufsetzen, in denen sie festlegen, welche KI-Tools von wem genutzt werden dürfen und welche Aktionen dabei als riskant einzustufen sind. Solche Richtlinien ermöglichen es ihnen, den Umgang mit Daten zu regeln und zu überwachen. In Schulungen können sie ihre Mitarbeiter über die Risiken von generativer KI aufklären und für die Einhaltung der Richtlinien sensibilisieren.

3. Datenzentrierte IT-Security einsetzen
Trotz umfassender Sensibilisierung kann es immer noch passieren, dass Mitarbeiter im Eifer des Arbeitsalltags versehentlich gegen die Richtlinien verstoßen. Ratsam ist es deshalb, IT-Sicherheitslösungen für Web und Cloud mit Data-Security-Lösungen zu kombinieren. So stellen Unternehmen sicher, dass ihre Mitarbeiter keine unerwünschten KI-Anwendungen einsetzen und automatisch gewarnt werden, wenn sie im Begriff sind, sensible Informationen in Eingabeaufforderungen, sogenannte Prompts, einzugeben oder in die KI-Tools hochzuladen.

4. Von der Community lernen
Wenn sich Unternehmen in Allianzen und Konsortien der KI-Community engagieren, kann ihnen das wertvolle Best Practices für ihre eigenen Initiativen und Governance-Standards sowie für eine verantwortungsvolle Interoperabilität von KI-Systemen liefern. Durch die Zusammenarbeit mit anderen Organisationen steht ihnen ein kollektives Know-how offen, das ihnen dabei hilft, generative KI umsichtig und effizient zu nutzen.

„Generative KI bringt einige Herausforderungen mit sich“, erklärt Frank Limberger, Data & Insider Threat Security Specialist bei Forcepoint. „Aber mit den richtigen Maßnahmen für Risikomanagement und Datensicherheit können Unternehmen sie ruhigen Gewissens einsetzen und das transformative Potenzial dieser Technologie voll ausschöpfen.“

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.