Im Hype um die Einsatzmöglichkeiten von Künstlicher Intelligenz bleibt die Diskussion um deren verantwortungsbewusste Nutzung zunehmend auf der Strecke. Zu verlockend sind die Möglichkeiten, zu atemberaubend ist das Entwicklungstempo. Gleichzeitig wird immer deutlicher, dass KI zwar nach rationalen Gesichtspunkten handelt, die Berücksichtigung ethischer Aspekte aber (noch) nicht zu ihren Schlüsselkompetenzen gehört.

Von Fred Cuny, Senior Director Pegasystems, CTO DACH and Nordics.

Vorurteile werden dadurch nicht abgebaut, sondern verstärkt. Wie also umgehen mit KI? Der einfachste Ansatz ist der, KI lediglich als ein besonders mächtiges, effizientes Werkzeug zu betrachten. Die Kontrolle der Ergebnisse bleibt in menschlicher Hand, etwa zur Vermeidung von KI-Halluzinationen. Damit behielten auch die üblichen Rechts- und Compliance-Normen ihre Gültigkeit. Verstöße dagegen müssten dann von Menschen entsprechend aufgedeckt und beseitigt werden.

Das Problem von Effizienz und Kontrollierbarkeit
Aber dabei stellen sich zwei Probleme: Effizienz und Kontrollierbarkeit. KI-getriebene Automatisierung ergibt nur dann Sinn, wenn sie Abläufe schneller, einfacher und kostengünstiger macht. Kritische menschliche Kontrolle aber unterläuft genau diese Vorteile. Wenn Mitarbeitende die In- und Outputs KI-getriebener Prozesse überprüfen oder umfangreiche Referenzen zu Rate ziehen müssen, verpuffen viele der gewünschten KI-Effekte.

KI entfaltet ihr volles Potenzial erst dann, wenn sie unabhängig agieren kann, etwa bei autonomem Fahren. Dort werden ständig Echtzeit-Entscheidungen getroffen, die sich menschlicher Kontrolle zwangsläufig entziehen. Aber was passiert, wenn Kontrolle von vorneherein gar nicht möglich ist? Woher kommen die Daten und Modelle? Die dafür notwendige Transparenz und Nachvollziehbarkeit ist mit vertretbarem Aufwand nur bei gängigen Use-Cases möglich.

Wenn der Mensch wenig Kontrollmöglichkeiten hat und insbesondere für die kritischeren Anwendungsfälle, muss KI zwangsläufig selbst Entscheidungen treffen, die ethisch begründet sind – zum Beispiel Geschäftsentscheidungen auf gesetzliche Rahmenbedingungen prüfen.

Retrieval Augmented Generation (RAG) eignet sich für die geläufigsten Herausforderungen der KI wie Halluzinationen, Nachverfolgbarkeit oder Aktualität der Informationsbasis. Es mangelt aber an der funktionalen Einbindung ethischer Rahmenwerke.

Ansätze wie etwa die Agent-Deed-Consequence- oder Human-AI-Teaming-Modelle sind aber noch nicht bis zur Praxisreife entwickelt. Die vorhandenen Lücken müssen schnellstens geschlossen werden. Es besteht daher ein rapide wachsender Bedarf, sich mit den ethischen Auswirkungen der Zusammenarbeit zwischen Mensch und KI zu befassen.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.