In einer neuen Studie zeigt der VDE und die Bertelsmann Stiftung, wie sich Ethikprinzipien für Künstliche Intelligenz (KI) in die Praxis bringen lassen. Zwar gibt es eine Vielzahl an Initiativen, die ethische Richtlinien für die Gestaltung von KI veröffentlicht haben, allerdings bis dato kaum Lösungen für deren praktische Umsetzung.

Genau hier setzt der VDE als Initiator und Leiter der „AI Ethics Impact Group“ gemeinsam mit der Bertelsmann Stiftung an. Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ zeigt, wie mit der geschickten Kombination dreier Werkzeuge – einem WKIO-Modell, einem KI-Ethik-Label und einer Risikoklassifizierung – allgemeine ethische Prinzipien messbar und konkret umsetzbar werden.

Das größte Hindernis für die Entwicklung von ethischer KI sind laut VDE und Bertelsmann Stiftung die Unschärfen und die unterschiedlichen Verständnisse von Prinzipien wie „Transparenz“ und „Gerechtigkeit“. Dies führt dazu, dass KI-entwickelnden Unternehmen die nötige Orientierung fehlt und eine wirksame Durchsetzung von KI-Ethik bisher schwierig war.

Messbarkeit und Sichtbarkeit durch WKIO-Modell und Ethik-Label
Das sogenannte WKIO-Modell (im Englischen VCIO: Value, Criteria, Indicators, Observables) schlüsselt Werte in Kriterien, Indikatoren und letztlich messbare Observablen auf. Demonstriert wird dies in der Studie für die Werte Transparenz, Gerechtigkeit und Verantwortlichkeit. Das WKIO-Modell kann von Politikentwicklern, Regulierern und Aufsichtsbehörden genutzt werden, um Anforderungen an KI-Systeme zu konkretisieren und durchzusetzen.

Das ebenfalls im Rahmen der Studie entwickelte Ethik-Label für KI-Systeme ermöglicht Unternehmen, die ethischen Eigenschaften ihrer Produkte klar und einheitlich zu kommunizieren. Das Label lehnt sich an das erfolgreiche Energieeffizienzlabel für Elektrogeräte an und schafft sowohl für Konsumenten als auch Unternehmen eine bessere Vergleichbarkeit der auf dem Markt zur Verfügung stehenden Produkte.

Es handele sich nicht um ein ungenaues ja/nein-Gütesiegel, sondern um eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems, macht Hallensleben deutlich. Welche Eigenschaften sich dabei beispielsweise hinter „Transparenz: Klasse C“ oder „Gerechtigkeit: Klasse B“ verbergen, wird anhand des WKIO-Models spezifiziert.

Risiko-Matrix hilft bei Klassifizierung von KI-Anwendungsfällen
Welche Eigenschaften eines KI-Systems als „ethisch ausreichend“ gelten, ist vom konkreten Anwendungsfall abhängig. Der Einsatz eines KI-Systems zur Verteilung von Gütern dürfte beispielsweise in der Möbellogistik ethisch weniger heikel sein als bei der Belieferung von Krankenhäusern. Die Studie stellt daher mit der „Risiko-Matrix“ einen Ansatz zur Klassifizierung des Anwendungskontexts vor.

Während die niedrigste Klasse 0 keine weiteren ethischen Überlegungen erfordert, dürfen für die Klassen 1 bis 3 nur KI-Systeme eingesetzt werden, die das obige KI-Ethik-Label tragen und innerhalb dieses Labels bestimmte Mindestanforderungen erfüllen.

Die Einstufung in Klasse 0, 1, 2 oder 3 berücksichtigt einerseits die Intensität des potenziellen Schadens, beispielsweise das Ausmaß der Verletzung von individuellen Grundrechten, die Anzahl der betroffenen Personen oder mögliche negative Auswirkungen auf die Gesellschaft als Ganzes, und andererseits die Abhängigkeit der betroffenen Personen bzw. deren Möglichkeit, sich einer KI-Entscheidung zu entziehen, ein anderes System wählen oder eine bestehende Entscheidung hinterfragen zu können.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.