Um Systeme auf Basis Künstlicher Intelligenz erfolgreich und flächendeckend in den Markt einzuführen, gibt es eine bislang ungelöste Schlüsselfrage: Wie kann Vertrauen in die Entscheidungen von Algorithmen entstehen? Nur über einen klar definierten Standard können Hersteller und Systembetreiber nachweisen, bis zu welchem Grad bestimmte ethische Anforderungen eingehalten werden.

Sebastian Hallensleben, KI-Experte im VDE und Projektgruppenleitung für das Projekt VDE SPEC KI-Ethik, erklärt: „Das Thema brennt allen unter den Nägeln. Wir haben gemeinsam mit unseren Projektpartnern eine Systematik entworfen, durch die man eine KI mit realistischem Aufwand prüfen und die Ergebnisse klar in Richtung Markt und Regulierer kommunizieren kann.“

Industrie- und wissenschaftsübergreifend: Vorlage für ein international gültiges AI Trust Label
In die Entwicklung der VDE SPEC waren Bosch als Mit-Initiator sowie Siemens, TÜV Süd, SAP und BASF involviert. Seitens der Wissenschaft beteiligten sich Vertreter*innen vom iRights.Lab, dem Karlsruher Institut für Technologie, dem Ferdinand-Steinbeis-Institut sowie der Universitäten Tübingen und Darmstadt.

Bereits aus dieser Breite an Teilnehmern wird deutlich, dass das Konsortium auf ein allgemeinverbindliches, international anerkanntes AI Trust Label hinarbeitet.

„Selbstverständlich bewegen wir uns dabei nicht im luftleeren Raum“, so Dr. Christoph Peylo, der bei Bosch das Thema „Digital Trust“ verantwortet. „Wir haben Vorarbeiten wie die der AI Ethics Impact Group berücksichtigt, und natürlich läuft auch ein Abgleich mit den aktuellen Vorgaben der EU.“

Geplant ist im nächsten Schritt, bis zum Sommer 2022 das AI Trust Label vorzustellen, das Unternehmen für KI-Produkte nutzen können. Am Ende soll das Label je nach Anwendungsfall sowohl eine Eigenerklärung als auch eine Zertifizierung durch unabhängige Instanzen erlauben, was bei besonders risikoreichen Anwendungen erforderlich ist.

Der Schlüssel zur Transparenz: Das VCIO-Modell
Bezüglich der wissenschaftlichen Systematik stützten sich die Projektpartner auf das etablierte VCIO-Modell. Es basiert auf vier Parametern: Auf der obersten Ebene werden Werte (Values) definiert, deren Einhaltung über festgelegte Kriterien (Criteria) überprüft wird. Dies ist möglich über die Beschreibung von Indikatoren (Indicators) und Beobachtungsmerkmalen (Observables).

„Das klingt sehr kompliziert, ist aber ganz praktisch vorstellbar“, sagt Dr. Hallensleben. „Für den Wert Transparenz gibt es verschiedene Kriterien, zum Beispiel Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, oder die Durchschaubarkeit und Verständlichkeit des Algorithmus. Solche Eigenschaften werden über die in der VDE SPEC vorgestellte Systematik mess- und quantifizierbar in Einklang gebracht.“

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.