Die Anforderungen von KYC (Know Your Customer) stellten vor zwanzig Jahren eine Revolution für den Finanzsektor dar. Denn die Kundenprüfung hinsichtlich risikorelevanter Parameter wie beispielsweise Eigentumsstrukturen oder Geldwäsche erforderte eine umfassende Datenerhebung und Auswertung. Das Ziel: die schwarzen Schafe im weißen Kleid durch eine möglichst hohe Transparenz bei Investment-Geschäften zu finden und auszusortieren.

Im ESG-Bereich hat dieser Zug gerade erst Fahrt aufgenommen. „Die EU-Taxonomie ist aktuell noch sehr weich ausgelegt“, erklärt Michael Baldauf, Director Solutions Consulting bei Pegasystems. „So gibt es beispielsweise die Anforderung, den CO2-Ausstoß bei der Bewertung zu berücksichtigen, ohne das jedoch definiert ist, in welcher Form und in welchen Zeiträumen dieser zu erheben ist. Diese Grauzonen werden sich in den nächsten Jahren mit immer klareren Definitionen und Vorgaben ändern. Die EU wird versuchen ihre Vorreiterrolle zu sichern und andere Wirtschaftsräume werden nachziehen.“

Im Vergleich zu KYC und den bekannten Datensätzen wie beispielsweise dem Transparenzregister ist die Datenbasis bei ESG-Themen ungleich komplizierter. Es gibt weniger klare Vorgaben und eine Vielzahl an möglichen Daten die verwendet werden können – sie reichen von Nachhaltigkeitsparametern über soziale Aspekte bis zu Governance-Themen. Die beste Strategie ist deshalb ein gut adaptierbares fachliches Datenmodell, das an die Veränderungen der nächsten Jahre angepasst werden kann.

„Es bietet sich bei vielen Banken und Finanzdienstleistern an, die bestehenden Datenmodelle für KYC zu prüfen und als Blaupause für ESG-Anforderungen zu nutzen“, so Baldauf. „Sehr häufig kann man die KYC-Anwendungen um ESG-Funktionalitäten erweitern. Dadurch vermeidet man doppelte Systeme und unnötige Kosten. Schließlich darf man bei allem Fokus auf Reportings nicht vernachlässigen, dass ESG-Daten auch echte Vorteile bei der operativen Kreditentscheidung bieten.“

Um ESG-Datenmodelle erfolgreich aufzusetzen, sollten sich Entscheider an folgenden fünf Entwicklungsschritten entlang arbeiten.

  1. Entwicklung eines flexiblen Datenmodells
    In das Datenmodell müssen die bereits vorhandenen internen Daten zusammen mit ESG-Daten integriert werden. Das Ziel ist eine möglichst hohe Flexibilität. Dadurch können die Daten sowohl für dispositive Anfragen, wie beispielsweise Reportings, als auch für die operative Entscheidungsfindung, wie beispielsweise bei der Kreditvergabe, genutzt werden.

  1. Systemische Integration des Datenmodells
    Das Datenmodell muss so in die systemische Landschaft integriert werden, dass trotz hoher Flexibilität jederzeit konkrete Zugriffsmöglichkeiten für dispositive und operative Anliegen bestehen. Die Herausforderung liegt vor allem darin, mit den sich permanent wandelnden Bestandsdaten umzugehen. LiveData bedeutet, dass alle Daten sofort verwendet werden können und keine ungenutzten Data Lakes entstehen.

  1. Suche nach neuen Playern und Lieferanten
    Der Markt für ESG-Datenanbieter ist gerade erst im Entstehen. In den nächsten Jahren wird die Zahl der Anbieter die ESG-Daten, wie beispielsweise den Energiemix, Bodentrockenheit, soziales Engagement und vieles mehr erheben, exponentiell wachsen. Um diese sinnvoll in die Geschäftsprozesse integrieren und als LiveData verwenden zu können, benötigen Banken und Finanzdienstleister flexible Software-Schnittstellen. Dadurch können neue Daten-Angebote schnell in das eigene Modell übernommen werden.

  1. Eigenständige Datenerhebung und Self-Service
    Neben den externen Datenanbietern müssen auch eigenständige Datenerhebungen durchgeführt und Self-Service-Angebote für Kunden aufgesetzt werden. Dadurch können beispielsweise Energiegutachten oder Nachhaltigkeitsberichte gescannt und ausgewertet werden, um relevante Daten in die Modelle zu integrieren. Auch Self-Service-Angebote sind ein wichtiger Baustein. Hier können Kunden per Bot und Beraterkontakt dazu befähigt werden, ESG-Daten zu ihrem Business weiterzugeben.

  1. Analyse und Klassifizierung der Daten
    Der heilige Gral des Datenmanagements ist die technologiegestützte Analyse und Klassifizierung aller integrierten Datensätze. Hierfür können Analytic-Tools bereits sinnvoll eingesetzt werden, um relevante Daten zu separieren und zu interpolieren, das heißt aus aggregierten Vergleichsgruppen auf Einzelfälle zu schließen. Zukunftsmusik hingegen ist hier noch das Thema AI, da die Anforderungen keine selbstlernenden Prozesse zulassen, sondern aus Transparenzgründen immer Human-in-the-loop erfordern.

„Beim Thema ESG-Daten entsteht gerade eine Goldgräberstimmung auf dem Markt“, so Baldauf. „Doch noch sind die Anforderungen nicht klar definiert und die Zahl der Anbieter wächst täglich. Entscheider müssen Systeme deshalb so aufsetzen, dass sie für Veränderung gebaut sind und Daten durch LiveData direkt in Modellen verwendet werden können. Je schneller sich Banken und Finanzdienstleister damit auseinandersetzen, umso eher können sie zu den Gestaltern dieses Wandels werden.“



Weitere Beiträge....