BaFin - Navigation & Service

Symbolfoto @ Metamorworks/stock.adobe.com

Stand:geändert am 01.09.2022 | Thema Fintech Big Data und künstliche Intelligenz

Große Datenmengen (Big Data – BD) und deren automatisierte Verarbeitung mithilfe künstlicher Intelligenz (Artificial Intelligence – AI) bzw. des maschinellen Lernens (ML) gelten als Schlüssel zur digitalen Transformation in nahezu allen Branchen. Auch in der Finanzindustrie gibt es Anwendungsszenarien, die inzwischen ohne BDAI/ML kaum vorstellbar wären.

Vereinfacht versteht die BaFin unter AI die Kombination aus großen Datenmengen, Rechenressourcen und maschinellem Lernen. Diese Definition stellt allerdings keine allgemeingültige Abgrenzung der BDAI/ML-Methoden von sonstigen Methoden dar. Vielmehr müssen Aufsichtspraxis, Prüfungstechnik und -intensität darauf ausgerichtet sein, welche BDAI/ML-Charakteristika bei einer konkret zu prüfenden Methodik vorliegen und wie stark diese ausgeprägt sind – es handelt sich also vielmehr um einen fließenden Übergang.

Die Charakteristika lassen sich dabei anhand von drei Dimensionen des BDAI/ML-Szenarios gruppieren:

(1) Die Methodik und Datengrundlage beschreiben die Komplexität und damit das mit dem BDAI/ML-Verfahren verbundene Modellrisiko.
(2) Die Nutzung des Outputs beinhaltet, welchen Stellenwert das Verfahren innerhalb des Gesamtprozesses eines beaufsichtigten Unternehmens einnimmt.
(3) Die dritte Dimension befasst sich mit der generellen Unterscheidung zwischen Eigenentwicklung und Auslagerung und der zugrundeliegenden IT-Infrastruktur.

Ein tieferen Einblick gibt ein gemeinsames Diskussionspapier „Maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte“, das die BaFin und die Deutsche Bundesbank zur Konsultation gestellt haben. Darin geht es um den konkreten Einsatz von maschinellem Lernen (ML) in Risikomodellen der Säulen I und II der Regelwerke für Banken und Versicherer.

Prinzipienpapier für Einsatz von Algorithmen

Typische Use-Cases für den Einsatz von BDAI/ML im Banken- und Versicherungsbereich finden sich bei der Geldwäsche- bzw. Betrugserkennung sowie bei Backoffice-Prozessen wie der Dunkelverarbeitung im Versicherungsbereich. Auch im Scoring, Pricing (inklusive Telematik-Tarifen) und zur Unterstützung des Vertriebs wird BDAI/ML eingesetzt. Im Risikomanagement findet BDAI/ML zunehmend Verwendung bei der Datenaufbereitung und in der Validierung von Risikomodellen. In der ohnehin von höherer Automatisierung geprägten Wertpapierbranche geht es vornehmlich um die Anreicherung bestehender Prozesse in Handel, Beratung, Risikomanagement und Compliance.

Die BaFin hat im Jahr 2021 generelle Prinzipien für den Einsatz von Algorithmen, insbesondere von solchen aus dem Bereich BDAI/ML, formuliert. Hierbei wurden sowohl übergeordnete Prinzipien (z.B. die klare Verantwortung der Geschäftsleitung) als auch spezifische Prinzipien für die Entwicklungs- und Anwendungsphase von BDAI/ML-Anwendungen aufgestellt. In der Entwicklungsphase sind beispielsweise die Datenstrategie und Daten Governance sowie die Durchführung von angemessenen Validierungsprozessen zu beachten. Für die Anwendungsphase werden beispielsweise intensive Freigabe- und Feedbackprozesse beschrieben.

Bandbreite von Modellcharakteristiken

Schaubild zum Diskussionspapier „Maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte“ (c) BaFin und Deutsche Bundesbank

Welche Risiken bestehen beim Einsatz von BDAI-Technolgie?

Methoden laden zur Datengläubigkeit ein

Die Datengrundlage ist bei BDAI/ML-Methoden als Ausgangspunkt und Erfolgsfaktor anzusehen. Unstrukturierte Daten können mittlerweile durch bzw. für BDAI/ML-Methoden erschlossen werden. Ferner erlauben BDAI/ML-Methoden Berechnungen unter Einbeziehung zahlreicher Einflussgrößen, was wiederum zum Problem des „Overfittings“ führen kann. Bei der Verwendung großer Datenmengen muss deren Qualität fortlaufend sichergestellt werden. Dies betrifft neben der Modellentwicklung und -validierung auch die Modellanwendung. Ein tieferen Einblick gibt ein gemeinsames Diskussionspapier „Maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte“, das die BaFin und die Deutsche Bundesbank zur Konsultation gestellt haben

Erklärbarkeit rückt in den Fokus

Je komplexer und höherdimensionaler der vom Modell abbildbare Hypothesenraum ist, desto schwieriger wird es, den funktionalen Zusammenhang zwischen Input und Output verbal oder durch mathematische Formeln zu beschreiben. Die Berechnungen sind für Modellierer, Anwender, Validierer und Aufseher schwerer nachvollziehbar. Dies führt ggf. auch zu einer erschwerten Überprüfung der Validität der Modellergebnisse. Zusätzlich kann die Akzeptanz bei den Anwendern leiden. Während diese „Blackbox“-Eigenschaft zum Beispiel durch eine höhere Vorhersagegüte gerechtfertigt werden kann, entsteht ein potenziell höheres Modellrisiko. Um diesem angemessen Rechnung zu tragen, wurden Techniken der Explainable AI (XAI) entwickelt. Auch wenn XAI-Techniken aus Sicht der Aufsicht vielversprechend erscheinen, um die „Blackbox“-Eigenschaft abzumildern, stellen diese Ansätze selbst Modelle mit Annahmen und Schwächen dar und befinden sich vielfach noch in der Erprobungsphase. (Vgl. BaFin/Bundesbank, Konsultation 11/2021 – Diskussionspapier: maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte)

Adaptivität: Modelländerungen sind schwerer zu erkennen

Im Bankensegment sind Institute dazu verpflichtet, der Aufsicht Änderungen von Säule 1-Modellen zu melden und diese ggf. erst nach Genehmigung in Betrieb zu nehmen. Die Grenze zwischen regelmäßiger Modellpflege und Modelländerung ist fließend, zumal der Begriff der „Modelländerung“ auch vom jeweiligen aufsichtlichen Kontext abhängig ist. Die Flexibilität und die teils hochfrequente Adaptivität von BDAI/ML-Verfahren erschweren jedoch eine aufsichtlich unverzichtbare klare Unterscheidung zwischen Anpassungen und Änderungen. Ebenfalls sollte die Notwendigkeit einer hochfrequenten Adaptivität grundsätzlich gut begründet werden. Aus Sicht der Aufsicht ist es entscheidend, den Trainingszyklus an den Anwendungsfall anzupassen und entsprechend zu begründen, um ein Gleichgewicht zwischen Aktualität hinsichtlich der Daten und Erklär- sowie Validierbarkeit zu schaffen. Ein tieferen Einblick gibt ein gemeinsames Diskussionspapier „Maschinelles Lernen in Risikomodellen – Charakteristika und aufsichtliche Schwerpunkte“, das die BaFin und die Deutsche Bundesbank zur Konsultation gestellt haben.

Zusatzinformationen

Fanden Sie den Beitrag hilfreich?

Wir freuen uns über Ihr Feedback

Es hilft uns, die Webseite kontinuierlich zu verbessern und aktuell zu halten. Bei Fragen, für deren Beantwortung wir Sie kontaktieren sollen, nutzen Sie bitte unser Kontaktformular. Hinweise auf tatsächliche oder mögliche Verstöße gegen aufsichtsrechtliche Vorschriften richten Sie bitte an unsere Hinweisgeberstelle.

Wir freuen uns über Ihr Feedback