FIDA: Open Finance erhöht Anforderungen an Datenqualität

Quelle: Dun & Bradstreet

Mit der geplanten EU-Verordnung FIDA rückt Open Finance näher und damit der Austausch von Finanzdaten zwischen Banken, Versicherern und anderen Marktteilnehmern. Doch viele Institute kämpfen noch mit fragmentierten Datenbeständen und mangelhafter Datenqualität. Für datengetriebene Geschäftsmodelle und KI-Systeme könnte genau das zur größten Schwachstelle werden, unterstreicht Nando Freyberg von der Wirtschaftsauskunftei Dun & Bradstreet.

Die europäische Finanzwirtschaft steht vor dem nächsten großen Integrationsschritt: Mit der Ankündigung der Financial Data Access Regulation (FIDA) beschleunigt die EU den Übergang von Open Banking zu Open Finance. Das heißt: Künftig sollen weit mehr Finanzdaten zwischen Marktteilnehmern geteilt und genutzt werden können – von Versicherungs- über Anlage- bis hin zu Kreditinformationen.

Ziel ist ein stärker vernetztes Finanzökosystem, in dem Daten zwischen Marktteilnehmern nutzbar werden. Doch je stärker Geschäftsmodelle auf Daten und Künstlicher Intelligenz basieren, desto deutlicher zeigt sich die Qualität der Datenbasis als strukturelle Schwachstelle der Branche.

Denn KI ist nur so leistungsfähig wie die Informationen, mit denen sie trainiert wird. Systeme lernen aus Mustern in den Eingabedaten und treffen darauf basierend Vorhersagen und Entscheidungen. Ohne saubere und verwertbare Datengrundlage drohen fehlerhafte Ergebnisse und verpasste Erkenntnisse.

In der Praxis sind solche Defizite keineswegs selten. Viele Unternehmen arbeiten mit Datenbeständen, deren Qualität nicht ausreicht, um verlässliche Analysen zu ermöglichen. Sind Informationen fehler- oder lückenhaft, verzerren sie die Auswertung und können dazu führen, dass KI-Systeme Ergebnisse liefern, die zwar plausibel wirken, tatsächlich aber auf einer unzuverlässigen Grundlage beruhen. Ein klassischer Fall von „Garbage in, garbage out“.

Die Achillesferse wird sichtbar, sobald Systeme entscheiden müssen

Laut aktuellen Umfragen nennen 91 Prozent der Führungskräfte im Bereich Finanzdienstleistungen und Versicherungen Cyberrisiken und Betrug als ihre größten Bedrohungen und die meisten haben negative Auswirkungen durch Risiken Dritter erlitten. Solche Gefahren lassen sich jedoch nur dann erkennen und steuern, wenn Daten aktuell, konsistent und belastbar sind. Hier zeigt sich die strukturelle Verwundbarkeit vieler Institute: Über die Hälfte der Banken misstraut ihren eigenen Datensätzen, und 52 Prozent kämpfen mit Datensilos oder Dubletten.

Bleiben diese Defizite bestehen, untergraben sie nicht nur analytische Prozesse, sondern auch zentrale Steuerungs- und Kontrollmechanismen. Daten verlieren ihre Funktion als verlässliche Entscheidungsgrundlage und werden selbst zum Unsicherheitsfaktor.

Open Finance verstärkt den Druck auf Datenstrukturen

Mit neuen Open-Finance-Regeln wie FIDA oder dem britischen Data (Use and Access) Act können Kunden ihre Finanzdaten gezielt teilen. Dadurch entstehen neue Möglichkeiten für personalisierte Angebote, datenbasierte Services und Cross-Selling-Modelle.

Je stärker Daten jedoch zwischen Institutionen fließen, desto wichtiger werden Interoperabilität, Nachvollziehbarkeit und Qualität. Finanzinstitute müssen sicherstellen, dass Datenherkunft, Struktur und Aktualität sowohl technisch als auch regulatorisch überprüfbar sind. Entscheidungen lassen sich nur dann rechtfertigen, wenn auch die zugrunde liegenden Daten belastbar sind.

Daten als Wettbewerbsvorteil oder als Schwachstelle

Grundsätzlich sind Daten ein zentraler Erfolgsfaktor im Finanzsektor. Je höher Quantität und Qualität der Datenbasis, desto gezielter lassen sich Produkte entwickeln, Kundenbedürfnisse analysieren und Geschäftsmodelle optimieren. Doch häufig sind vorhandene Daten nicht miteinander verknüpft oder integriert, was ihre Nutzung erheblich erschwert.

Gerade Banken arbeiten oft mit fragmentierten Systemlandschaften, in denen Informationen über verschiedene Anwendungen verteilt sind. Das verhindert eine ganzheitliche Kundensicht und reduziert die Wirksamkeit datenbasierter Prozesse.

Fazit: Die eigentliche Herausforderung von Open Finance

Die datengetriebene Transformation des Finanzsektors scheitert selten an Technologie, sondern an der Verlässlichkeit der Datenbasis. Genau hier liegt die strukturelle Schwachstelle moderner Finanzsysteme: Selbst leistungsfähige KI kann nur so belastbar entscheiden wie die Informationen, auf denen sie beruht.

Eine tragfähige Daten-Policy wird damit zum eigentlichen Fundament digitaler Finanzarchitekturen. Sie bestimmt, ob Entscheidungen nachvollziehbar, prüffähig und regulatorisch haltbar sind oder ob Modelle scheinpräzise Ergebnisse liefern, die einer Überprüfung nicht standhalten. Institute müssen deshalb jederzeit darlegen können, woher ihre Daten stammen, wie aktuell sie sind und warum sie vertrauenswürdig sind.

Mit Open Finance verschiebt sich der Maßstab zusätzlich. Die Öffnung von Datenräumen schafft zwar neue Möglichkeiten, erhöht aber zugleich die Anforderungen an Qualität und Kontrolle. Fortschritt entsteht daher nicht durch mehr Daten, sondern durch bessere. Wer diese Achillesferse beherrscht, gewinnt nicht nur Stabilität, sondern einen strukturellen Vorteil im Wettbewerb.