Synthetische Daten – Chancen und Risiken in der Versicherungswirtschaft

Quelle: DALL-E

Doch so vielfältig die Möglichkeiten synthetischer Daten sind – ihre Anwendung ist kein Selbstläufer. Denn mit jeder neuen Gestaltungsfreiheit wächst auch die Gefahr, dass Ergebnisse falsch interpretiert, übergeneralisiert oder methodisch verzerrt werden. Was statistisch plausibel erscheint, muss noch lange nicht der realen Welt standhalten.

Wenn Muster trügen

Synthetische Daten basieren auf Mustern – nicht auf tatsächlich erlebten Ereignissen. Sie entstehen aus mathematischen Beziehungen, Wahrscheinlichkeiten und Modellannahmen. Das macht sie flexibel, aber auch anfällig für Trugschlüsse. Wenn etwa kausale Zusammenhänge fehlen, kulturelle Unterschiede verwischt werden oder bestimmte Gruppen im Ursprungssystem unterrepräsentiert sind, kann selbst ein plausibles Datenset zu irreführenden Schlussfolgerungen führen.

Der Tech Trend Radar warnt davor, dass die Komplexität und Nuancen realer Daten womöglich nicht vollständig erfasst werden. Die britische Finanzaufsicht FCA geht weiter und nennt konkrete Schwächen: Synthetische Daten können bestehende Verzerrungen aus den Originaldaten übernehmen – oder neue erzeugen, wenn etwa Modelle zu stark verallgemeinern oder zu wenige Kontrollmechanismen greifen.

Wenn synthetische Daten zur Entscheidungsbasis werden

Besonders kritisch wird es, wenn synthetische Daten zur Grundlage für Entscheidungen gemacht werden – etwa bei Prämienberechnung, Risikoklassifizierung oder Betrugserkennung. Ohne klare Validierung droht das Risiko, dass reale Kunden falsch eingestuft oder ungerecht behandelt werden. Die FCA spricht hier von einem Spannungsverhältnis zwischen Datenschutz, Nutzwert und Modelltreue – kurz: privacy, utility und fidelity. Werden diese Kriterien nicht systematisch geprüft, ist der Einsatz synthetischer Daten nicht nur ungenau, sondern potenziell unfair.

Die Expertengruppe der FCA betont deshalb, wie wichtig Expertise und Governance-Strukturen sind: Wer synthetische Daten einsetzt, muss in der Lage sein, deren Aussagekraft kritisch zu bewerten – auch in Bezug auf die jeweilige Zielgruppe und den konkreten Anwendungsfall. Notwendig sind „extensive Analyse und fachliche Expertise“, um sicherzustellen, dass Modelle auf Basis synthetischer Daten nachvollziehbare und faire Ergebnisse liefern. Ein zu vereinfachter Umgang birgt ebenso Risiken wie eine überkomplexe Modellierung, die keinen Raum mehr für menschliche Bewertung lässt. Entscheidend ist daher: Synthetische Daten sind kein Selbstzweck. Ihre verantwortungsvolle Nutzung verlangt gut abgestimmte Prozesse, nachvollziehbare Qualitätskriterien und vor allem eines – Menschen, die wissen, was sie tun. Die technische Generierung mag automatisiert sein, doch die Verantwortung für ihren Einsatz bleibt menschlich.

Für Versicherer heißt das: Wer synthetische Daten strategisch nutzen will, muss auch ihre Grenzen verstehen – und dafür sorgen, dass Modelle regelmäßig überprüft, Verfahren transparent dokumentiert und Entscheidungen erklärbar bleiben. Nur wenn diese Bedingungen erfüllt sind, lässt sich Innovation glaubwürdig mit Verantwortung verbinden.

Hintergrund: Der Beitrag basiert auf den Inhalten des Tech Trend Radar 2025, einer jährlich erscheinenden Trendanalyse von Munich Re und Ergo, die technologische Entwicklungen im Hinblick auf ihre Relevanz für die Versicherungswirtschaft bewertet. Synthetische Daten werden darin als eigenständiger Trend im Cluster „Data & AI“ geführt. Ergänzend wurde der Bericht „Using Synthetic Data in Financial Services“der britischen Finanzaufsicht FCA (März 2024) ausgewertet, der Potenziale, Risiken und regulatorische Anforderungen detailliert beschreibt.