Deepfake-Erkennung: So schützen sich Versicherer vor KI-Betrug
Täuschend echte Deepfakes sind längst Alltag und stellen Versicherer vor neue Herausforderungen. Klassische Bildprüfungen stoßen an ihre Grenzen, selbst Experten sehen oft keinen Unterschied mehr. Nur spezialisierte, branchenspezifische Forensik kann KI-Fälschungen zuverlässig entlarven, warnt Chris Ehrling, Lead Data Scientist.

Was früher nur geübten digitalen Fälschern mit Photoshop und viel Zeit gelang, ist heute dank KI-Tools für jeden mit einem simplen Prompt möglich. Das ist bittere Realität – besonders für Versicherungen. Deepfakes, also täuschend echt wirkende KI-Bilder oder -Videos, sind kein Zukunftsszenario mehr. Sie sind da – und sie werden besser.
Anzeige
Mit modernen multimodalen Systemen wie GPT-4o oder Googles Veo 3 lassen sich in Sekunden hochauflösende Bilder und Videos erzeugen, die in Detailtreue, Lichtführung und Perspektive kaum noch von echten Aufnahmen zu unterscheiden sind. Was vor wenigen Jahren noch als technische Spielerei galt, wird inzwischen in betrügerischen Kontexten eingesetzt – etwa um gefälschte Schadensbilder einzureichen oder Identitätsnachweise zu fälschen.
Deepfakes sind kein Randphänomen mehr, sondern ein wachsendes Risiko für die Branche. Besonders brisant: Die nötigen Werkzeuge sind nicht nur Spezialisten vorbehalten, sondern oft frei zugänglich – und lassen sich auch ohne Expertenwissen bedienen.
Die Folge: Ein Paradigmenwechsel in der forensischen Bildprüfung. Wo man Fälschungen früher mit bloßem Auge entlarven konnte, braucht es heute zunehmend spezialisierte Algorithmen.
Warum selbst das geschulte Auge scheitert
Deepfakes sind inzwischen so gut, dass selbst trainierte Experten kaum noch Unterschiede zu echten Bildern erkennen. Struktur, Haut, Licht – alles wirkt perfekt. Genau hier beginnt jedoch die Arbeit der Forensik: bei den unsichtbaren Spuren.
Denn jedes KI-Modell – ob GAN oder Diffusion – hinterlässt winzige, für das menschliche Auge unsichtbare Artefakte. Sie verstecken sich im Frequenzraum des Bildes: mathematische Muster, regelmäßige Frequenzen oder subtile Glättungen, die eine echte Kamera so nicht erzeugen würde. Diese Spuren entstehen nicht durch das Motiv, sondern durch den algorithmischen Erzeugungsprozess – oft ausgehend von reinem Rauschen.
Moderne Forensik fragt daher nicht „Was ist zu sehen?“, sondern „Wie wurde es erzeugt?“. Sie analysiert nicht nur die sichtbare Bildstruktur, sondern auch mikroskopisch feine Texturen, die sich erst in einer technischen Analyse offenbaren – wie ein digitales Echtheitszertifikat oder eben ein Verräter.
Fazit: Wer Deepfakes erkennen will, darf sich nicht allein auf seine Intuition verlassen. Die Wahrheit steckt oft in den Frequenzen – verborgen unter der Oberfläche, aber messbar.
Die menschliche Wahrnehmung – trügerischer als gedacht
Studien zeigen: Menschen überschätzen ihre Fähigkeit, Deepfakes zu erkennen, deutlich. Eine Metaanalyse mit über 86.000 Teilnehmenden ergab, dass die Trefferquote im Schnitt kaum besser als Zufall ist. Selbst Warnhinweise, Trainings oder finanzielle Anreize halfen nur begrenzt.
Hinzu kommt der Liar’s Dividend: Schon der bloße Verdacht einer Manipulation kann dazu führen, dass auch echte Bilder angezweifelt werden. Damit verliert visuelles Material zunehmend an Beweiskraft.
Forschungsstand: Warum viele Detektoren in der Praxis scheitern
Zwar existiert eine Vielzahl an Deepfake-Detektoren aus der Forschung, doch viele versagen in realen Anwendungsszenarien. Dou et al. verweisen auf den sogenannten Domain Gap: Trainingsdaten aus öffentlichen Forschungskorpora bilden reale Betrugsfälle oft nicht realistisch ab.
Für Versicherungen heißt das: Selbst technisch ausgereifte Modelle liefern nur dann verlässliche Ergebnisse, wenn sie auf branchenspezifischen, realitätsnahen Daten trainiert sind.
Praxisbeispiel: Branchenspezifische Bildforensik
Ein Beispiel ist die Plattform fraudify der Finanz-DATA GmbH, entwickelt in Kooperation mit der TU Clausthal und der Universität Göttingen. Sie kombiniert klassische Bildforensik mit Deep-Learning-Methoden – und basiert auf einem kuratierten Datensatz realer Versicherungsfälle.
Herzstück ist das Modell LAISIE, spezialisiert auf die Erkennung generativer Bildfälschungen. Es identifiziert texturbezogene Merkmale, wie sie bei Generatoren wie Stable Diffusion oder Midjourney entstehen. Die Architektur ist so angelegt, dass auch Bilder erkannt werden, die von bislang unbekannten Generatoren stammen.
Darüber hinaus nutzt fraudify eine hybride Detektionsarchitektur, die klassische Filter mit semantischer Segmentierung via Deep Learning kombiniert – inspiriert von Ansätzen wie TruFor oder MMFusion.
Kernaussage: Perfekte Deepfakes sind keine Zukunftsmusik – sie sind längst Teil der Gegenwart. Wer sie entlarven will, muss tiefer blicken als das Auge reicht. Für Versicherungen bedeutet das: Branchenspezifische Forensik ist nicht Kür, sondern Pflicht.
Anzeige