EU reguliert KI: Was Versicherungen beachten müssen

Quelle: geralt/Pixabay

Zukunftssicherheit und Wettbewerbsfähigkeit bei Künstlicher Intelligenz (KI) – dieses Ziel verfolgt die Europäische Union mit einer neuen EU-Verordnung zur Regulierung der KI-Nutzung in Unternehmen.

Die Europäische Kommission möchte die EU-Länder als führenden Standort für vertrauenswürdige KI etablieren. Darunter versteht sie beispielsweise Chatbots, die nicht vortäuschen, dass sie ein Mensch sind. Festgeschrieben werden sollen die Regeln in einer neuen EU-Verordnung. Sie ist noch nicht rechtskräftig, soll aber noch in diesem Jahr beschlossen werden. Deshalb ist es für Unternehmen aus der Versicherungsbranche höchste Zeit, sich mit den neuen Regeln für KI zu beschäftigen. Denn auch für Assekuranzen hat KI eine große Bedeutung, wie der Beitrag „Künstliche Intelligenz: So heben Versicherungen ihr Potenzial“ zeigt.

Die Risikoeinschätzung von KI-Lösungen

Quelle: Zelros

Kern der neuen Richtlinie ist die Einteilung von KI nach ihrer Auswirkung auf Grundrechte, Sicherheit und Privatsphäre. Die europäische Kommission sortiert KI-gestützte Lösungen entsprechend ihres Risikos in vier Kategorien ein: unannehmbar, hoch, gering und minimal.

Anwendungen mit einem „unannehmbaren Risiko“ sind verboten. Dazu gehören beispielsweise Software, die soziales Verhalten bewertet – und Menschen so diskriminieren kann. Auch die Verwendung von KI bei automatischer Gesichtserkennung auf öffentlichen Plätzen ist stark eingeschränkt.

In der Kategorie „hohes Risiko“ geht es um Anwendungen, die Personendaten verarbeiten, etwa die Vertragsdaten der Versicherungen. Ein „geringes Risiko“ sieht die EU bei interaktiven Tools, die klar als Software erkennbar sind und bei denen die Nutzer:innen frei über den Einsatz entscheiden können. Dazu gehören unter anderem Chatbots im Kundenservice.

Die Kategorie „minimales Risiko“ enthält sämtliche Anwendungen, die entsprechend dem geltenden Recht entwickelt und genutzt werden und keine weiteren rechtlichen Verpflichtungen erfordern. Dazu gehört beispielsweise der KI-Einsatz in Videospielen.

Risikoklassen für die Versicherungsbranche

Diese Einteilung in unterschiedliche Risikoklassen gilt für alle Branchen und Anwendungsfälle. Spezielle Richtlinien für die Versicherungswirtschaft gibt es bisher nicht. Es ist aber anzunehmen, dass sich in der Branche in erster Linie Anwendungsbereiche mit hohen und geringen Risiken finden.

Ein gutes Beispiel sind Chatbots. Hier ist Transparenz entscheidend. Sofern den Kund:innen immer klar ist, dass sie gerade einen Dialog mit einem Bot führen, ist der Einsatz dieser KI-Tools unproblematisch und sollte keine rechtlichen Folgen haben. Schwieriger hingegen sind KI-Routinen rund um die Kernanwendungen von Versicherungen. Sobald Stamm- und Vertragsdaten sowie Kundenkontakte mit KI-Lösungen analysiert werden, handelt es sich um die Kategorie „hohes Risiko“.

Versicherungen sollten für Anwendungen in diesen beiden Risikoklassen vorsichtshalber Maßnahmen einleiten, etwa eine Vorbereitung auf die absehbaren Anforderungen sowie ein Datenmanagement. Ein erster Schritt ist die Einführung eines Qualitäts- und Risikomanagement für alle Anwendungen mit einem hohen Risiko.

Dazu gehört in erster Linie eine Bewertung der Nutzungsfolgen, jeweils vor der Ersteinführung und bei jeder Änderung des Einsatzzwecks. Das gesamte KI-Nutzungsszenario sollte vollständig rechtskonform mit den Vorgaben der EU-Richtlinie sein. Auch wenn sie zurzeit nur ein Diskussionspapier ist, können die Versicherungen bereits jetzt ihre KI-Lösungen auf den Prüfstand stellen.

Transparentes Datenmanagement gewinnt an Bedeutung

Dabei ist es sinnvoll, mit einer Analyse der Datenqualität, der Dokumentation und Rückverfolgbarkeit aller eingesetzten Daten sowie der Transparenz über die Verwendungszwecke zu starten. Versicherungen sollten dabei prüfen, ob Open-Source-Software hier nicht im Vorteil gegenüber herkömmlichen Lösungen ist – die Transparenz der eingesetzten Algorithmen ist hier gewährleistet. Darüber hinaus ist Open Source eine gute Möglichkeit, um das Vertrauen von (potenziellen) Nutzer:innen zu gewinnen.

Die Richtlinie der EU legt hohen Wert auf die Unvoreingenommenheit von künstlichen Intelligenzen. KI-Systeme dürfen Vorurteile und Verzerrungen (Bias) weder schaffen noch reproduzieren. Das ist auch für Versicherungen relevant. Sie sollten die Policierung nicht aufgrund von Geschlecht oder Herkunft verweigern. Das war allerdings auch vorher schon durch Leitlinien der Branche untersagt.

KI-Systeme mit hohem Risiko erfordern der EU-Richtlinie zufolge ein ausreichend repräsentatives Training, um das Risiko von unfairen Verzerrungen möglichst gering zu halten. Diese Trainingsdaten unterliegen ebenfalls einer Dokumentations- und Aufbewahrungspflicht. Versicherungen müssen sich darauf einstellen und sollten frühzeitig mit dieser Dokumentation beginnen.

Faire Entscheidungen für die Kund:innen

Ein gutes Hilfsmittel für die Praxis sind die erst vor wenigen Wochen beschlossenen Leitlinien der Europäischen Aufsichtsbehörde für das Versicherungswesen EIOPA. Unternehmen können sich hieran orientieren, um die Konformität zur EU-Verordnung zu erreichen. Das Dokument empfiehlt sechs Prinzipien, die Versicherer bei KI berücksichtigen sollten.

  1. Bei der KI-Einführung wird die Verhältnismäßigkeit ihres Einsatzes überprüft.
  2. Fairness und Gleichbehandlung der Kund:innen werden berücksichtigt.
  3. Die genutzten Lösungen sind transparent und nachvollziehbar.
  4. Die Unternehmen haben eine menschliche Aufsicht über die Lösung etabliert.
  5. Die Datenspeicherung berücksichtigt die Grundsätze von Datenschutz (DSGVO) und Datensicherheit.
  6. Die genutzten KI-Systeme sind technisch robust, leistungsfähig und sicher.

Diese Prinzipien gehören zur IT-Governance und bilden eine gute Grundlage für einen Einsatz von Künstliche Intelligenz. Sie führen zu fairen und nachvollziehbaren Entscheidungen und stärken das Vertrauen der Kund:innen in KI-Lösungen – ein guter Ausgangspunkt für wirtschaftlichen Erfolg mit dieser Technologie.