Die Versicherung der Zukunft – Teil 3: Hebt die Daten

Wie geht es jetzt weiter?

 

Ihr Kontakt bei diconium

Robert Augst
director financial services

Die rund 530 Versicherungen in Deutschland verfügen über einen Bestand von mehr als 446 Millionen Stück Versicherungsverträgen. Es ist, mit anderen Worten, ein riesiger Datenschatz, auf dem die Versicherer sitzen. Nach Jahren regulatorischer Hürden und Hindernisse wird es höchste Zeit, diesen Schatz zu heben. Ghizlane Bouskri, Data Scientist und AI Project Tech Lead bei diconium, gibt Tipps zu den richtigen Werkzeugen und Methoden.

Die Nutzung von Daten für neue Produkte oder Geschäftsmodelle ist ein komplexer Prozess, der sich entlang der gesamten Wertschöpfungskette erstreckt. Um hier nicht den Überblick zu verlieren, hat es sich bewährt, diesen Prozess in mindestens drei Phasen einzuteilen, die jeweils eigene Aufgabenstellungen an die strategisch Verantwortlichen, die Unternehmens-IT und die operativen Expert*innen aus den Fachbereichen stellt:

Das Processing umfasst die Aufgabe, Daten zu erheben, vorzuhalten und so aufzubereiten, dass sie für datengetriebene Geschäftsmodelle genutzt werden können. Mit dem Modelling beginnt die Arbeit mit Daten – über das Aufsetzen und Trainieren von KI-Modellen und der Definition von Proof-of-Concepts (PoC) und Prototypen. Dieser Projektarbeit folgt das Deployment der Lösungen für den Regelbetrieb. Hier erst beginnt die produktive Nutzung von Daten.

Processing: Daten, Daten, Daten

Im Data Lake werden unstrukturierte wie semi-strukturierte und auch strukturierte Daten in großen Mengen (Big Data) unabhängig von ihrem Ursprungsformat gesammelt; der Lake ist datentolerant, kann also nicht nur mit bestimmten Formaten arbeiten, sondern speichert zunächst einmal alles. Erst ihre Nutzung stellt Unternehmen vor die Aufgabe, die Daten in sogenannten Data Pipelines und Frameworks aufzubereiten und über Schnittstellen dorthin zu bringen, wo sie benötigt werden. Streng genommen erst dafür brauchen sie fachliches Know-how.

Das Konzept des Data Warehouse verlangt dagegen vorab nach einer besseren Strategie und damit auch früher nach Know-how: Im Warehouse werden die Daten konsolidiert und strukturiert abgelegt und sind dann schneller zu nutzen. Aber dieses Konzept beinhaltet das Risiko, dass der Aufwand auch für solche Daten betrieben wird, die am Ende niemand wirklich benötigt. 

Als Trendtechnik ist „Data Mesh“ eine Art Datenplattformarchitektur, die die Allgegenwart von Daten im Unternehmen berücksichtigt, indem sie ein domänenorientiertes Self-Service-Design nutzt. Diese Konzepte werden in der Praxis eingesetzt und schließen sich nicht unbedingt gegenseitig aus. Für beides gibt es zudem technische Lösungen, die praktisch von der Stange eingesetzt werden können. Alle drei Konzepte brauchen aber Schnittstellen in zwei Richtungen: zu den Datenquellen und zu den Datennutzern. 

DATEN FÜR VERSICHERUNGEN: NUTZEN FÜR ALLE

  • Die Entscheidung über die passende Technologie richtet sich daher weniger nach den Möglichkeiten als nach dem Use Case oder dem datengetriebenen Geschäftsmodell. Ein kleiner Überblick über die Möglichkeiten von Versicherern, mit Daten zu arbeiten:
  • Grundsätzlich können Versicherungen über die Auswertung von Daten Erkenntnisse darüber gewinnen, was ihre (potenziellen) Kund*innen brauchen, was sie sich von ihnen wünschen oder was sie auf gar keinen Fall möchten. Daraus können sie neue Angebote entwickeln, bestehende Angebote an neue Wünsche anpassen oder Entwicklungen, in die eine oder andere Richtung mit einer großen Eintrittswahrscheinlichkeit vorhersagen. 
  • Daten können aber Versicherer auch bei vielen Alltagsaufgaben unterstützen, die ohne sie nur schwer zu bewältigen wären. Dazu gehört zum Beispiel die Betrugserkennung. In Deutschland entstehen nach Schätzungen des Branchenverbands GDV Jahr für Jahr rund fünf Milliarden Euro Schäden, weil Versicherte sich Leistungen unrechtmäßig erschleichen, weil sie unrichtige Angaben über Schäden, ihre Verursacher oder über Krankheiten und ihre Folgen machen.
  • Um solchen Betrügereien auf die Schliche zu kommen, müssen riesige Datenmengen aus unterschiedlichen Quellen auf atypische Schadensmerkmale untersucht werden. Am besten eignen sich Algorithmen dafür, die für diese Erkennungen speziell trainiert wurden. Die Schadenserkennung über statistische Methoden gibt es schon länger, aber künstliche Intelligenz gibt den Versicherungen neue Werkzeuge an die Hand, die wesentlich umfangreichere Analysen mit wesentlich größeren Datenbeständen erlauben.
  • Auf Basis solcher Analysen können Algorithmen auch Schadenswahrscheinlichkeiten vorhersagen und damit ein Anpassen von Policen und Zahlungssummen ermöglichen. Das kann je nach Datenlange granular bis hin zu einzelnen Produkten gehen, die mit einer kalkulierbaren Wahrscheinlichkeit in einem Zeitraum X kaputt gehen.
  • Daten aus dem Alltag der Versicherten können schließlich auch präventiv eingesetzt werden, um zum Beispiel in den Krankenversicherungen bestimmte Krankheiten vorherzusagen und Präventionsmaßnahmen gegen ihren Eintritt zu ergreifen. Diese Informationen wiederum können auch für Risikoprüfungen im Rahmen des Abschlusses von Lebensversicherungen eingesetzt werden. 

 

Die Versicherung der Zukunft 3: Daten

Datenschutz schon bei den Use Cases mitdenken

Es wird deutlich, wie wichtig es schon beim Processing, hier bei der Suche nach Use Cases ist, den Datenschutz mitzudenken – grundsätzlich und dynamisch. Dieser Prozess wird gemeinhin als „Data Governance“ bezeichnet. Der Datenschutz gilt besonders für Versicherungen, die mit sehr persönlichen und schützenswerten Daten ihrer Kund:innen umgehen.  

Hier spielt das gesetzlich verbriefte Recht auf informationelle Selbstbestimmung eine zentrale Rolle, die den gesamten Prozess prägt, nicht nur die Initialisierung: Versicherer müssen sobald eine Änderung bei den Geschäftsbedingungen gibt,, wenn sie Daten ihrer Versicherten nutzen, den Zweck dieser Daten mit ihnen abstimmen und die Erlaubnis für eine zweckgebundene Verwendung einholen. Und sie müssen darauf achten, dass die Datenverarbeiter in ihrem Unternehmen über ihre Rollen die notwendigen Rechte für den Zugriff auf Daten haben. Denkbar ist auch, ihnen die Datenverarbeitung zu ermöglichen, ohne dass die Daten selbst für sie sichtbar sind. 

Das Legal Engineering von Daten und damit die Data Governance ist eine komplexe Unternehmensaufgabe und muss bei Datenprojekten gleichermaßen strategisch wie operativ mitgedacht werden. Nur dann können Versicherer den Datenschutz gewährleisten und rechtssicher für datengetriebene Erkenntnisse sorgen. 

 

 

DATen modellieren und Prototypen entwickeln

Mit dem Aufsetzen der richtigen Strategie und der Basistechnologien haben Versicherer die Basis für datengetriebene Geschäftsmodelle und Projekte geschaffen. Im nächsten Schritt geht es darum, anhand konkreter Fragestellungen KI-basierte Datenmodelle oder Prototypen zu entwickeln, die bei der Beantwortung dieser Fragen helfen. Ein paar Beispiele: Wie verläuft etwa eine typische Corona-Erkrankung, wie lange dauert sie, welche Medikamente helfen am besten? Welche Erkrankungen gehen einer Corona-Infektion typischerweise voraus und können so auf eine mögliche Infektion hinweisen? Welche Zusammenhänge gibt es zwischen schweren Verläufen der Infektion und externen Faktoren wie dem Wetter, der Jahreszeit oder dem Impfstatus?

Für diese Fragen brauchen Unternehmen ein enges Zusammenspiel von fachlich versiertem Mitarbeiter*innen und Data Spezialist: Die einen kennen die fachlichen Herausforderungen und haben ein bestimmtes Erkenntnisinteresse. Die anderen kennen die Datenquellen und -technologien und wissen also, wie die Fragen formuliert sein müssen, damit die Daten zufriedenstellende Antworten liefern. Auch andere Stakeholder aus dem Unternehmen können in diesen Prozess integriert werden, das Controlling zum Beispiel, das legitime Wünsche nach einer größeren Kosteneffizienz etwa bei der Bekämpfung von Krankheiten äußern kann.

Jeder Versicherer steht somit vor der Frage: Welche Daten stehen schon heute zur Verfügung? Wie lassen sich Daten mit anderen Marktteilnehmern teilen? Und wie ist es möglich, noch mehr Insights aus den Datenbeständen herauszuholen? Künstliche Intelligenz, Cloud Computing und Data Analytics sind dabei neben anderen technologischen Trends und Entwicklungen von herausragender Bedeutung.

Dass es Mitarbeiter:innen in den Fachbereichen eines Unternehmens gibt, die sich exzellent mit den Produkten und Prozessen ihres Unternehmens auskennen, ist keine Überraschung. Aber es ist wichtig, hier Datenspezialist*innen (Data Scientists) einzubeziehen, die es nicht in jedem Unternehmen gibt. Sie übernehmen die wichtige Aufgabe, die Business-Anforderungen in Datenabfragen zu übersetzen, und vermitteln so zwischen Business und Technologie. 

Zu dieser Phase der Datennutzung gehört das Aufsetzen von (kleinen und überschaubaren) Projekten mit dem Ziel, PoC oder Prototypen zu entwickeln, die das Potenzial datengetriebener Geschäftsmodelle aufzeigen und ihre Machbarkeit dokumentieren. Mit PoC oder Prototypen können Daten-Teams die Stakeholder im Unternehmen davon überzeugen, daraus größere Projekte und neue Produkte zu entwickeln und firmenweit auszurollen.

OPERATIVER BETRIEB - DEPLOYMENT

Am Ende der zweiten Phase steht im besten Fall ein Produkt oder ein Prozess, der anschließend unternehmensweit ausgerollt werden kann. Sicherheit und Processing müssen auch hier mitgedacht werden, denn beides lässt sich nicht a priori und für immer definieren, sondern muss, wie beschrieben, in einem dynamischen Prozess immer wieder angepasst werden. Bei immer mehr Projekten können heute Live-Daten verarbeitet werden, weil die dafür notwendigen Rechenkapazitäten aus der Cloud beliebig skalierbar zur Verfügung stehen. Daher ist es fortlaufend wichtig, die Datenqualität und die Rechte der Datenlieferanten, also zum Beispiel der Versicherten, zu berücksichtigen. Sind diese Voraussetzungen gegeben, können sowohl Versicherer als auch ihre Kunden von einem umfangreichen Datenschatz profitieren. 

Nach dem Deployment wird ein Live-System aum Ende der ganzer Produktion Kete integriert, das die Metriken überwacht, um KI-Vorhersagen mit der Realität zu vergleichen, was eine kontinuierliche Verbesserung der KI-Modelle in Übereinstimmung mit Daten und Geschäftsanforderungen ermöglicht.

Lesen Sie auch Teil 1 von "Die Versicherung der Zukunt": Einfache Prozesse für die Kund*innen >

Wie geht es jetzt weiter?

 

Ihr Kontakt bei diconium

Robert Augst
director financial services