Märkte & Vertrieb

Versicherer hinken bei Data Analytics stark hinterher

Von VW-RedaktionTagesaktuelle Informationen und Neuigkeiten aus der Versicherungsbranche. Alle Nachrichten des Tagesreports auch als Newsletter abonnierbar.
Data Analytics ist eine traditionelle, in Zeiten von Big Data aber zunehmend an Bedeutung gewinnende Kernkompetenz von Versicherern. Denn aus den umfangreichen Daten lassen sich vielfältige neue und nützliche Informationen herausfiltern. Die Umsetzung erfordert allerdings ein hohes Maß an Know-how und Erfahrung, betont Lukas Hahn, Consultant beim Institut für Finanz- und Aktuarwissenschaften (ifa) Ulm.
VWheute: Big Data ist ein Phänomen, das es schon seit einigen Jahren gibt. Wie weit ist man in der Versicherungswirtschaft bei der Nutzung der anfallenden riesigen Datenmengen?
Lukas Hahn: Der systematische Umgang mit Big Data innerhalb der Versicherungsbranche ist stark heterogen. In der Schaden-/Unfallversicherung und bei privaten Krankenversicherern werden vor allem in den großen Häusern die umfangreichen Datenmengen teils schon seit vielen Jahren digital erfasst und mit modernen Verfahren sinnvoll genutzt, insbesondere zur Automatisierung von Geschäftsprozessen.
Für manche Unternehmen beginnt diese Entwicklung aber gerade erst. Besonders die jungen Unternehmen der Start-up-Szene setzen bewusst von Anfang an auf eine konsequente Datenerhebung, um diese in Zukunft intelligent für unternehmerische Fragestellungen zu nutzen. Bei den Lebensversicherern befindet sich der Prozess noch in den Anfängen; hier sind Daten oft in verschiedensten Systemen separiert, teils auch nur auf Papier vorhanden.
Im Vergleich zu anderen Branchen hinkt die Versicherungswirtschaft insgesamt stark hinterher, wobei der direkte Vergleich aufgrund der sehr unterschiedlichen Verfügbarkeit und Nutzbarkeit von Daten nicht immer angemessen ist.
VWheute: Was konkret ist Data Analytics und wie funktioniert es?
Lukas Hahn: Data Analytics bezeichnet im Kern das "Data Mining", bei dem man – bildlich gesprochen – wie ein Goldschürfer Unmengen an rohen Daten genauestens untersucht, um darin verborgene Schätze zu heben. Das Gold entspricht dabei komplexen statistischen Zusammenhängen, sogenannten "Mustern", die mit bloßem Auge – also mit klassischen statistischen Verfahren – nicht erkennbar wären.
Der Begriff Data Analytics bedeutet, die so gewonnenen Informationen intelligent zu nutzen, z.B. für Hypothesen über kausale Beziehungen, zur verbesserten Vorhersage zukünftiger Ereignisse oder bei der Entscheidungsfindung in automatisierten Prozessen.
Die zentralen Schritte im Data-Analytics-Prozess sind zunächst die Konkretisierung der zugrundeliegenden unternehmerischen Zielsetzung und deren Formulierung als statistisches Problem, die sorgfältige Aufbereitung der verfügbaren Daten und schließlich die eigentliche Mustererkennung mit modernen statistischen Verfahren.
Die Modellergebnisse müssen abschließend sinnvoll bewertet werden, um ein optimales Modell identifizieren und dessen Zielerreichung beurteilen zu können.
VWheute: Welche Informationen lassen sich durch Data Analytics ableiten? Und wobei können die Daten konkret helfen?
Lukas Hahn: Die mit Data-Analytics-Methoden identifizierten Zusammenhänge können ideal zur verbesserten Vorhersage zukünftiger Ereignisse genutzt werden. So lassen sich als Information u.a. kundenindividuelle Stornowahrscheinlichkeiten oder das Potenzial für Cross- und Upsellings ableiten. Damit können konkrete Handlungsempfehlungen in der Ansprache an den Kunden oder gezielte Marketingmaßnahmen umgesetzt werden.
Speziell im Bereich der Schaden- und Krankenversicherung unterstützt Data Analytics auch die Betrugserkennung und die Automatisierung von Geschäftsprozessen. Sehr erfolgreich erweist sich die Anwendung im Regulierungsprozess beim intelligenten Routing von Belegen zum Sachbearbeiter oder in die Dunkelverarbeitung: Anhand der erkannten Muster sind die Verfahren in der Lage zu entscheiden, ob etwa eine Rechnung aufgrund einer zu erwartenden Beanstandung zwingend vom Sachbearbeiter gesichtet werden muss oder automatisch ausgezahlt werden kann.
Das Modell kann derart optimiert werden, dass für die durch die Dunkelverarbeitung eingesparten Kosten und dadurch möglicherweise entgangenen Kürzungen ein bestmöglicher Ausgleich entsteht.
VWheute: Welche Probleme und Risiken gibt es dabei bzw. sind denkbar und wie kann man sie lösen?
Lukas Hahn: Ein weit verbreiteter Irrglaube besteht ja darin Data Analytics bedeute, einen beliebigen Datensatz per Knopfdruck auswerten zu können. Dass dem nicht so ist, zeigt eine ganze Fülle an möglichen Fallstricken innerhalb der statistischen Datenaufbereitung und Modellierungsschritte.
Die fehlende Kenntnis über die zugrundeliegenden Modelle führt dazu, dass die Daten nicht konsistent aufbereitet werden. Dann schlagen die mathematischen Algorithmen entweder sofort fehl oder aber das eigentliche Potenzial der modernen Verfahren bleibt im besten Fall ungenutzt. Ein anderes prominentes Beispiel ist das Phänomen des "Overfittings", wenn man eine Data Analytics-Methode anweist die bestmögliche Mustererkennung zu finden. Statt in den Daten die eigentlich interessanten systematischen Zusammenhänge aufzuspüren und von Zufallseffekten abzugrenzen, wird das Modell die Daten schlicht auswendig lernen, d.h. jede Beobachtung als ein Muster interpretieren.
Damit ist das Modell zwar zunächst statistisch perfekt, verpasst aber die Fähigkeit, den Wissensgewinn auf andere Daten verallgemeinern zu können. Spätestens in der Anwendung kommt das böse Erwachen, wenn das Modell viele Fehler verursacht. Mittels ausgereifter statistischer Verfahren kann der Unterschied zwischen systematischen Mustern und zufälligem Rauschen gut quantifiziert und kontrolliert werden, aber selbst dann bedarf es noch eines Stücks Erfahrung, um die Gefahr dieses "Overfittings" zu erkennen.
VWheute: Wie kommen Versicherer zu einem für sie passenden Modell? Wie messen sie, ob sich das Modell tatsächlich eignet?
Lukas Hahn: Die Weichen für das richtige Modell werden bereits zu Beginn, also beim Erörtern der ökonomischen Fragestellung und der angestrebten Maßnahmen, gestellt. Ist zum Beispiel die bestmögliche Performance in einem automatisierten Prozess von Interesse, sind sogenannte Black-Box-Modelle wie Random Forests, Boosting Machines oder neuronale Netze die erste Wahl.
Erst diese komplexen Methoden haben das Potenzial für eine komplexe Mustererkennung auf Kosten der intuitiven Nachvollziehbarkeit. Darauf aufbauend ist die endgültige Modellauswahl schließlich statistisch motiviert. Zunächst hat die Art der zu modellierenden Größen einen Einfluss: Ob etwa für einen Kunden ein Rechnungsbetrag geschätzt oder dieser in eine Risikogruppe eingeteilt werden soll, beeinflusst die zur Verfügung stehenden Modelle. Innerhalb der verbleibenden Auswahl wird dann durch eine übergreifende Optimierung das beste Modell identifiziert.
Dabei kommen in der Regel statistische Gütekriterien zum Einsatz, die gleichzeitig die Eignung des Modells in der tatsächlichen Anwendung abschätzen. In einem sinnvoll aufgesetzten Data-Analytics-Prozess wird dieses Gütemaß von vornherein in die ökonomische Kosten-Nutzen-Bewertung eingebettet, sodass das Modell tatsächlich für die angestrebte unternehmerische Zielsetzung optimiert wird. Um die Eignung messen zu können ist zusätzlich ein geeignetes Controlling unerlässlich.
Die Fragen stellte VWheute-Korrespondentin Elke Pohl.
Bild: Lukas Hahn (Quelle: ifa)
IFA · Lukas Hahn
Auch interessant
Zurück
28.05.2018VWheute
Data Analy­tics verbes­sern Tari­fie­rung enorm Die Luft für die Versicherer wird wegen zunehmenden Wettbewerbs dünner. Erfolgreiche Anwendung von …
Data Analy­tics verbes­sern Tari­fie­rung enorm
Die Luft für die Versicherer wird wegen zunehmenden Wettbewerbs dünner. Erfolgreiche Anwendung von Data Analytics zur Hebung verborgener Schätze in eigenen Daten zählen einerseits zu den zentralen Herausforderungen der Branche und …
22.05.2018VWheute
Unter­nehmen hinken bei DSGVO deut­lich hinterher Gut vier Tage vor Inkrafttreten der neuen EU-Datenschutzgrundverordnung (DSGVO) hinken viele …
Unter­nehmen hinken bei DSGVO deut­lich hinterher
Gut vier Tage vor Inkrafttreten der neuen EU-Datenschutzgrundverordnung (DSGVO) hinken viele Unternehmen in Deutschland bei der Umsetzung deutlich hinterher. Laut einer aktuellen Umfrage des Digitalverbandes Bitkom sieht sich nur …
15.05.2018VWheute
EY: Mehr Betrugs­fälle in deut­schen Konzernen "Kleine Geschenke erhalten die Freundschaft", lautet ein deutsches Sprichwort. So sind kleine …
EY: Mehr Betrugs­fälle in deut­schen Konzernen
"Kleine Geschenke erhalten die Freundschaft", lautet ein deutsches Sprichwort. So sind kleine Zuwendungen zwar auch in der Geschäftswelt üblich, können aber dennoch verheerende Folgen haben. Laut einer aktuellen Analyse von Ernst & …
23.04.2018VWheute
Wie Maschinen lernen können Eine Mehrheit der Versicherungs-CEOs räumt laut einer aktuellen Analyse von PwC dem Thema Data Analytics eine vorrangige …
Wie Maschinen lernen können
Eine Mehrheit der Versicherungs-CEOs räumt laut einer aktuellen Analyse von PwC dem Thema Data Analytics eine vorrangige Stellung in der Unternehmensentwicklung ein. Dazu passt, dass die meisten Führungskräfte die Versicherungsindustrie sich noch nicht…
Weiter