Quelle: Pixabay
Erschienen in Ausgabe 9-2019Unternehmen & Management

Warum Roboter Entscheidungen fällen, die Versicherer nicht verstehen

Algorithmen erstellen individuell angepasste Policen-Angebote. Sie entscheiden, wer überhaupt einen Vertrag bekommt und zu welchen Konditionen – oder abgelehnt wird. Diese Entscheidungen kann der Mensch aber oft nicht nachvollziehen oder überprüfen. In der Zukunft muss das aber der Fall sein, sonst wird sich der Einsatz der Künstliche Intelligenz in der Branche nicht durchsetzen.

Von Minh NguyenVersicherungswirtschaft

Lesen Sie den vollständigen Artikel

Erhalten Sie Zugang zu allen Artikeln unserer Fachzeitschriften und Publikationen.

Es gibt kühne Visionen, wie Versicherer mit Künstlicher Intelligenz (KI) ihre Prozesse automatisieren können. Seit kurzem gibt es auch einen ersten ganz realen Vorgeschmack: Mit dem Start von Lemonade ist in Deutschland das erste Versicherungsunternehmen am Markt, das bei seinen Prozessen konsequent KI einsetzt – bei der Angebotserstellung und Antragsbearbeitung sowie in der Schadensabwicklung, in Chatbots für die Kundenbetreuung. Das Start-up verspricht eine sekundenschnelle Bearbeitung von Anträgen oder Schadensmeldungen dank KI. Doch die bisher angebotenen Policen sind vergleichsweise simpel, es geht um die Sparten Hausrat und Privathaftpflicht.
Bei aufwändigeren Sach- und insbesondere bei Personenversicherungen sind die Aufgaben erheblich komplexer, ebenso die regulatorischen Anforderungen. Entsprechend größer sind die Aufgaben, die erst noch gelöst werden müssen, um KI in diesen Bereichen einsetzen zu können. Zur zentralen Herausforderung wird dabei ein Punkt, der unter dem Kürzel „XAI“ in der Computerwissenschaft prominent geworden ist: Explainable Artificial Intelligence, zu Deutsch „Erklärbare Künstliche Intelligenz“. Dabei geht es um die Frage, wie die Ergebnisse eines KI-Entscheidungsprozesses so aufbereitet werden können, dass Menschen in der Lage sind, sie nachzuvollziehen und zu überprüfen. Es ist der Punkt, an dem sich entscheidet, ob KI in der Versicherungsbranche zum Erfolg wird.

Nicht erklärbar ist nicht akzeptabel

Bisher sind von KI getroffene Entscheidungen für Menschen zumeist weder nachvollziehbar noch überprüfbar. Ein Algorithmus wird mit Daten-Sets trainiert, erkennt in großen Datenmengen Muster und wendet ihre Erkenntnisse dann an. Besonders zu Tage tritt das Problem beim Deep Learning, auch bekannt unter dem Namen „künstliche neuronale Netze“. Hier wandern Informationen durch verschiedene Schichten und erzeugen dabei Verknüpfungen. Ganz ähnlich lernen auch wir Menschen: Bei der Verarbeitung von Informationen werden Verknüpfungen zwischen den Nervenzellen im Gehirn erzeugt, sie repräsentieren quasi unser Gedächtnis. Deep Learning ist einer der derzeit vielversprechendsten KI-Ansätze.
Ein leicht verständliches Beispiel für maschinelles Lernen ist etwa die Erkennung von Objekten auf Bildern. Jede Sonnenblume sieht anders aus. Wird eine KI-Lösung mit tausenden Fotos von Sonnenblumen gefüttert, erkennt sie typische Merkmale, die eine Sonnenblume ausmachen. So trainiert, kann sie danach auf Fotos erkennen, ob eine Sonnenblume zu sehen ist…