top of page
  • AutorenbildDr. Christopher Czaban

Multimodales Lernen und AutoML am Anwendungsfall der KFZ-Schadenregulierung

Aktualisiert: 31. Aug. 2021

Die KFZ-Versicherung ist mit fast 117 Millionen abgeschlossenen Verträgen (Stand 2019, Quelle: GDV, 2020) die größte Sparte der Schaden- und Unfallversicherungen in Deutschland. Damit ist der Markt der KFZ-Versicherungen zwar relativ groß aber gleichzeitig hart umkämpft, sodass Versicherer in jedem Geschäftsaspekt einen Vorteil gegenüber dem Wettbewerb erzielen wollen: Vom Marketing über die Risikoauswahl und Preisgestaltung bis hin zur effizienten Schadenbearbeitung. Das Spannungsfeld zwischen Chancen und Risiken ist bei der Schadenregulierung besondern groß, sodass sich der Beitrag auf diesen Aspekt der KFZ-Versicherungen fokussiert.


Herausforderungen in der KFZ-Schadenregulierung


Im Durchschnitt erhalten Versicherungsunternehmen, abhängig von ihrer Größe, hunderte bis viele tausende Schadensmeldung pro Tag. Die Kundenzufriedenheit hängt bei der Bearbeitung solcher Meldung maßgeblich von der Effektivität und Effizienz ab. Letztere leidet im Bereich der Schadenregulierung stark unter Betrugsfällen und damit verbundenen trägen Prozessen: Bleiben Betrugsfälle unentdeckt, entstehen hohe Kosten, welche am Ende an die Kunden weitergegeben werden müssen. Versuchen Versicherer durch akribisches Vorgehen Betrugsfälle aufzudecken, erzeugen sie damit lange Wartezeiten bei der Auszahlung der Beträge sowie hohen bürokratischen Aufwand für den Kunden. Beide Szenarien können die Beziehung zum Kunden empfindlich stören, im schlimmsten Fall sogar zur Abwanderung dieser führen.


Darüber hinaus kommt es bei der Untersuchung verdächtiger Meldungen zur Bindung hoher personeller Kapazitäten, wodurch weitere Kosten entstehen. Um derartiges zu vermeiden, müssen möglichst viele Daten unterschiedlicher Art (Bilder, Formulare, Verkehrssituationen, etc.) herangezogen, in einer ganzheitlichen Betrachtung konsolidiert und mit möglichst hoher Geschwindigkeit verarbeitet werden.


Dazu bieten sich moderne Methoden aus dem Bereich des maschinellen Lernens an, durch die Modelle völlig automatisiert mit hoher Präzision betrügerische von nicht betrügerischen Ansprüchen unterscheiden können. In unklaren Situation werden fragwürdige Ansprüche gezielt zur Untersuchung an Experten weitergeleitet. Rechtmäßigen Ansprüche können schneller ausgezahlt werden.


Im Folgenden beleuchten wir eine Strategie, durch die sich heterogene Daten unterschiedlicher Quellen gemeinsam verarbeiten lassen und KI-Modelle mit hoher Vorhersagegenauigkeit ermöglicht werden.

Maschinelles Lernen mit multimodalen Daten


In den meisten Anwendungsfällen lernen KI-Modelle durch Daten, die aus einer einzigen Informationsquelle stammen.


Sowohl Klassifikationen als auch Regression erfordern die Verarbeitung tabellarisch strukturierter numerischer und kategorischer Daten. Im Falle der KFZ-Schadenregulierung können dies beispielsweise Daten zur Unfallsituation, zum Fahrzeug sowie zur Versicherungspolice sein.


Eine Möglichkeit, KI-Modelle zu verbessern, besteht darin, weitere Datenquellen oder sog. Modalitäten in den Lernprozess miteinzubeziehen. Beispielsweise könnte im zuvor genannten Fall die Hinzunahme von Schadenbildern einem Modell zusätzliche wertvolle Informationen liefern, um den Abwicklungsprozess effizienter zu gestalten oder akkuratere Einschätzungen zur Schadenhöhe vorzunehmen.


Ein naiver Ansatz lautet, zwei separate Modelle zu erzeugen, die jeweils Daten aus den einzelnen Quellen verarbeiten und basierend darauf, separat Vorhersagen - bspw. Kostenschätzungen oder Klassifikation von Ansprüchen - erzeugen. Diese Schätzungen könnten dann gemittelt oder gewichtet zu einem Gesamtergebnis aggregiert werden.

Der Nachteil dabei liegt jedoch darin, dass die Modelle jeweils die Informationen aus der anderen Quelle ignorieren und somit wertvolle Informationen verloren gehen. Das Modell für die Verarbeitung der Bilddaten bezieht beispielsweise keine Informationen über die Fahrzeug- und Versicherungsdaten mit ein, während das andere Modell durch die fehlende Bildverarbeitung keine Informationen über den Grad der Fahrzeugbeschädigung berücksichtigt.


Multimodales Lernen


Wesentlich effektiver bei der Verwendung multimodaler Daten ist somit der Ansatz, Informationen aus den einzelnen Quellen bereits vor der eigentlichen Prädiktion in geeigneter Weise zu kombinieren.


Im Falle neuronaler Netze lässt sich dies realisieren, indem die extrahierten Merkmale verschiedener Datenquellen, also beispielsweise Bilddaten und tabellarische Daten, in einer sog. „Shared Representation“-Schicht verschmolzen werden (siehe Abbildung 1). Auf Basis der kombinierten Merkmale und somit eines ganzheitlicheren Informationsgehalts kann ein entsprechendes Modell zu einer akkurateren Vorhersage gelangen.


Maschinelle Lernverfahren verwenden "Shared Representation"-Schichten in neuronalen Netzen, um verschieden strukturierte Daten kombiniert verarbeiten zu können.

Im Kern geht es also um komplementäre Informationen semantisch korrelierter, heterogener Daten. Deren Konsolidierung kann im Gegensatz zur Verwendung einzelner Modalitäten besondere Muster erzeugen.


Ein interessanter Spezialfall des multimodalen Lernens ist das sogenannte „Multiview Learning“. Die Klassifikation von Bildern basiert für gewöhnlich auf einem Bild oder wie oben beschrieben, auf einem Bild und weiteren Datentypen.


In bestimmte Fällen kann die zeitgleiche Verarbeitung mehrerer, aus verschiedenen Perspektiven aufgenommener Bilder desselben Objekts ein Vorteil sein. In Abbildung 1 unten links fließen z.B. mehrere Aufnahmen desselben Fahrzeugschadens in das ML-Modell mit ein.

Abbildung 1: Kombinierte Verarbeitung heterogener Daten und mehrerer Bilder desselben Objekts über einen „Shared Representation“-Layer zu einer einzelnen Prognose


Automated Machine Learning (AutoML)

Die Herausforderung bei der Verarbeitung multimodaler Daten liegt darin, die extrahierten Merkmale unterschiedlicher Neuronaler Netze in der zuvor erwähnten „Shared Representation“-Layer in geeigneter Weise zusammenzuführen und anschließend durch eine passende Methode daraus eine Vorhersage zu generieren.


Die Fragestellung nach der Konstruktion einer solchen Architektur ist Gegenstand aktueller Forschung und muss für jeden Anwendungsfall individuell betrachtet werden. Hierbei sind neben reinen NN-Architekturen auch Kombinationen aus letzteren und klassischeren ML-Methoden denkbar. Dadurch vergrößert sich der Suchraum aller Möglichkeiten für eine entsprechenden Lösung enorm.


Zur Unterstützung bieten sich dafür Methoden aus dem Bereich des sog. Automated Machine Learning (oder auch AutoML) an. AutoML-Plattformen können (abhängig von der verwendeten Rechenleistung) binnen kürzester Zeit hunderte von Modellarchitekturen erzeugen und auf ein spezielles Problem anwenden. Das Training der entsprechenden Modelle sollte dabei parallel durch die Verwendung von Rechenclustern erfolgen, optimaler Weise auf GPU‘s.


Abhängig vom Reifegrad der jeweiligen AutoML-Plattform kommen hierbei verschiedenste Verfahren zur Suche geeigneter Modellarchitekturen zum Einsatz. Je nach Problemstellung finden sich darunter beispielsweise auch Kombinationen aus bekannten „State of the Art“ Deep Learning und Gradient Boosted Tree Modellen wieder.


Darüber hinaus bieten manche dieser Plattformen auch umfangreichere Möglichkeiten, Modelle unmittelbar miteinander zu vergleichen und somit die beste Modellarchitektur für den eigenen Anwendungsfall zu bestimmen.


Um „Blackbox“-Modelle zu vermeiden, sollte das Augenmerk insbesondere auf der Transparenz der erzeugten Modelle liegen. Dadurch lässt sich die Nachvollziehbarkeit der Modellentscheidungen bzw. -Vorhersagen gewährleisten. „Explainable AI“ befasst sich mit Methoden, um eben genau dieses Problem zu adressieren.


AutoML-Plattformen ermöglichen die automatisierte Erstellung, das Deployment und die Operationalisierung von End-to-End Machine Learning Pipelines.

Einige wenige Softwarehersteller mit Fokus auf AutoML-Lösungen wie beispielsweise Dataiku, H2O.ai oder DataRobot vereinen alle der zuvor beschrieben Aspekte inklusive Data Preparation sowie Feature Engineering und bieten zusätzliche Funktionalitäten zur Operationalisierung an, die einen nachhaltigen und sicheren Betrieb von ML-Modellen in produktiven Umgebungen ermöglichen. Somit lassen sich KI-Systeme in höchstmöglicher Geschwindigkeit und Qualität "End-to-End" entwickeln und betreiben (siehe Abbildung 3).


Abbildung 3: ML-Gesamtstrecke


Wir bei DataSpark beraten Sie gerne zu den Themen multimodales Lernen, AutoML sowie „Explainable AI“ und unterstützen bei der Auswahl der für Ihren speziellen Anwendungsfall geeigneten Technologien oder entwickeln mit Ihnen zusammen Ihre eigene End-to-End ML-Pipeline für multimodales Lernen.



bottom of page