Technologie-Trends in der Versicherungswirtschaft

Zweifellos ist die Versicherungsbranche auf zuverlässige Daten angewiesen. Vor dem Aufkommen von Computern, dem Internet und weit verbreiteten Analysewerkzeugen, verließen sich Versicherungen in hohem Maße auf technologiegestützte mathematische Berechnungen und statistische Analysen, um Risiken zu bewerten und Preise für Policen zu berechnen und festzulegen.

Heutzutage haben Versicherungen Zugang zu mehr Daten als je zuvor. Dies ist ein zweischneidiges Schwert: Größere Datenmengen liefern deutlich mehr Input für fundierte Fallentscheidungen hinsichtlich der Preis- und Policen-Gestaltung sowie der Risikoabdeckung, doch viele Unternehmen haben mit dem Umfang und der Vielfalt der verfügbaren Daten sowie mit der Geschwindigkeit zu kämpfen, mit der sie diese Informationen erhalten.

Anzeige

Zu Beginn des Jahres 2022 zeichnen sich bereits einige Technologie-Trends für das restliche Jahr und die weitere nahe Zukunft ab. In vielen Fällen handelt es sich dabei um die Fortsetzung und Beschleunigung von Technologie-Trends in der Versicherungswirtschaft, die zuvor bereits begonnen haben. Während sich Big Data und Cloud-native Analysen zu einer treibenden Kraft in allen Branchen entwickeln, sind die Auswirkungen in der Versicherungsbranche besonders stark zu spüren.

Datenmanagement ist eine größere Herausforderung als je zuvor

Es dürfte nicht überraschen, dass sich der erste Trend, um das anhaltende Wachstum von Big Data und Cloud-nativer Analytik als Schlüsselfaktor im Versicherungsgeschäft dreht. Die datenintensiven Prozesse, die für die Versicherungsbranche so wichtig sind, sind mit zahlreichen Herausforderungen verbunden.

Führungskräfte beklagen, dass sie zu viele Informationen haben. Sie sehen sich oft mit dem Mangel an Data Governance und an Struktur konfrontiert und schlechte Datenqualität ist ein weit verbreitetes Problem. Zudem liegen Daten oft in Silos vor und es fehlt an wirksamen Mechanismen für eine zuverlässige und konsistente Integration. Die rechtzeitige Übermittlung von Informationen entspricht oft nicht den von den Versicherungen geforderten Standards. Außerdem fehlt den Informationen häufig der Kontext, so dass die Nutzer nicht in der Lage sind, ihr volles Potenzial auszuschöpfen.

Sind die Daten strukturiert? Werden sie verwaltet? Werden die richtigen Daten verwendet?  Die Antworten auf diese Fragen bestimmen den Nutzen der Daten im Aktuariats- und Underwriting-Prozess und damit auch ihren Wert für den Aufbau und die Pflege eines rentablen Versicherungs-bestandes.

Datenintegrität geht diese Probleme ganzheitlich an, denn sie ermöglicht die Integration unterschiedlicher Datenquellen, die Bereitstellung der Daten, wo und wann diese benötigt werden sowie ein proaktives Management der Datenqualität zur Gewährleistung von Genauigkeit, Konsistenz und Vollständigkeit. Zudem wird durch Datenanreicherung und Location Intelligence den Daten immer mehr Kontext gegeben und es wird ein übergreifender Governance-Rahmen bereitgestellt.

Investitionen in KI nehmen zu

Es ist nicht überraschend, dass die Investitionen in künstliche Intelligenz (KI) bei den Versicherungen zunehmen. KI und maschinelles Lernen werden für ein immer breiteres Spektrum von Anwendungen eingesetzt, von der Betrugserkennung über die technische Preisgestaltung bis hin zur Optimierung von Schadenmanagementprozessen.

Dennoch haben KI-Initiativen oft mit Gegenwind in Form von mangelhafter Datenintegrität zu kämpfen. Modelle für maschinelles Lernen sind nur so gut wie die Daten, mit denen sie trainiert wurden. Die Datenqualität ist von größter Bedeutung und der Zugriff auf Informationen aus einer Vielzahl von Quellen im gesamten Unternehmen (sowie auf Daten Dritter) ist wichtig.

Ebenso wichtig ist, dass KI-Systeme so konzipiert sein müssen, dass sie sich an Veränderungen anpassen können. Die Risikoprofile sind ständig im Wandel. Die COVID-Pandemie beispielsweise führte zu weniger Verkehr auf den Straßen und dies wiederum zu weniger Autounfällen. Der rechtzeitige Zugriff auf aktualisierte Informationen stellt sicher, dass KI-Investitionen so positioniert sind, dass sie optimale Ergebnisse liefern.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die Verbreitung des „Internet-of-Things“ und mobilen Geräten

Einige Versicherungen haben bereits damit begonnen, den Einsatz von IoT-Sensoren als Instrument für ein besseres Risikoverständnis zu untersuchen, einige Vorreiter haben bereits Angebote in diesem Bereich. Im Bereich der Kfz-Versicherung liefern Telematikgeräte und Mobiltelefone detaillierte Informationen über Fahrverhalten und Standort, aber es gibt auch andere Anwendungen, wie die Verwendung von IoT-Geräten zur Ermittlung der tatsächlichen Nutzungszeit von versicherten Geräten. Selten genutzte Geräte stellen vermutlich ein geringeres Risiko dar als solche, die mehrfach am Tag im Einsatz sind. So wie Autoversicherungen die tatsächlich gefahrenen Kilometer nutzen, um die Tarife von Fahrern für das kommende Jahr festzulegen, können gewerbliche Sachversicherungen ihre Risikomodelle auf der Grundlage detaillierter Informationen über die tatsächliche Nutzung verfeinern.

Mit der zunehmenden Verbreitung von IoT-Geräten und der Entwicklung neuer Anwendungen für die Mobiltechnologie, erwarten wir eine erhebliche Ausweitung der maschinengenerierten Daten, die in der Versicherungsbranche verwendet werden.

Standortdaten wichtiger denn je

Der Einsatz von Mobiltechnologie dient als eine Art Brücke zum nächsten Thema: Standort. Die Versicherungsbranche stützte sich früher auf grobe Informationen, die nach einer fünfstelligen Postleitzahl oder einem Zahlenblock aufgeschlüsselt waren. Das hat sich geändert, denn die verfügbaren Detailinformationen sind exponentiell gewachsen.

Vieles beginnt mit einer relativ einfachen Frage: “Wo befindet sich dieses Gebäude (oder diese Person oder dieses Auto)?” Die genaue und zuverlässige Beantwortung dieser Frage kann jedoch schwierig sein. Eine wirksame Geokodierung ist ein sehr wichtiger erster Schritt bei der Ermittlung des Standorts einer Einheit. Mit diesen Informationen steht eine ganze Welt von Daten und Attributen zur Verfügung, die dem betreffenden Standort einen reichhaltigen Kontext hinzufügen.

Für Versicherungen können diese Informationen sehr folgenreich sein. Nehmen wir zum Beispiel den Fall eines versicherten Autofahrers, dessen Haus auf einem Eckgrundstück steht. Auf der einen Seite befindet sich eine stark befahrene Straße, auf der anderen eine ruhige Seitenstraße. Wie hoch ist das Unfallrisiko, das von diesem Standort ausgeht? Das hängt möglicherweise von der Lage der Einfahrt des Versicherungsnehmers ab. Wenn die Einfahrt auf die Hauptstraße führt, kann das Risiko höher sein. Liegt sie an einer Seitenstraße, ist das Risiko für den Fahrer vermutlich wesentlich geringer.

Das Risiko von Waldbränden hängt ebenfalls von der Umgebung eines Grundstücks ab. Dazu gehören Faktoren wie die vorherrschende Windgeschwindigkeit und -richtung, die Höhenlage und die Nähe zu brennbarer Vegetation oder anderem entflammbaren Material. Location Intelligence liefert eine Fülle von Informationen, die Aufschluss über das Risikoprofil einer Immobilie geben können.

Data Governance sichert die Einhaltung von Vorschriften

Abschließend erwarten wir einen anhaltenden regulatorischen Druck in Bezug auf Datenschutz, Datensouveränität und Data Governance. Die europäische Datenschutz-Grundverordnung (DSGVO) entwickelt sich mit den entsprechenden Anforderungen weiter, da mittlerweile viele Fälle vor Gericht verhandelt werden. Andere Länder rund um den Globus erwägen ähnliche Gesetze. Die Versicherungsaufsichtsbehörden sind ebenfalls sehr daran interessiert, die Risikomodelle zu verstehen, die von den von ihnen beaufsichtigten Unternehmen angewendet werden. Mit der zunehmenden Datenmenge, die von den Versicherungen genutzt wird, wird auch die aufsichtsrechtliche Kontrolle weiter zunehmen.

Mit Blick auf die Zukunft werden die Argumente für starke Datenintegritätsprogramme nur noch schlagfertiger werden. Datenintegrität hilft Unternehmen dabei, Vertrauen in ihre Daten zu schaffen, damit ihre Nutzer unkompliziert wichtige Erkenntnisse aus ihren Daten ableiten können. 

Tim

van Baars

Precisely -

Vice President, Central EMEA

Tim van Baars ist Vice President Central EMEA bei Precisely. Mit seiner jahrelangen, umfassenden Erfahrung unterstützt er Unternehmen bei der Umsetzung groß angelegter digitaler Transformationsprozesse durch die vier Hauptsäulen der Datenintegrität – Datenintegration, Datenqualität und Governance, Location Intelligence und Datenanreicherung. Tim arbeitet seit 20 Jahren im Bereich SaaS und
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.