Reply ist der ideale Ort, um eine unglaubliche Vielfalt von enthusiastischen, leidenschaftlichen und ideenreichen Menschen zu treffen, die etwas bewegen und verändern wollen.Möchtest du mehr erfahren?
Klassische Kfz-Versicherer experimentieren damit, differenzierte Versicherungstarife anzubieten und „sichere“ Fahrer zu belohnen, indem ihr Fahrverhalten in der Vergangenheit – Anzahl der Unfälle, Nacht- oder Autobahnfahrten, Fahrerfahrung und Anzahl der gefahrenen Stunden – berücksichtigt wird. Ziel ist es dabei, Versicherungsprämien an das empirische Risiko, dessen Berechnung auf dem tatsächlichen Fahrverhalten des Versicherten basiert, anzupassen. Sichere Fahrer zahlen weniger, da die Versicherung weiß, wie sie sich auf der Straße mit ihrem Fahrzeug verhalten, und weil der Versicherte sich dessen bewusst ist, führt dies zu einem positiven Rückkopplungseffekt – der Fahrer vermeidet es, sich leichtsinnig im Straßenverkehr zu verhalten und das Unternehmen gewährt ihm im Gegenzug einen Rabatt.
Leider wurde der Markt für Blackbox-Dienste aus den jüngsten Entwicklungen im Bereich GPS, Beschleunigungsmesser und Telemetrie-Technologien noch nicht ausreichend kapitalisiert. Dies führte – zusammen mit der Konsolidierung des Service-Angebots – zu einer massiven Kommodifizierung von „Pay as You Drive“ oder „Pay Per Use“-Policen. Für die Versicherer ist es daher an der Zeit, sich ihre Kundendaten wieder zurückzuholen und die Datenströme aus den Fahrzeugen ihrer Versicherten zu erfassen. Denn nur so können sie Erkenntnisse entwickeln, um rabattierte oder differenziertere Versicherungsgebühren zu erheben, die auf den einzelnen Versicherten zugeschnitten sind.
Dies wird umso einfacher, je größer die Granularität der erfassten Daten ist. Eine höhere Granularität führt aber gleichzeitig dazu, dass die Speicherkosten steigen und schnell zu hoch werden, so dass das Unternehmen lediglich 25 Prozent der verfügbaren Daten nutzt und die Verarbeitungszeit üblicherweise eine Arbeitswoche beträgt. Durch den Einsatz einer Hadoop-Architektur können Versicherungsunternehmen 100 Prozent der Geolokalisierungsdaten der Versicherten im Unternehmen behalten und zudem die Verarbeitungszeit dieser enormen Datenflüsse auf wenige Stunden reduzieren. Dank der Geschwindigkeit der neuen Big Data Analytics können große Datenmengen schnell verarbeitet werden. Darüber hinaus können Unfälle schnell und im Detail rekonstruiert werden, so dass dem Unternehmen somit auch ein effizientes Instrument für die unmittelbare Erkennung von Betrugsversuchen zur Verfügung steht.
Bei allen Versicherungsunternehmen geht es darum, Risiken zu minimieren und Geschäftsmöglichkeiten zu maximieren. Dazu versuchen die Unternehmen, ein Gleichgewicht herzustellen zwischen den Versicherungsprämien und dem Risiko, Versicherungsfälle begleichen zu müssen, bei denen wenige Einzelpersonen sehr hohe Verluste generieren können. Versicherungsunternehmen speichern und verarbeiten enorme Datenmengen, aber oftmals bleiben diese in isolierten Funktionssilos. Integriert man nun diese Daten in ein Apache Hadoop-System, können Erkenntnisse geliefert werden, mit denen einmalige Ereignisse, die zu hohen Verlusten führen könnten, vorhergesehen werden können. Zweifellos verfügt jedes Versicherungsunternehmen bereits über Systeme, mit denen strukturierte Daten bedarfsgerecht analysiert werden können. Die auf der Grundlage von einzelnen Versicherungsfällen gesammelten Informationen bleiben dabei leider oft isoliert innerhalb verschiedener Funktionsbereiche des Unternehmens: Informationen aus dem Schadenmanagement, der Verwaltung sowie dem Finanz- und Betrugsmanagement werden von versicherungsmathematischen Funktionen eher selten eingesetzt, um das Preismodell zu verbessern. Weniger strukturierte Schadensberichte oder die Analyse von sozialen Netzwerken können für einen signifikanten Mehrwert beim Schadenmanagement, vor allem beim Erkennen von verborgenen Verbindungen zwischen den Unfallbeteiligten sorgen. Diese Vorgehensweise lässt sich jedoch nicht einfach in ein klassisches Data-Warehouse einpassen, da es wirtschaftlich nicht tragbar ist, Textdaten oder Daten aus sozialen Netzwerken mit strukturierten Daten in einer RDBMS-Umgebung zu kombinieren. Ein „Schema-on-Read“-System wie das Apache Hadoop ermöglicht es, sehr viel mehr Datentypen einzupflegen, die dann schnell und einfach in einem Data Lake zusammengeführt werden, so dass das Unternehmen ein klareres und umfassenderes Bild vom tatsächlichen Risiko erhalten kann. Dank der engen Integration mit der Hadoop-Plattform und den am weitesten verbreiteten Business Intelligence-Plattformen, die mit Hadoop vernetzt sind, kann dieser riesige Datenspeicher weiterhin mit den bereits verfügbaren Business Intelligence-Tools und qualifizierten Mitarbeitern oder mit der neuen Klasse der Data-Discovery-Tools analysiert werden. Dies führt zu einer einheitlichen Betrachtung der Informationen und ermöglicht es, frühzeitig neue Trends zu erkennen oder Muster, die typisch für Betrugsversuche sind, die andernfalls durch eine sektorspezifische Untersuchung nur schwer zu erkennen wären.
Unternehmen, die viele Kunden und viele Interaktionspunkte mit dem Kunden haben, versuchen seit jeher den sprichwörtlichen 360°-Blick auf ihre Kunden zu erreichen. Daten zusammenzuführen, die aus vielen separaten Kunden- und Schadensverwaltungssystemen sowie aus anderen Datenquellen stammen – die zudem aus verschiedenen kommerziellen Software-Lösungen und im Unternehmen entwickelten Applikationen bestehen – ist keine einfache Aufgabe. Hier stellt sich nun die Frage: Wie erhält ein großes Versicherungsunternehmen Zugang zu den Informationen, die aus all diesen unterschiedlichen Datenquellen stammen? Eine neue und skalierbare Lösung sind NoSQL-Datenbanken, die seit einigen Jahren dafür sorgen, dass eine enorme Menge von Daten aus Dutzenden von Altsystemen erfasst und in einen einzigen Datensatz zusammengeführt werden - und in beinahe Echtzeit aktualisiert wird, wenn neue Daten zum Kunden eingegeben werden. Hier stellt sich nun die Frage: Wie erhält ein großes Versicherungsunternehmen Zugang zu den Informationen, die aus all diesen unterschiedlichen Datenquellen stammen? Eine neue und skalierbare Lösung sind NoSQL-Datenbanken, die seit einigen Jahren dafür sorgen, dass eine enorme Menge von Daten aus Dutzenden von Altsystemen erfasst und in einen einzigen Datensatz zusammengeführt werden, der beinahe in Echtzeit aktualisiert wird, wenn neue Daten zum Kunden eingegeben werden. Dadurch wird die Prozesseffizienz erhöht und letztendlich auch die Kundenzufriedenheit: Kundendaten werden nur noch zentral in einem Datensatz gespeichert und bieten mit einer Timeline zu Kundenstatus, Transaktionen, Schadensfällen und Ermittlungen einen umfassenden Überblick über alle Kundenaktivitäten. Ein weiteres Argument, das für NoSQL spricht, ist die Möglichkeit, halbstrukturierte und unstrukturierte Daten wie Bilder von Datensätzen zur Gesundheit, Bescheinigungen, Beschwerden, administrative oder dateibasierte Informationen einfach zu integrieren, da diese Transaktionsdaten für die Verbesserung der Service-Qualität zunehmend an Bedeutung gewinnen.