Der steinige Weg der Data Analytics
Zahlen gehören zur DNA der Versicherung. In anderen Bereichen gibt es bei den Versicherern vielleicht noch Verbesserungspotential, aber mit Zahlen umgehen, können sie. Über die Jahre hat sich überdies ein wahrer Datenschatz angehäuft, der unheimlich viel Potential in sich birgt. Wer es versteht, diesen Datenschatz richtig zu interpretieren, kann neben der reinen Prozessoptimierung, Kundenwert- und Bedarfsanalyse auch im Schadenmanagement profitieren. Die Chancen und Herausforderungen, die mit der Datenanalyse einhergehen, wurden am 9. und 10. Oktober auf der zweiten Fachkonferenz „Big Data und Data Analytics“ der Versicherungsforen Leipzig und der Softwareforen Leipzig diskutiert. Branchenexperten tauschten sich unter anderem über die Hürden aus, die sich mit der Nutzbarmachung der Daten ergeben. Das sind neben technischen und regulatorischen Herausforderungen vor allem auch personelle, denn der Data Scientist sollte im Idealfall nicht nur ein IT-Profi sein, sondern auch über versicherungsspezifisches Wissen verfügen. Zudem macht sich der personelle Engpass auch in der Versicherungsbranche bemerkbar.
Ein weiterer Punkt ist die Datenqualität. Die richtigen Daten zu finden und entsprechend aufzubereiten, nimmt unheimlich viel Zeit in Anspruch. Bevor sich der Data Scientist an die Arbeit machen kann, sollten ein Business Case und ein Fachteam, das diesen Business Case unterstützt, feststehen. Wenn all diese Bedingungen erfüllt sind, also das Personal passt, das Team steht und die Daten in entsprechender Qualität vorliegen, gibt es noch eine wichtige und für den Projekterfolg sehr ausschlaggebende Hürde, nämlich die Regulatorik. Die Datenschutzgrundverordnung (DSGVO) gibt strenge Vorgaben bei der Speicherung und Verarbeitung der personenbezogenen Versicherungsdaten. Diese Vorgaben sind zwingend einzuhalten und bilden eine große Hürde. Solange diese nicht genommen wird, bleibt der beste Business Case nur ein schönes Modell.
Über dies und auch viele weitere Erfahrungen haben die Referenten und Teilnehmer auf der Fachkonferenz diskutiert. Albert Knuth war ebenfalls Teilnehmer auf der Konferenz und hat die Gelegenheit genutzt, einige der Experten zu interviewen. Er ist der Autor von Connecting the Dots, eines der führenden englischsprachigen InsurTech Blogs. Zudem schreibt er über Themen an der Schnittstelle zwischen Versicherungswirtschaft, Technologie und gesellschaftlichem Wandel.
Mit Dr. Tobias Rump, Head of IT Cross-Functional Systems & Data Analytics bei der Zurich Gruppe Deutschland, sprach er u. a. über die Rolle der IT, die Herausforderungen der digitalen Transformation, Altsysteme und Ressourcenprobleme.
Mit Philip Bitter, Wissenschaftlicher Mitarbeiter am Institut für Informations-, Telekommunikations- und Medienrecht der Universität Münster, führte er ein Experteninterview zu den Themen Data Governance, Datenzuordnung und -qualität, die DSGVO und den neuesten Facebook-Hack.
Die englischsprachigen Interviews finden Sie auf den Bildern verlinkt.
Wie die Versicherungsbranche den Datenschatz nutzt, diskutieren wir u. a. auf dem Messekongress „IT für Versicherungen“.