Big Data gleich Big Problem?

740px 535px

Branchenkritiker befürchten, dass die Nutzung großer, unstrukturierter Datenmengen über Kunden dazu führen, dass der Solidargedanke der Versicherung verloren geht. Auch auf einer Fachtagung gingen die Meinungen dazu erheblich auseinander.

Bei der Jahrestagung des Deutschen Vereins für Versicherungswissenschaft in München ging es um "Gesellschaftliche, rechtliche und versicherungstechnische Rahmenbedingungen der Privatversicherung". Den Auftakt machte der Philosoph Ludwig Siep, Professor der Universität Münster im Ruhestand.

Er zeigte sich kritisch, dass Versicherungsunternehmen unter dem Schlagwort Big Data Interesse an einer Nutzung vielfältiger Daten haben, mit deren Hilfe Risiken genauer eingegrenzt werden können. Versicherer sollten ihren solidarischen Grundcharakter nicht aufgeben, mahnte er. Insbesondere warnte er vor Verführungen, durch die Nutzer gegen ihren Willen bereitwillig ihre Datenspuren preisgeben, nur um bestimmte Vorteile zu erlangen.

Kein disruptives Potenzial
Für deutlich überschätzt hält dagegen Frank Grund, Leiter der Versicherungsaufsicht bei der Bundesanstalt für Finanzdienstleistungsaufsicht das "disruptive Potenzial" von Big Data. Die Versicherungsmärkte seien weitgehend gesättigt. Die Eintrittshürden in den Markt seien hoch, und das bei vergleichsweise geringen Renditeerwartungen – da würden Tech-Unternehmen doch lieber andere Branchen als ausgerechnet die Versicherungswirtschaft angreifen.

Dennoch hob Grund hervor, dass die Versicherer sich ihrer Sache nicht zu sicher sein sollten. Es sei nicht auszuschließen, dass neue Wettbewerber die gewohnten Wertschöpfungsketten aufbrechen und mit den niedrigen Grenzkosten bei digitalen Prozessen den etablierten Anbietern das Leben schwer machen. Erste Anwendungen auf Basis von Blockchains seien kurz vor der Reife, erwähnte er unter Verweis auf die Rückversicherung. Auch würden Anwendungen der Künstlichen Intelligenz getestet.

Kollektiv bleibt Versicherung trotzdem
Eine sehr klare Meinung vertrat Peter Albrecht, Professor an der Universität Mannheim. Big Data und dadurch eine intimere Kenntnis individueller Risikoverhältnisse und des Verhaltens von Kunden führten überhaupt nicht dazu, dass es keine Kollektive mehr geben und das Solidarprinzip aufgehoben würde.

Dazu erläuterte er, wie überhaupt Versicherungen kalkuliert werden. Das Kollektiv sei nur dazu da, zufällige Risikoschwankungen auszugleichen. Es könne nicht seine Aufgabe sein, auch systematische Unterschiede aufzufangen. Jedenfalls sei es die reine Lehre, dass jeder Versicherte sein individuelles Risiko letztlich auch selbst tragen müsse. Dass die Praxis nicht immer ganz danach verfahre, sei ihm sehr wohl bewusst.

Seiner Meinung nach bedeute Big Data lediglich, dass sich die Methoden zur Schätzung der künftig zu erwartenden Schäden eines Kunden verbessern werden, mehr nicht. "Das ist nichts grundlegend Neues", betonte Albrecht. Viel entscheidender sei dagegen, möglichst große Kollektive zu bilden, denn das "Gesetz der großen Zahl" entscheidet nach wie vor darüber, wie stark sich zufällige Schwankungen im Schadenanfall auswirken. Darin gehen dann die zunehmend feineren Teil-Kollektive auf, die mithilfe verbesserter Datenanalysen gebildet werden können.

Autor(en): Matthias Beenken

Mehr zu Big Data

Alle Branche News