Le Big Data ne sonnera pas le glas de l’assurance, enfin on verra…

Le Big Data permettrait de tout comprendre, tout savoir, tout voir, tout prédire et ouvrir la porte d’un nouveau monde où les entreprises connaitraient parfaitement leurs clients afin d’individualiser leurs produits (qui va acheter quoi? à quel prix? par quel canal?)…

L’assurance n’échappe pas au phénomène et les assureurs vont pouvoir mieux connaitre les risques de leurs clients afin de leur proposer un prix « juste »: n’est-il pas logique qu’une personne ayant une forte probabilité d’avoir un dégât des eaux paie son assurance plus chère que son voisin qui a refait toute sa plomberie? En tout cas les assureurs souhaiteront attirer le profil moins risqué (en lui proposant un bon prix) au détriment de l’autre qui les intéressera moins. En poussant ce raisonnement à l’extrême si chacun verse à son assureur exactement le montant des sinistres qu’il aura alors les assureurs ne servent plus à rien et le concept même de mutualisation des risques est mort. Cette idée que le Big Data pourrait être le chant du cygne de l’assurance, bien que caricaturale, mérite d’être creusée et fait de toute façon déjà pas mal parler d’elle dans la presse spécialisée (cf La Tribune qui pose exactement cette question).

J’ai personnellement un avis assez nuancé sur la question car oui le Big Data impactera le coeur de l’assurance (la mutualisation des risques) mais non le secteur ne disparaitra pas, son modèle va plutôt progressivement muter. Voici sur quoi s’appuie mon relatif optimisme.

L’aléa vivra

Des

Je parle à la fois de l’aléa au sens statistique ainsi que celui au sens « vision client » du terme (l’inconnu au sens large).

D’un point de vue mathématique l’aléa est l’écart entre le modèle théorique (aussi parfait soit-il) et les mesures observées. Cet écart suit une loi normale de variance non nulle. Par définition si vous modélisez un phénomène, quelle que soit la qualité du modèle, vous aurez des erreurs imprévisibles car aléatoires. Si votre modèle est bon la seule chose dont vous pouvez être sûr c’est qu’avec suffisamment d’observations les erreurs s’annulent entre elles (la moyenne des écarts tend vers 0 – cf la loi des grands nombres). Cette erreur ou aléa, appliquée aux risques peu fréquents de la vie, aura toujours besoin d’être couvert et le fait de les mutualiser sera le meilleur moyen de les neutraliser.

Par ailleurs il faut garder en tête qu’un modèle statistique calcule une probabilité de survenance d’un événement. Les modèles classiques ne donnent pas que des résultats à 0 (ça n’arrivera pas) ou à 1 (ça arrivera), il y a systématiquement une probabilité associée et la question du « que dois-je faire de celui qui a une probabilité de 50% » se posera toujours, ceci n’est pas un aléa au sens mathématique mais bien une incertitude aux yeux du client (et de l’assureur).

Prenons par exemple le cas (fictif et illustratif) de l’assurance ski. Imaginons qu’un accident de ski coûte en moyenne 2000€ et qu’il arrive 0,1% du temps (par jour), alors le bon prix de l’assurance et 2€ par jour. De manière basique l’assureur propose une couverture de 2€ par jour et par personne à tout le monde (hors frais de gestion et profit attendu), avec un modèle prédictif l’assureur va affiner sa connaissance du risque est trouvera peut-être des personnes avec risque très faible (il pourra proposer une assurance à 0,5€) et quelques personnes avec un risque plus élevé (il pourra proposer une assurance à 10€), ainsi que très probablement toute une liste d’individus « moyens ». Au final les clients auront toujours à choisir s’ils veulent souscrire une assurance sans jamais être certain d’avoir ou non un accident.

Je veux dire par là qu’un modèle plus performant se trompera moins, il donnera des probabilités  plus précises mais ne fera pas disparaitre l’incertitude concernant un individu en particulier.

Il est toutefois facile de contre argumenter en disant qu’a posteriori la notion de probabilité ne veut rien dire car les gens ont soit eu un accident au ski (1) soit non (0), alors pourquoi un modèle idéal ne trouverait pas tous les 0 et les 1 à l’avance? Oui il est indéniable qu’après coup les résultats sont 0 ou 1; mais peut-on réellement croire que tout est écrit à l’avance et donc que tout est prévisible? que rien n’est aléatoire, même pas un tirage à pile ou face (le Big Data pourra-t-il faire mieux que répondre 50/50 à un tirage à pile ou face?)? Ceci tient du débat philosophique mais pour ma part je penche plus pour l’approche probabiliste car nous vivons dans un monde réel et donc limité (cf théorie du chaos), ceci n’engageant que moi.

Quoi qu’il en soit il y a consensus sur le fait que Big Data permettra d’affiner la prédictibilité des événements. Mais attention car la précision se jouera aussi, voir surtout, sur l’échelle temps…

La dimension temporelle comme paramètre fondamental

Temps

Affirmer brutalement que « grâce au Big Data tout sera prévisible » c’est omettre un point clé du raisonnement: la dimension temps.

En effet les modèles sont d’autant plus précis que l’on est proche de l’événement. On peut par exemple citer la météorologie où les prévisions ne sont considérées comme fiables (hormis les grandes tendances) seulement pendant quelques jours voir quelques heures. De même pour reprendre l’exemple de l’assurance: les données pourraient permettre de détecter qu’une voiture va avoir un accident si les détecteurs captent que le véhicule rentre trop vite dans un virage verglacé… mais prévoir cela 1 an à l’avance de manière certaine relève de l’impossible. En marketing un outil comme CRITEO (qui achète en temps réel les bannières publicitaires sur internet – retargeting) base l’essentiel de son modèle sur les informations récoltées les jours et même les secondes précédents le clic potentiel.

Bref, être capable de prédire un événement devient chaque jour plus facile grâce à l’explosion du volume des données mais aussi et surtout au temps réel; donc à partir du moment où un contrat se signe sur une durée « longue » mêmes les meilleurs modèles ne pourront donner « que » des probabilités d’occurrence sans garantie sur les sinistres à un an/mois… Comme j’ai du mal à imaginer qu’un assureur puisse un jour avoir le droit de résilier un client en temps réel 1 minute avant son accident (c’est contraire à l’engagement contractuel) la part de l’aléa demeurera non négligeable.

La prédictibilité, à la signature d’un contrat, ne sera donc pas parfaite mais va quand même s’améliorer. La question naturelle qui suit est alors de savoir si les assureurs ne risquent pas d’exclure toutes les personnes détectées avec un risque élevé, soit officiellement soit par un prix prohibitif. Ceci n’étant pas vraiment en ligne avec les valeurs de solidarité sur lesquelles reposent pourtant la logique assurantielle. Pour être honnête cette question se posera sûrement (elle se pose déjà d’ailleurs et pas que dans l’assurance, je pense que tous ceux qui cherchent un crédit immobilier me comprendront). C’est pourquoi les assureurs auront 2 choix face aux clients identifiés comme « risqués »: les bannir ou les aider à faire baisser leur risque. C’est ainsi que la posture des « bons » assureurs qui souhaitent un développement économique durable va se modifier, leur objectif ne sera pas de refuser en bloc les clients à risque mais de les aider à diminuer leurs sinistres!

La prévention comme nouveau champ de bataille

PHYD_DA

En incitant les clients à conduire de manière responsable (les fameuses offres « you drive » de Direct Assurance), en les incitant à installer des capteurs intelligents dans la maison (détecteurs de fumée Nest avec Allianz) ou en les incitant à avoir une activité physique (« Pulsez votre santé » avec AXA) certains assureurs sont déjà en train de tester ce type de fonctionnement. Cet aspect prévention complète l’assurance traditionnelle et rend le modèle à la fois vertueux pour les clients (qui bénéficient d’un service à vraie valeur ajoutée) et économiquement viable pour les assureurs. Savoir que M. X est un client à fort risque sur la santé ne servira pas à l’exclure mais à prévenir l’incident avant qu’il n’arrive.

Cette exploitation positive de la connaissance des risques peut sembler naïve mais j’y crois: d’une part car les exemples en ce sens se multiplient dans le secteur et d’autre part car, à l’ère digitale, l’exploitation des données en temps réel pour mieux servir ses clients est possible par tous; si les assureurs ne le font pas pour leurs assurés d’autres s’en chargeront, ces « autres » venant sûrement de secteurs aujourd’hui loin de l’assurance…

 

En conclusion je dirais qu’il est indiscutable que le Big Data va profondément impacter le secteur de l’assurance : l’aléa va diminuer et les risques seront de plus en plus prévisibles. Cependant le fait que la relation assureur-assuré soit contractuellement inscrite dans la durée et que l’erreur statistique persistera, milite en faveur d’un maintien du besoin de couverture, besoin à la baisse mais bien existant.

A terme, et c’est ma conviction, l’utilisation des données permettra d’avoir un système assurantiel avec 2 fonctions: couvrir les aléas qui, immanquablement, subsisteront et prévenir au maximum les sinistres. Cela réduira-t-il ou augmentera-t-il le poids du secteur? Difficile de se prononcer, rendez-vous dans quelques années pour faire le point!

 

Quelques liens utiles: Article des échos qui s’interroge sur l’avenir de la mutualisation, Article Data-business sur l’assurance, Article La Tribune sur l’offre PHYD de Direct Assurance, Fauve que j’ai plagié en début d’article.