Le Big Data ne sonnera pas le glas de l’assurance, enfin on verra…

Le Big Data permettrait de tout comprendre, tout savoir, tout voir, tout prédire et ouvrir la porte d’un nouveau monde où les entreprises connaitraient parfaitement leurs clients afin d’individualiser leurs produits (qui va acheter quoi? à quel prix? par quel canal?)…

L’assurance n’échappe pas au phénomène et les assureurs vont pouvoir mieux connaitre les risques de leurs clients afin de leur proposer un prix « juste »: n’est-il pas logique qu’une personne ayant une forte probabilité d’avoir un dégât des eaux paie son assurance plus chère que son voisin qui a refait toute sa plomberie? En tout cas les assureurs souhaiteront attirer le profil moins risqué (en lui proposant un bon prix) au détriment de l’autre qui les intéressera moins. En poussant ce raisonnement à l’extrême si chacun verse à son assureur exactement le montant des sinistres qu’il aura alors les assureurs ne servent plus à rien et le concept même de mutualisation des risques est mort. Cette idée que le Big Data pourrait être le chant du cygne de l’assurance, bien que caricaturale, mérite d’être creusée et fait de toute façon déjà pas mal parler d’elle dans la presse spécialisée (cf La Tribune qui pose exactement cette question).

J’ai personnellement un avis assez nuancé sur la question car oui le Big Data impactera le coeur de l’assurance (la mutualisation des risques) mais non le secteur ne disparaitra pas, son modèle va plutôt progressivement muter. Voici sur quoi s’appuie mon relatif optimisme.

L’aléa vivra

Des

Je parle à la fois de l’aléa au sens statistique ainsi que celui au sens « vision client » du terme (l’inconnu au sens large).

D’un point de vue mathématique l’aléa est l’écart entre le modèle théorique (aussi parfait soit-il) et les mesures observées. Cet écart suit une loi normale de variance non nulle. Par définition si vous modélisez un phénomène, quelle que soit la qualité du modèle, vous aurez des erreurs imprévisibles car aléatoires. Si votre modèle est bon la seule chose dont vous pouvez être sûr c’est qu’avec suffisamment d’observations les erreurs s’annulent entre elles (la moyenne des écarts tend vers 0 – cf la loi des grands nombres). Cette erreur ou aléa, appliquée aux risques peu fréquents de la vie, aura toujours besoin d’être couvert et le fait de les mutualiser sera le meilleur moyen de les neutraliser.

Par ailleurs il faut garder en tête qu’un modèle statistique calcule une probabilité de survenance d’un événement. Les modèles classiques ne donnent pas que des résultats à 0 (ça n’arrivera pas) ou à 1 (ça arrivera), il y a systématiquement une probabilité associée et la question du « que dois-je faire de celui qui a une probabilité de 50% » se posera toujours, ceci n’est pas un aléa au sens mathématique mais bien une incertitude aux yeux du client (et de l’assureur).

Prenons par exemple le cas (fictif et illustratif) de l’assurance ski. Imaginons qu’un accident de ski coûte en moyenne 2000€ et qu’il arrive 0,1% du temps (par jour), alors le bon prix de l’assurance et 2€ par jour. De manière basique l’assureur propose une couverture de 2€ par jour et par personne à tout le monde (hors frais de gestion et profit attendu), avec un modèle prédictif l’assureur va affiner sa connaissance du risque est trouvera peut-être des personnes avec risque très faible (il pourra proposer une assurance à 0,5€) et quelques personnes avec un risque plus élevé (il pourra proposer une assurance à 10€), ainsi que très probablement toute une liste d’individus « moyens ». Au final les clients auront toujours à choisir s’ils veulent souscrire une assurance sans jamais être certain d’avoir ou non un accident.

Je veux dire par là qu’un modèle plus performant se trompera moins, il donnera des probabilités  plus précises mais ne fera pas disparaitre l’incertitude concernant un individu en particulier.

Il est toutefois facile de contre argumenter en disant qu’a posteriori la notion de probabilité ne veut rien dire car les gens ont soit eu un accident au ski (1) soit non (0), alors pourquoi un modèle idéal ne trouverait pas tous les 0 et les 1 à l’avance? Oui il est indéniable qu’après coup les résultats sont 0 ou 1; mais peut-on réellement croire que tout est écrit à l’avance et donc que tout est prévisible? que rien n’est aléatoire, même pas un tirage à pile ou face (le Big Data pourra-t-il faire mieux que répondre 50/50 à un tirage à pile ou face?)? Ceci tient du débat philosophique mais pour ma part je penche plus pour l’approche probabiliste car nous vivons dans un monde réel et donc limité (cf théorie du chaos), ceci n’engageant que moi.

Quoi qu’il en soit il y a consensus sur le fait que Big Data permettra d’affiner la prédictibilité des événements. Mais attention car la précision se jouera aussi, voir surtout, sur l’échelle temps…

La dimension temporelle comme paramètre fondamental

Temps

Affirmer brutalement que « grâce au Big Data tout sera prévisible » c’est omettre un point clé du raisonnement: la dimension temps.

En effet les modèles sont d’autant plus précis que l’on est proche de l’événement. On peut par exemple citer la météorologie où les prévisions ne sont considérées comme fiables (hormis les grandes tendances) seulement pendant quelques jours voir quelques heures. De même pour reprendre l’exemple de l’assurance: les données pourraient permettre de détecter qu’une voiture va avoir un accident si les détecteurs captent que le véhicule rentre trop vite dans un virage verglacé… mais prévoir cela 1 an à l’avance de manière certaine relève de l’impossible. En marketing un outil comme CRITEO (qui achète en temps réel les bannières publicitaires sur internet – retargeting) base l’essentiel de son modèle sur les informations récoltées les jours et même les secondes précédents le clic potentiel.

Bref, être capable de prédire un événement devient chaque jour plus facile grâce à l’explosion du volume des données mais aussi et surtout au temps réel; donc à partir du moment où un contrat se signe sur une durée « longue » mêmes les meilleurs modèles ne pourront donner « que » des probabilités d’occurrence sans garantie sur les sinistres à un an/mois… Comme j’ai du mal à imaginer qu’un assureur puisse un jour avoir le droit de résilier un client en temps réel 1 minute avant son accident (c’est contraire à l’engagement contractuel) la part de l’aléa demeurera non négligeable.

La prédictibilité, à la signature d’un contrat, ne sera donc pas parfaite mais va quand même s’améliorer. La question naturelle qui suit est alors de savoir si les assureurs ne risquent pas d’exclure toutes les personnes détectées avec un risque élevé, soit officiellement soit par un prix prohibitif. Ceci n’étant pas vraiment en ligne avec les valeurs de solidarité sur lesquelles reposent pourtant la logique assurantielle. Pour être honnête cette question se posera sûrement (elle se pose déjà d’ailleurs et pas que dans l’assurance, je pense que tous ceux qui cherchent un crédit immobilier me comprendront). C’est pourquoi les assureurs auront 2 choix face aux clients identifiés comme « risqués »: les bannir ou les aider à faire baisser leur risque. C’est ainsi que la posture des « bons » assureurs qui souhaitent un développement économique durable va se modifier, leur objectif ne sera pas de refuser en bloc les clients à risque mais de les aider à diminuer leurs sinistres!

La prévention comme nouveau champ de bataille

PHYD_DA

En incitant les clients à conduire de manière responsable (les fameuses offres « you drive » de Direct Assurance), en les incitant à installer des capteurs intelligents dans la maison (détecteurs de fumée Nest avec Allianz) ou en les incitant à avoir une activité physique (« Pulsez votre santé » avec AXA) certains assureurs sont déjà en train de tester ce type de fonctionnement. Cet aspect prévention complète l’assurance traditionnelle et rend le modèle à la fois vertueux pour les clients (qui bénéficient d’un service à vraie valeur ajoutée) et économiquement viable pour les assureurs. Savoir que M. X est un client à fort risque sur la santé ne servira pas à l’exclure mais à prévenir l’incident avant qu’il n’arrive.

Cette exploitation positive de la connaissance des risques peut sembler naïve mais j’y crois: d’une part car les exemples en ce sens se multiplient dans le secteur et d’autre part car, à l’ère digitale, l’exploitation des données en temps réel pour mieux servir ses clients est possible par tous; si les assureurs ne le font pas pour leurs assurés d’autres s’en chargeront, ces « autres » venant sûrement de secteurs aujourd’hui loin de l’assurance…

 

En conclusion je dirais qu’il est indiscutable que le Big Data va profondément impacter le secteur de l’assurance : l’aléa va diminuer et les risques seront de plus en plus prévisibles. Cependant le fait que la relation assureur-assuré soit contractuellement inscrite dans la durée et que l’erreur statistique persistera, milite en faveur d’un maintien du besoin de couverture, besoin à la baisse mais bien existant.

A terme, et c’est ma conviction, l’utilisation des données permettra d’avoir un système assurantiel avec 2 fonctions: couvrir les aléas qui, immanquablement, subsisteront et prévenir au maximum les sinistres. Cela réduira-t-il ou augmentera-t-il le poids du secteur? Difficile de se prononcer, rendez-vous dans quelques années pour faire le point!

 

Quelques liens utiles: Article des échos qui s’interroge sur l’avenir de la mutualisation, Article Data-business sur l’assurance, Article La Tribune sur l’offre PHYD de Direct Assurance, Fauve que j’ai plagié en début d’article.

Publicités

Une relation client enrichie grâce au Big Data

La « vision client 360 degrés » est souvent considérée comme l’arlésienne des outils de la relation client. En effet par vision 360 degrés on attend la capacité à avoir toutes les informations client en 1 coup d’oeil: imaginons par exemple un opérateur mobile ou un fournisseur d’énergie qui, à chaque fois que vous le contactez, saurait:

  • qui vous êtes (et qui sont vos proches – familles, numéros favoris etc…)
  • vos informations contractuelles (les vôtres et vos proches)
  • tous les contacts précédents et les raisons de ces contacts (vous avez envoyé un mail le mois dernier pour savoir si le prix de votre abonnement allait baisser)
  • vos réponses aux questionnaires de satisfaction
  • si vous êtes fan de la page Facebook
  • les documents que vous avez fournis (attestation domicile, scan carte identité)
  • etc…

Un tel outil ferait gagner en qualité de service (plus besoin de raconter 10 fois votre problème, plus besoin d’attendre 10 minutes que le conseiller  en face de vous retrouve les informations), en simplicité des procédures pour ceux qui sont tous les jours en contact avec les clients, mais aussi en qualité des dossiers (fini les 2 adresses postales différentes – 1 dans votre dossier internet et 1 dans votre dossier carte de fidélité), ce dernier point est peu glamour mais extrêmement important dans le cadre de la relation client.

Sauf que par construction un tel outil représente trop de données, trop de sources différentes et trop de contraintes réglementaires. En général les projets vision 360 degrés s’enlisent pour finalement soit disparaitre soit n’être que partiels (il manque les informations du web, ou bien il manque les transactions, ou bien etc…).

logo

L’assureur américain Metlife (un des leaders de l’assurance vie avec 90 millions de clients!) n’a pas échappé à la règle: plus de 10 ans après avoir lancé un projet « vision client 360 degrés » rien n’avait encore réellement abouti. Mais fin 2012 tout a changé: le Big Data et sa gestion des données de masse commençaient à éclore dans l’univers des services aux Etats-Unis. Metlife a alors ajusté sa vision technique du projet pour la prendre sous l’angle Big Data : il ne s’agissait plus de reconstruire et réunir toutes les bases de données mais de « simplement » garder l’existant et l’injecter (en temps réel) dans des structures dites Big Data (MangoDB dans le cas de Metlife), structures pouvant intégrer tous types de données (infos clients, transactions, documents etc…).

Il s’agissait ensuite de présenter le résultat sous une forme ergonomique pour que les téléconseillers puissent l’exploiter. Ainsi est né « The Wall », interface ressemblant à Facebook contenant toutes les informations nécessaires à une relation client fluide et de qualité:

GTOin_article_54_Building_the_Wall_L

Cet exemple illustre bien le fait que le Big Data ouvre la porte a une nouvelle exploitation des données, ici au service de la relation client. Mais le plus incroyable n’est pas uniquement d’être arrivé à une vision 360 degrés, c’est aussi et surtout le fait que cela a été fait en 3 mois! Historiquement dans n’importe quel secteur un déploiement d’outil de gestion client (CRM) prend/prenait plusieurs années.

Cette durée record de 3 mois a fait beaucoup parlé d’elle dans le monde de la relation client (Metlife a même gagné plusieurs prix pour cette réalisation), elle a été possible pour 2 raisons:

  • les technologies Big Data sont beaucoup plus simples à déployer que les outils anciennes générations: les solutions de base sont open source (libre accès) et se déploient de manière agile (tout est évolutif donc tout peut s’ajuster en cours de route)
  • le sujet étant nouveau les équipes Metlife étaient particulièrement motivées (on parle de plus de 60 équipes différentes), l’effervescence autour du Big Data a joué un rôle d’accélérateur

 

En conclusion, même si ce cas d’usage remonte à plus de 12 mois, l’intérêt du Big Data et son aspect révolutionnaire sont bien illustrés dans le cas « The Wall » à la fois par le fait d’arriver enfin à un outil vision 360 degrés mais aussi par la rapidité de déploiement qui, depuis, fait office de référence pour beaucoup d’acteurs de la relation client.

 

Voici 2 articles généraux sur le sujet:

http://www.informationweek.com/software/information-management/metlife-uses-nosql-for-customer-service-breakthrough/d/d-id/1109919?

https://www.executiveboard.com/blogs/the-metlife-wall-one-view-of-the-customer/

 

Et un article plus technique sur la technologie MongoDB utilisée:

http://www.dataversity.net/metlifes-wall-powered-by-mongodb/