Le Big Data ne sonnera pas le glas de l’assurance, enfin on verra…

Le Big Data permettrait de tout comprendre, tout savoir, tout voir, tout prédire et ouvrir la porte d’un nouveau monde où les entreprises connaitraient parfaitement leurs clients afin d’individualiser leurs produits (qui va acheter quoi? à quel prix? par quel canal?)…

L’assurance n’échappe pas au phénomène et les assureurs vont pouvoir mieux connaitre les risques de leurs clients afin de leur proposer un prix « juste »: n’est-il pas logique qu’une personne ayant une forte probabilité d’avoir un dégât des eaux paie son assurance plus chère que son voisin qui a refait toute sa plomberie? En tout cas les assureurs souhaiteront attirer le profil moins risqué (en lui proposant un bon prix) au détriment de l’autre qui les intéressera moins. En poussant ce raisonnement à l’extrême si chacun verse à son assureur exactement le montant des sinistres qu’il aura alors les assureurs ne servent plus à rien et le concept même de mutualisation des risques est mort. Cette idée que le Big Data pourrait être le chant du cygne de l’assurance, bien que caricaturale, mérite d’être creusée et fait de toute façon déjà pas mal parler d’elle dans la presse spécialisée (cf La Tribune qui pose exactement cette question).

J’ai personnellement un avis assez nuancé sur la question car oui le Big Data impactera le coeur de l’assurance (la mutualisation des risques) mais non le secteur ne disparaitra pas, son modèle va plutôt progressivement muter. Voici sur quoi s’appuie mon relatif optimisme.

L’aléa vivra

Des

Je parle à la fois de l’aléa au sens statistique ainsi que celui au sens « vision client » du terme (l’inconnu au sens large).

D’un point de vue mathématique l’aléa est l’écart entre le modèle théorique (aussi parfait soit-il) et les mesures observées. Cet écart suit une loi normale de variance non nulle. Par définition si vous modélisez un phénomène, quelle que soit la qualité du modèle, vous aurez des erreurs imprévisibles car aléatoires. Si votre modèle est bon la seule chose dont vous pouvez être sûr c’est qu’avec suffisamment d’observations les erreurs s’annulent entre elles (la moyenne des écarts tend vers 0 – cf la loi des grands nombres). Cette erreur ou aléa, appliquée aux risques peu fréquents de la vie, aura toujours besoin d’être couvert et le fait de les mutualiser sera le meilleur moyen de les neutraliser.

Par ailleurs il faut garder en tête qu’un modèle statistique calcule une probabilité de survenance d’un événement. Les modèles classiques ne donnent pas que des résultats à 0 (ça n’arrivera pas) ou à 1 (ça arrivera), il y a systématiquement une probabilité associée et la question du « que dois-je faire de celui qui a une probabilité de 50% » se posera toujours, ceci n’est pas un aléa au sens mathématique mais bien une incertitude aux yeux du client (et de l’assureur).

Prenons par exemple le cas (fictif et illustratif) de l’assurance ski. Imaginons qu’un accident de ski coûte en moyenne 2000€ et qu’il arrive 0,1% du temps (par jour), alors le bon prix de l’assurance et 2€ par jour. De manière basique l’assureur propose une couverture de 2€ par jour et par personne à tout le monde (hors frais de gestion et profit attendu), avec un modèle prédictif l’assureur va affiner sa connaissance du risque est trouvera peut-être des personnes avec risque très faible (il pourra proposer une assurance à 0,5€) et quelques personnes avec un risque plus élevé (il pourra proposer une assurance à 10€), ainsi que très probablement toute une liste d’individus « moyens ». Au final les clients auront toujours à choisir s’ils veulent souscrire une assurance sans jamais être certain d’avoir ou non un accident.

Je veux dire par là qu’un modèle plus performant se trompera moins, il donnera des probabilités  plus précises mais ne fera pas disparaitre l’incertitude concernant un individu en particulier.

Il est toutefois facile de contre argumenter en disant qu’a posteriori la notion de probabilité ne veut rien dire car les gens ont soit eu un accident au ski (1) soit non (0), alors pourquoi un modèle idéal ne trouverait pas tous les 0 et les 1 à l’avance? Oui il est indéniable qu’après coup les résultats sont 0 ou 1; mais peut-on réellement croire que tout est écrit à l’avance et donc que tout est prévisible? que rien n’est aléatoire, même pas un tirage à pile ou face (le Big Data pourra-t-il faire mieux que répondre 50/50 à un tirage à pile ou face?)? Ceci tient du débat philosophique mais pour ma part je penche plus pour l’approche probabiliste car nous vivons dans un monde réel et donc limité (cf théorie du chaos), ceci n’engageant que moi.

Quoi qu’il en soit il y a consensus sur le fait que Big Data permettra d’affiner la prédictibilité des événements. Mais attention car la précision se jouera aussi, voir surtout, sur l’échelle temps…

La dimension temporelle comme paramètre fondamental

Temps

Affirmer brutalement que « grâce au Big Data tout sera prévisible » c’est omettre un point clé du raisonnement: la dimension temps.

En effet les modèles sont d’autant plus précis que l’on est proche de l’événement. On peut par exemple citer la météorologie où les prévisions ne sont considérées comme fiables (hormis les grandes tendances) seulement pendant quelques jours voir quelques heures. De même pour reprendre l’exemple de l’assurance: les données pourraient permettre de détecter qu’une voiture va avoir un accident si les détecteurs captent que le véhicule rentre trop vite dans un virage verglacé… mais prévoir cela 1 an à l’avance de manière certaine relève de l’impossible. En marketing un outil comme CRITEO (qui achète en temps réel les bannières publicitaires sur internet – retargeting) base l’essentiel de son modèle sur les informations récoltées les jours et même les secondes précédents le clic potentiel.

Bref, être capable de prédire un événement devient chaque jour plus facile grâce à l’explosion du volume des données mais aussi et surtout au temps réel; donc à partir du moment où un contrat se signe sur une durée « longue » mêmes les meilleurs modèles ne pourront donner « que » des probabilités d’occurrence sans garantie sur les sinistres à un an/mois… Comme j’ai du mal à imaginer qu’un assureur puisse un jour avoir le droit de résilier un client en temps réel 1 minute avant son accident (c’est contraire à l’engagement contractuel) la part de l’aléa demeurera non négligeable.

La prédictibilité, à la signature d’un contrat, ne sera donc pas parfaite mais va quand même s’améliorer. La question naturelle qui suit est alors de savoir si les assureurs ne risquent pas d’exclure toutes les personnes détectées avec un risque élevé, soit officiellement soit par un prix prohibitif. Ceci n’étant pas vraiment en ligne avec les valeurs de solidarité sur lesquelles reposent pourtant la logique assurantielle. Pour être honnête cette question se posera sûrement (elle se pose déjà d’ailleurs et pas que dans l’assurance, je pense que tous ceux qui cherchent un crédit immobilier me comprendront). C’est pourquoi les assureurs auront 2 choix face aux clients identifiés comme « risqués »: les bannir ou les aider à faire baisser leur risque. C’est ainsi que la posture des « bons » assureurs qui souhaitent un développement économique durable va se modifier, leur objectif ne sera pas de refuser en bloc les clients à risque mais de les aider à diminuer leurs sinistres!

La prévention comme nouveau champ de bataille

PHYD_DA

En incitant les clients à conduire de manière responsable (les fameuses offres « you drive » de Direct Assurance), en les incitant à installer des capteurs intelligents dans la maison (détecteurs de fumée Nest avec Allianz) ou en les incitant à avoir une activité physique (« Pulsez votre santé » avec AXA) certains assureurs sont déjà en train de tester ce type de fonctionnement. Cet aspect prévention complète l’assurance traditionnelle et rend le modèle à la fois vertueux pour les clients (qui bénéficient d’un service à vraie valeur ajoutée) et économiquement viable pour les assureurs. Savoir que M. X est un client à fort risque sur la santé ne servira pas à l’exclure mais à prévenir l’incident avant qu’il n’arrive.

Cette exploitation positive de la connaissance des risques peut sembler naïve mais j’y crois: d’une part car les exemples en ce sens se multiplient dans le secteur et d’autre part car, à l’ère digitale, l’exploitation des données en temps réel pour mieux servir ses clients est possible par tous; si les assureurs ne le font pas pour leurs assurés d’autres s’en chargeront, ces « autres » venant sûrement de secteurs aujourd’hui loin de l’assurance…

 

En conclusion je dirais qu’il est indiscutable que le Big Data va profondément impacter le secteur de l’assurance : l’aléa va diminuer et les risques seront de plus en plus prévisibles. Cependant le fait que la relation assureur-assuré soit contractuellement inscrite dans la durée et que l’erreur statistique persistera, milite en faveur d’un maintien du besoin de couverture, besoin à la baisse mais bien existant.

A terme, et c’est ma conviction, l’utilisation des données permettra d’avoir un système assurantiel avec 2 fonctions: couvrir les aléas qui, immanquablement, subsisteront et prévenir au maximum les sinistres. Cela réduira-t-il ou augmentera-t-il le poids du secteur? Difficile de se prononcer, rendez-vous dans quelques années pour faire le point!

 

Quelques liens utiles: Article des échos qui s’interroge sur l’avenir de la mutualisation, Article Data-business sur l’assurance, Article La Tribune sur l’offre PHYD de Direct Assurance, Fauve que j’ai plagié en début d’article.

Big Data, la beauté par les chiffres

Dans la liste des exemples concrets d’application du Big Data quelques grands classiques ont déjà été abordés dans ce blog: lutte contre la criminalité, relation client, mobilité, RH… Il est donc naturellement prévu de parler des autres sujets phares tels que la lutte contre la fraude bancaire, les nouvelles assurances ou la santé.

Cependant, bien que la fraude bancaire et les assurances me passionnent (oui oui sans rire), j’ai décidé de faire une pause sur un sujet plus glamour mais tout aussi générateur de business: la cosmétique (parfumerie, toilette, capillaire, soins, maquillage etc.). Sujet intéressant mais challengeant car le secteur n’en est qu’aux balbutiements du Big Data, je vous invite à tester « Big Data beauté » sur Google, pour une fois Google n’a rien à dire…

Le secteur de la cosmétique a aujourd’hui 2 caractéristiques très intéressantes pour le Big Data:

  • les achats beauté ne sont pas de simples commodités: bien sûr le gel douche cheveux-visage-corps-toutelafamille-2litres est choisi pour son côté pratique mais le maquillage, les soins ou les parfums font clairement appellent à nos émotions (et nos relations passionnelles avec les marques), les comportements d’achat des produits de beauté ont une part d’irrationnel peu évidente à maîtriser
  • la tendance à la personnalisation n’est pas en avance sur ce secteur; les clients attendent pourtant des produits, des offres, une communication et une relation adaptés à chacun! Ce retard est principalement lié au fait de ne pas avoir de distribution propre (sauf la marque leader en France Yves Rocher qui vend ses produits dans ses boutiques). Nombreux sont les clients qui, individuellement, n’existent pas aux yeux de marques à qui ils consacrent pourtant des budgets importants; on peut par exemple citer L’Oréal et ses centaines de marques présentes dans nos foyers qui n’a pourtant pas de relation individuelle avec ses clients

Ces caractéristiques constituent un terreau propice à l’émergence du Big Data : celui-ci modifie l’univers de la cosmétique à la fois en termes de communication et de conception des produits.

 

Vers une communication plus efficace

Les technologies et méthodes du Big Data permettent d’analyser des données de masse pour savoir quoi, comment et où communiquer; communication soit à un niveau global soit de manière totalement personnalisée (même pour des non clients).

Une communication de masse pertinente

Il est possible de citer 2 exemples assez récurrents dans la littérature Big Data:

  • le fait que l’augmentation des ventes de shampoing soit fortement corrélée à l’arrivée des pollens (analyse dont la paternité est attribuée à la start up capitaindash)
  • la détection des humeurs sur les média sociaux (l’outil Radian6 de Salesforce détecte les émotions Facebook, Twitter, Blog, Forum etc… sur des sujets précis)

Personne ne s’en vante vraiment mais il est impensable que les marques ne calent pas leurs campagnes publicitaires en fonction de ces informations: le shampoing début avril dans les Bouches du Rhône quand le pollen fait son apparition ou fin mai à Paris pour les compléments alimentaires solaires dès que le sujet bronzage est évoqué sur Facebook.

A noter qu’écouter les réseaux sociaux pour savoir à quel moment lancer une campagne publicitaire peut paraître farfelu MAIS je tiens à préciser que la beauté est le 4ème sujet le plus discuté sur les média sociaux après les nouvelles technologies, la nourriture/boissons et les films/séries. La matière est donc bien présente et ne demande qu’à être utilisée.

Des communications personnalisées

Ces communications vont en fait dépendre des informations disponibles:

  • si une marque a accès à des informations précises « beauté » elle va les utiliser pour adapter sa communication. L’application « Make Up Genius » permet probablement à L’Oréal de définir par personne quel produit, à quel moment et par quel moyen promouvoir ses offres. Make Up Genius est une application iphone et Android gratuite « géniale » qui permet de tester en live du maquillage sur vous avec l’appareil photo de votre téléphone, elle fonctionne très bien et fournit à L’Oréal des informations sur ce que les consommateurs essaient le plus en fonction du lieu, de l’âge, de la pigmentation de la peau etc…
    43764
  • même si vous êtes discrets concernant vos envies beauté il existe quand même des outils pour personnaliser la communication digitale. La société Criteo permet par exemple d’afficher des bannières publicitaires sur internet en fonction de votre historique de navigation et de vos cookies. Bien sûr Criteo va promouvoir un produit X si vous êtes allé le voir sur un site, mais il vous proposera aussi d’autres produits en prenant en compte un maximum de paramètres (le fait que vous aimiez tel ou tel site, le fait que vous n’ayez pas acheté le produit X etc…). A titre d’exemple Criteo revendique une amélioration significative de la performance des bannières internet: ses publicités marcheraient jusqu’à 600 fois mieux que les bannières classiques (cf article sur retargeting)

Ces communications s’adressent aux clients et non clients dans le but de gagner en efficacité: plus de ventes avec un budget communication réduit.

 

Des produits basés sur des besoins clients très précis

Une bonne image de marque et une belle publicité vont éveiller la curiosité voire l’envie chez les consommateurs. Une relation client de qualité va instaurer une confiance avec la marque et inciter à être fidèle ou faire plus d’achats. MAIS un pilier parfois oublié est tout simplement le produit: pas de succès sans bon produit, les clients ne sont jamais idiots et un mauvais produit n’a aucune chance de durer. Il n’est cependant pas facile de déterminer ce qu’est un bon produit quand on parle d’achats avec une part d’irrationnel…

Ainsi la vie des produits de beauté au sein des marques est faite d’échecs (le fameux parfum BIC), de succès inattendus (les produits mixtes – Kiehl’s), de valeurs sûres (une crème pour les mains ultra nourrissante), de disparitions (Le Club des Créateurs de Beauté) et même de résurrections (Eau Sauvage). Or chaque lancement ou mise au placard mal calculé coûte cher, c’est pourquoi les marques décortiquent les attentes clients. Là encore le Big Data intervient à 2 niveaux: des tendances mieux cernées qu’avant et des produits personnalisés!

Des tendances mieux cernées (petites ou grandes)

Pour comprendre les tendances, les marques, historiquement, analysaient des données regroupant leurs ventes, des études de marché, des focus groupe (des consommateurs discutant de leurs attentes), des tests conso (des clients testant à l’aveugle des produits) etc… Ce type de démarche est coûteux, long à mettre en oeuvre et sans réelle assurance de faire mouche.

Encore une fois la récolte et l’analyse des masses de données disponibles va pouvoir enrichir ces réflexions et éclairer le débat:

  • en « écoutant » le web (blogs, forums et surtout réseaux sociaux – dont la beauté, rappel, est un des sujets privilégiés) les marques peuvent savoir ce que les clients apprécient ou non concernant leurs produits, ceux de la concurrence et même les produits de leurs rêves
  • en signant des partenariats avec des sociétés capables de leur décrire les tendances. Citons par exemple la start up française (en version bêta pour l’instant) « Lucette » qui vous propose gratuitement des conseils beauté en se basant justement sur les technologies Big Data: grâce à leur base de données, aux expertises récoltées et à un « bel algorithme » (je cite) Lucette vous propose des conseils (produits, habitudes, alimentation) en fonction de vos réponses à leur questionnaire. Ce service gratuit, qui a l’air sympa pour les consommateurs, pourra alimenter les réflexions des marques qui comprendront alors les attentes majeures mais aussi mineuresLu
  • en testant des produits qui n’existent pas encore: L’Oréal pourrait très bien intégrer dans son appli Make Up Genius des produits en cours d’étude et ainsi voir si les utilisateurs sont intéressés

L’avantage de ces méthodes, versus l’historique, se situe au niveau du coût, de la réactivité mais aussi et surtout de l’exhaustivité des résultats: une écoute des média sociaux est TOTALE, ça n’est pas juste 10 personnes qui s’expriment. Cette notion d’exhaustivité est clé car elle permet de détecter les grandes tendances mais aussi les courants secondaires qui était habituellement oubliés.

Des produits personnalisés à l’ère Big Data

Les produits de beauté personnalisés existent déjà; par exemple les marques Ioma, Codage ou NewSeason  proposent des produits sur mesure en fonction de diagnostics scientifiques de votre peau (plutôt des soins). Certes cela demande de manipuler des données mais ces services, pour l’instant, n’ont rien à voir avec le Big Data; toutefois ils illustrent bien la tendance à la personnalisation.

Ces marques capables de d’individualiser les produits auront 2 utilisations possibles du Big Data:

  • dégager les tendances beauté à partir des nombreuses mesures (pour eux ou pour les vendre à d’autres)
  • et surtout, c’est l’objet de ce paragraphe, changer leur modèle de personnalisation, le diagnostic se basera:
    • peut-être encore sur des tests pointus en institut
    • sur les informations envoyées par des objets connectés (bracelets, balance, photo du téléphone, autres capteurs « beauté » à inventer)
    • les événements détectés sur internet (départ au soleil, grossesse, grosse fatigue, régime, nouvelle coupe de cheveux etc…)
    • l’historique d’achat
    • etc…

L’idée est que le domaine du bien-être et de la santé est en train de s’ultra personnaliser (suivi via objets connectés, coaching, produits adaptés etc…), il y a peu de raison pour qu’il n’en soit pas de même un jour pour la beauté. Bien évidemment le coût de fabrication élevé des produits sur-mesure risque d’être un frein, mais ce type de soins existent déjà, la difficulté est donc surmontable.

 

En conclusion on peut voir que contrairement aux usages cités dans les articles précédents il y a encore peu d’exemples concrets d’application du Big Data dans le secteur de la cosmétique, et même peu de littérature sur ce que la donnée pourrait apporter… Pourtant il ne fait aucun doute que le Big Data modifie déjà les stratégies de communication et de développement des produits de beauté. Dans la cosmétique comme dans tous les secteurs la donnée devient un actif majeur dont la maîtrise sera un facteur clé de réussite/survie.