Big Data, le remède miracle?

S’il y a un domaine où le Big Data est particulièrement attendu c’est bien celui de la santé. En effet on parle ici de la capacité à exploiter des données en masse et de tous types, notamment pour des usages prédictifs et en temps réel. Quand on sait que 80% des données médicales sont absentes des bases de données classiques car non structurées (notes, radios, comptes-rendus cliniques etc…), mais qu’elles ont une pertinence scientifique majeure alors on imagine bien qu’il y a de la matière première pour le Big Data et que les utilisations potentielles sont nombreuses (source IBM).

Les exemples les plus fréquemment cités concernent la prévention, les traitements en eux même et enfin le coût global de la santé qui, en diminuant fortement,  augmenterait l’accès aux soins.

Une prévention (de masse et individuelle) accrue

google_flu_trends

L’utilisation d’algorithmes prédictifs sur de grandes quantités de données médicales (ou pseudo médicales) a déjà été illustrée à de nombreuses reprises, voici les 3 exemples que je trouve les plus marquants:

  • Google Flu Trends (littéralement Tendances Grippe): Google a développé un service qui analyse les mots clés tapés dans son moteur de recherche afin de déterminer quand et où les épidémies sont en train de se propager. L’outil a fait ses preuves en 2010 car il était beaucoup plus réactif que le dispositif classique alimenté par les remontées des médecins. On s’aperçoit cependant depuis 2011 que les épidémies sont souvent surestimées; cela reste toutefois un pur outil Big Data qui représente une véritable aide à la prévention contre la grippe (lien outil).
  • En donnant accès à leurs données personnelles en temps réel (via un téléphone ou un bracelet connecté qui mesure votre activité, sommeil, pouls etc…) certaines population à risque (diabétiques, asthmatiques etc…) peuvent être monitorées à distance et recevoir des conseils ou alertes si besoin (la startup mhealthcoach fait par exemple beaucoup parler d’elle grâce à son appli mobile)
  • Plus fou encore  (voire effayant): la recherche génomique a profité des avancées technologiques pour réduire par 10000 le temps et l’argent nécessaire pour modéliser le génome d’une personne. Nous rentrons donc dans une ère où demain il sera probablement possible, pour moins de 1000$, de voir son génome analysé avec la possibilité de détecter des schémas augmentant ses chances d’avoir une maladie X ou Y, ceci dans l’optique de les prévenir au maximum (type cancers – cf article sur Base Line Study de Google).

Des soins plus efficaces

dare13_frth_Thumbnail_2x

Au-delà de la prévention, une fois la pathologie détectée, le parcours médical lui-même (et les traitements qui le composent) peut être optimisé sur la base des connaissances data.

Connaïtre et comprendre les mécanismes en jeu lors de soins (telle molécule a tel effet etc…) est et restera essentiel, cependant le Big Data propose d’enrichir cela avec des constats « factuels » basés sur de grandes quantités d’observations: les personnes avec tel profil et telles constantes qui ont eu tel traitement ont eu tel résultat. Le Danemark s’est par exemple équipé de la solution IBM Big Data pour centraliser les données de soins et améliorer l’efficacité du système, ils présentent cela à la fois comme un outil d’analyse a posteriori mais aussi comme une aide en temps réel pour les professionnels de santé (cf communiqué de presse).

Cette utilisation-là du Big Data a toutefois un prérequis lourd: les données doivent être accessibles, partagées et centralisées sans quoi il n’y aura pas de vision complète d’un patient et les bénéfices potentiels resteront sans suite. Attention par « partagées et centralisées » je ne dis pas qu’elles doivent être nominatives (l’anonymat semble éthiquement incontournable). La situation actuelle, notamment en France, est complexe car il semblerait que la sécurité sociale possède à peu près toutes ces données mais ne les partage pas ou peu pour l’instant (même de manière anonyme) et ne laisse donc pour l’instant pas beaucoup de place à des idées extérieures pour analyser tout cela et innover. Ceci évoluera peut être avec l’arrivée d’Henri Verdier en tant que Chief Data Officer France (i.e. responsable de toutes les données de l’état – cf article).

 Des dépenses en baisse pour un accès plus large

healthcare_rising_costs

Cet axe-là apparait plutôt dans un second temps mais semble aussi le plus vertueux.

D’une part la centralisation et l’analyse de l’ensemble des données de santé devraient permettre une prévention et des soins plus efficaces, nous venons de le voir. Ceci aura un impact direct sur le coût de la santé, qui dit coût en baisse dit mécaniquement coût de l’assurance en baisse (notamment les mutuelles qui ne reversent pas de dividende) et donc accès facilité pour les populations à plus faible niveau de vie. Tout cela semble un peu utopiste et reste à prouver mais donne envie d’y croire.

D’autre part, et pour cela je me base sur la vision du très sérieux cabinet McKinsey, les payeurs (malades, assurances privés, sécurité sociale, employeurs) devraient avoir accès à de plus en plus d’informations pour objectivement juger de la valeur d’un soin, d’un établissement ou même d’un médicament. Les données pourraient par exemple montrer que les patients prenant le médicament X ont trop souvent recours à un second traitement, ou que les personnes atteintes de telle ou telle maladie très particulière allant se faire soigner dans un établissement généraliste mettent 4 fois plus de temps à guérir que si elles allaient dans un établissement spécialisé. Bref, cette vision de la valeur des soins incitera l’état, les assureurs et tous les employeurs qui assurent leurs salariés à orienter vers les soins les plus efficaces. On pourrait très bien imaginer demain une assurance refusant de rembourser un médicament qu’elle juge inefficace (bien sûr légalement ça ne serait pas si simple mais l’idée est là). Au-delà d’aider les professionnels à s’améliorer le Big Data permettra aussi aux payeurs d’agir de manière forte pour baisser le coût de la santé.

 

En conclusion il semblerait bien qu’une fois les barrières réglementaires levées (sur le partage et l’accès aux données) le Big Data pourrait réellement impacter en profondeur le domaine de la santé, d’ailleurs on peut voir que des solutions existent (nombreuses start up ainsi qu’IBM) et que certains ont déjà enclenché le virage (la recherche génomique, des états comme le Danemark cité plus haut ou le Canada). J’insiste aussi sur un point fort de la plupart des exemples trouvés sur le sujet: oui les données de santé devront s’ouvrir pour que tout cela arrive MAIS jamais il n’est question d’en supprimer le côté anonyme sans accord explicite de l’individu.

Quelques liens intéressants: l’infographie santé Orange, la vision IBM, l’étude très complète et passionnante de McKinseyarticle de l’Express, très bon article Des Echos sur la santé 3.0.

Publicités

2 commentaires sur “Big Data, le remède miracle?

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s