DeepMind, l’intelligence artificielle de Google, en veut à vos (beaux) yeux

Rédigé le 19 juillet 2016 par | Nouvelles technologies Imprimer

Quand, l’année dernière, Google a annoncé que son projet sur l’intelligence artificielle (IA), issu de DeepMind, avait produit une… machine capable de jouer au Go, ma première réaction a été le scepticisme.

A quoi bon, en 2014, avoir racheté DeepMind, une entreprise spécialisée dans l’IA, pour environ 630 millions de dollars ? A quoi bon dépenser des millions – voire des milliards – de dollars pour obtenir comme résultat une intelligence artificielle qui… joue ?

Il est vrai qu’AlphaGo s’est avéré un excellent joueur de Go, à un jeu qui est pourtant reconnu pour sa complexité et pour la part importante d' »intuition » qu’il requiert. Mais où sont les machines capables de converser avec nous ? Celles qui peuplent les oeuvres de science-fiction ? Celles qui suscitent autant de craintes que d’espoirs ?

Je me doutais bien qu’AlphaGo n’était que la partie visible des recherches menées par DeepMind, et nous en avons eu la confirmation il y a quelques jours.

DeepMind en veut à vos (beaux) yeux

Google a en effet annoncé la collaboration de sa filiale dédiée à l’intelligence artificielle avec l’hôpital londonien de Moorfields, spécialisée dans l’ophtalmologie.

L’objectif de cette collaboration sera d’accélérer le traitement des milliers de scans rétiniens réalisés par l’hôpital chaque semaine, et de repérer les signes avant-coureurs de cécité. L’analyse humaine de ces scans prend souvent trop longtemps… et c’est là qu’interviendra bientôt l’IA.

Pour se mettre au service de la vue des Londoniens, l’IA de DeepMind va déjà devoir « absorber » des millions de données et mettre en branle ce fameux deep learning qui lui permet d’apprendre par lui-même. Le Moorfields Eye Hospital va ainsi fournir à DeepMind le million de scans dont il dispose dans ses dossiers, ce qui devrait permettre à l’IA d’apprendre à repérer les premiers signes de cécité.

Dans un premier temps, elle va se concentrer sur deux pathologies particulièrement répandues dans nos sociétés : la dégénérescence maculaire liée à l’âge (DMLA) et la rétinopathie diabétique. Celle-ci touche 50% des diabétiques de type 2 (diabète qui se déclenche au cours de la vie) et est, dans les pays occidentaux, la principale cause de cécité chez les moins de 65 ans.

La DMLA est quant à elle la principale cause de handicap visuel chez les plus de 50 ans. En France, 1,5 millions de personnes en sont atteintes, à un stade plus ou moins avancé.

Dans les deux cas, un diagnostic précoce permet une meilleure prise en charge de la maladie. Comme le rappelait le co-fondateur de DeepMind, Mustafa Suleyman, dans une interview accordée au Guardian, une détection précoce de la rétinopathie diabétique permet d’éviter 98% des cas les plus graves de cécité.

Cette annonce est particulièrement intéressante, et ce pour deux raisons.

La reconnaissance des images, une nouvelle compétence de l’IA au service de la santé

Premièrement, parce que cela met en lumière les avantages du deep learning et de l’IA pour certaines tâches qui reposent sur l’analyse répétitive d’une grande quantité de données. Comme le souligne Mustafa Suleyman, l’analyse d’un scan rétinien par des humains peut prendre jusqu’à quatre semaines, dans le cas du Moorfields Eye Hospital. L’IA pourrait obtenir le même résultat de manière presque instantanée.

Ces dernières années, la Silicon Valley, de Google à Facebook en passant par IBM, a concentré une partie de ses recherches sur la reconnaissance d’images. C’est ce qui permet par exemple à Facebook de vous reconnaître quand vos amis postent sur le réseau social une photo de vous (pas toujours flatteuse, malheureusement).

L’IA a donc fait de grand progrès en la matière et c’est tout naturellement qu’elle devrait de plus en plus appliquer ces nouvelles compétences au diagnostic médical. On peut ainsi imaginer que, dans les années qui viennent, la tâche de repérer les tumeurs et autres pathologies sera en partie déléguée à la machine, permettant des diagnostics plus rapides et plus précis, en complément de la toujours indispensable expertise humaine.

Quid des données personnelles médicales ?

L’autre question soulevée par l’annonce de la collaboration entre DeepMind et le Moorfields Eye Hospital est celle de la protection des données personnelles. Un sujet que Ray Blanco a déjà abordé avec vous, hier, dans la Quotidienne.

En effet, pour nourrir son expérience, l’IA de DeepMind va analyser plus d’un million de scans effectués au Moorfields Eye Hospital. Ces données, anonymes mais assorties d’informations concernant le patient et les traitements qu’il a reçus, sont fournies gratuitement par un hôpital à une entreprise privée.

Dans ce cas précis, l’initiative n’a pas soulevé d’objections trop importantes, mais ce ne fut pas le cas avec la précédente incursion de DeepMind dans le domaine de la santé.

En février 2016, DeepMind lançait une collaboration avec la National Health Service, le système de la santé publique britannique. De cette alliance doit naître une application pour smartphones, destinée à surveiller les patients atteints d’insuffisance rénale. Là encore, l’objectif affiché était très clair : améliorer le suivi des patients par les équipes médicales en repérant de manière instantanée les défaillances rénales. Jusque-là, rien de répréhensible.

Mais voilà, en avril dernier, une enquête menée par l’hebdomadaire New Scientist révélait les conditions réelles de l’accord passé entre Google et la NHS. Google y obtenait l’accès à certaines données personnelles des 1,6 millions de patients annuels de trois hôpitaux londoniens. Parmi les données fournies, gratuitement, à DeepMind, le dossier médical de ces patients couvrant les cinq dernières années et contenant des informations sur les overdoses, les avortements, ou bien le statut sérologique (contamination, par exemple, par le VIH).

La révélation de cet accord a soulevé une importante vague de protestation au Royaume-Uni, et obligé aussi bien la NHS que Google à clarifier (un peu) leur accord et leurs intentions. Une tentative pour rassurer les Britanniques qui s’est rapidement heurtée à la culture de mystère entretenue par Google aussi bien sur ses projets concernant l’intelligence artificielle, que ceux sur la santé.

Le plus probable est que Google travaille au développement d’une plateforme prédictive qui analyserait les données médicales des patients et permettrait à la fois d’aider les médecins dans leur diagnostic, mais aussi de faire des « prédictions » sur les maux et maladies dont nous sommes le plus susceptibles de souffrir. Selon le New Scientist, cette plateforme, nommée Patient Rescue, serait déjà en cours de test.

Google n’est pas le seul à travailler sur ce genre de plateforme. Nos données médicales seraient donc des données comme les autres ? C’est ce que nous verrons dans une prochaine Quotidienne. Mais déjà, vous comprenez pourquoi la dernière recommandation de Ray dans NewTech Insider portait sur la sécurité des données, et en particulier des données médicales. Une recommandation qui va s’avérer complètement indispensable.

Mots clé : - - - -

Cécile Chevré
Cécile Chevré
Rédactrice en Chef de La Quotidienne Pro

Cécile Chevré est titulaire d’un DEA d’histoire de l’EPHE et d’un DESS d’ingénierie documentaire de l’INTD. Elle rédige chaque jour la Quotidienne de la Croissance, un éclairage lucide et concis sur tous les domaines de la finance.

Un commentaire pour “DeepMind, l’intelligence artificielle de Google, en veut à vos (beaux) yeux”

  1. Sous couvert medical, Google commence a construire sa base de donnees retiniennes, difficilement falsifiable et plus fiable que la reconnaissance faciale.
    Apres les traits du visage, apres les empreintes digitales, la retine est la prochaine clef d’identification. Avantage : nos yeux sont ouverts la plupart du temps donc aucune demande necessaire

Laissez un commentaire