Une révolution scientifique majeure s’impose peu à peu… C’est l’intelligence artificielle (IA), ses algorithmes et ses montagnes de données. L’intelligence artificielle soutient entre autres les professionnels de santé dans le dépistage et le diagnostic d’un éventail de pathologies de plus en plus large, permettant au passage un meilleur accompagnement des patients.

Qu’est-ce que l’intelligence artificielle ? Quels peuvent en être les bénéfices concrets pour les personnes atteintes de diabète ? Quelles en sont les limites et les risques, notamment sur le plan de l’éthique ? Thomas Gouritin, expert en IA chez « Regards Connectés », et Thomas Dautieu, directeur de la conformité à la Commission nationale de l’informatique et des libertés (CNIL), ont bien voulu nous apporter leurs éclairages complémentaires.

Selon un sondage IFOP de janvier 2017, 52% des Français ne savent pas précisément ce qu’est l’intelligence artificielle… et encore moins à quoi cela peut bien servir ! Pourtant, les débats n’ont jamais été aussi vifs autour de cette question, qui est apparue dans le vocabulaire des chercheurs en informatique… il y a près de 70 ans. Et une certaine banalisation est même en marche, au point que consommateurs et citoyens, experts et médias grand public, chacun l’appelle désormais par son petit nom – « IA » plutôt qu’intelligence artificielle !

Dans un passionnant rapport[1] publié en décembre 2017, la CNIL la définit comme « le grand mythe de notre temps ». Thomas Dautieu confirme cette définition, en rappelant combien « il a été frappant de constater, à l’occasion de la révision des lois ‘bioéthique’, que la question des algorithmes (voir encadré) et du lien entre IA et données personnelles émergeait soudainement dans le débat ». Et la CNIL (voir encadré), comme de nombreuses institutions, déplore à ce propos que le grand public ne soit pas suffisamment nourri d’information sur ce qu’est réellement l’IA.

Une boîte à fantasmes nourrie par des décennies de science-fiction

Depuis son observatoire des pratiques de communication en santé, Thomas Gouritin fait le même constat. « Le grand public ne comprend pas bien ce que c’est, observe-t-il. Sa compréhension est biaisée par le terme même d’‘intelligence artificielle’, et par l’imaginaire collectif biberonné à la science-fiction et aux histoires de robots. La réalité est bien plus terre à terre, pour l’instant ! » Et d’appeler à la mise en œuvre d’un vrai travail de pédagogie, afin que le public se familiarise avec les concepts d’algorithme, et découvre la réalité de l’IA.

« Paradoxalement, ajoute-t-il, l’intelligence artificielle en santé est plus facile à comprendre, parce que c’est concret. Quand on explique que seule l’IA est capable de traiter des milliers de paramètres génétiques et de les croiser avec des cas cliniques pour prédire des pathologies ou personnaliser un traitement, ou qu’elle reconnaît mieux un cancer de la peau sur de l’imagerie, c’est assez évident et facile à appréhender. »

Traiter un très grand nombre de données, et en tirer des enseignements pour apprendre à mieux reconnaître une situation médicale, à détecter une pathologie ou à anticiper la survenue d’un événement de santé : telle est à ce jour la principale capacité de ce qu’on nomme intelligence artificielle. « Quoi qu’on mette derrière, il s’agit d’une avancée formidable, explique le juriste Thomas Dautieu. Le volume de données traitées, la puissance de calcul et la capacité d’analyse – notamment les corrélations que les humains ne voient pas – augmentent de façon spectaculaire, pendant que les coûts diminuent… »

En diabétologie, cette formidable puissance a notamment été exploitée pour dépister plus tôt la rétinopathie diabétique, principale cause de perte de la vision chez les patients adultes. Des algorithmes de traitement d’images sont « éduqués », ou « entraînés », à repérer automatiquement la présence de fluide provenant des vaisseaux sanguins abîmés à l’intérieur de la rétine. Résultat : un diagnostic beaucoup plus précoce de la rétinopathie, qui permettra sans doute de limiter – au moins partiellement – la perte de vision des patients concernés. Aux Etats-Unis, le robot  portant cette technologie (DR, développé par la société IDx) a reçu une autorisation de mise sur le marché par la Food & Drug Administration, et délivre d’ores et déjà ses premiers diagnostics…

Aider l’humain sans le remplacer

C’est précisément sur ce type d’application, à la fois concrète et inaccessible au cerveau humain, que l’intelligence artificielle peut devenir un véritable « auxiliaire de santé ». « Les patients, comme les professionnels de santé, ont avant tout besoin d’une preuve médicale et de résultats sur le terrain. L’IA est attendue pour approfondir des cas que les meilleurs spécialistes ont du mal à analyser avec autant d’historique et de paramètres, tout simplement parce que le cerveau n’est pas capable de traiter autant d’informations. La percée de l’IA en santé se fera par les résultats cliniques et les preuves scientifiques », peut ainsi affirmer Thomas Gouritin.

Faut-il en conclure hâtivement que les algorithmes remplaceront un jour les médecins ? Si certains spécialistes de l’IA, notamment dans le monde industriel, fantasment sur la toute-puissance à venir d’une intelligence capable de faire le travail à la place des médecins, on en est encore loin. Et Thomas Gouritin met en garde contre cet enthousiasme sans limite : « Il ne s’agit certes pas de gadgets, mais il faut faire attention à la place que l’on donne à ces outils dans le parcours de soins. S’ils offrent de nouvelles possibilités de suivi et de prédiction aux professionnels de santé, ils ne doivent en aucun cas se substituer à leur expertise du terrain. C’est un complément, il ne faut pas que cela devienne un remplaçant. On ne peut pas, et on ne doit pas, tout réduire à des corrélations mathématiques. »

Ce risque existe-t-il vraiment ? Oui, si l’on en croit l’analyse de nos deux experts. « Les professionnels de santé peuvent avoir du mal à se détacher de ce qu’ils perçoivent comme la ‘vérité des machines’ », s’inquiète ainsi Thomas Dautieu, rejoint par Thomas Gouritin : « Le risque est de prendre la décision de l’algorithme comme parole d’évangile, sans tenir compte des biais possibles. Si les « cohortes » (voir encadré) qui servent de base à l’entraînement à l’intelligence artificielle sont sous-représentées dans une catégorie de population, cela peut impacter la prédiction pour un cas précis et entraîner des erreurs d’appréciation. »

Protéger les populations fragiles contre les exclusions possibles

Face à ce risque, seule l’expertise et l’expérience du praticien sont en mesure de corriger le biais. Et d’interdire une autre dérive possible : le risque d’exclusion du parcours de soins de certaines populations « ciblées » par l’IA. Parmi les grandes avancées très concrètes promises par l’utilisation de l’IA en santé, figure en effet l’étude très approfondie de gigantesques cohortes sur l’acceptation d’approches thérapeutiques (pharmaco-épidémiologie), sur les effets indésirables de médicaments (pharmacovigilance) – mais aussi sur des comportements particuliers face à la maladie (bonne ou mauvaise adhésion au traitement, par exemple).

La France, qui dispose des données suivies sur 10 ans de 65 millions de patients, un record mondial, pourrait être le bon élève de la classe, si toutefois elle met en place les garde-fous éthiques et juridiques pour éviter les dérives. L’IA est particulièrement gourmande en données, et plus ces dernières sont nombreuses et fiables, plus la capacité d’apprentissage des algorithmes peut être développée… mais plus la précision du « ciblage » des patients est importante !

Des études en cours utilisent par exemple l’« apprentissage profond » (deep learning en anglais) pour déterminer des profils de personnes suivant plus ou moins bien leur traitement ; dans un second temps, les patients appartenant aux profils de non-adhésion au traitement pourraient ainsi être mieux soutenus humainement dans le suivi de leur traitement thérapeutique. En diabétologie, de tels dispositifs d’IA permettent aussi de prédire la réponse glycémique d’un individu donné, suite à l’ingestion d’un repas donné, en fonction de son profil. Conséquence : l’ouverture à une médecine à la fois prédictive et à un suivi totalement personnalisé et adapté – notamment en matière de nutrition pour les patients diabétiques… Et ces derniers étant les malades chroniques les plus producteurs de données, l’éventail des prédictions et de la personnalisation envisageables est quasiment infini !

Débat de société et formation des médecins

La finalité de départ est évidemment vertueuse, et l’intelligence artificielle est alors une promesse d’identification et d’accompagnement des plus fragiles. « Mais une attention particulière doit être portée à l’utilisation de ces systèmes, afin que les conclusions tirées par l’IA ne conduisent pas à l’exclusion de certains patients parce qu’ils n’appartiennent pas à une majorité ‘sans risque’ », s’inquiète Thomas Dautieu. Un danger dont la CNIL a clairement pris la mesure : « LA Commission doit jouer un rôle majeur, poursuit-il, en aidant la communauté des patients et des soignants prendre conscience qu’il s’agit d’un débat sociétal prioritaire, qui concerne tout le monde, et qui doit permettre de fixer des limites. »

Des limites ? « Techniquement, il n’y en aura jamais vraiment ! Mais veut-on forcément tout faire parce que c’est techniquement possible ? » conclut sobrement Thomas Gouritin. Pour limiter les dérives possibles, lui répond Thomas Dautieu, « la formation des médecins devra désormais inclure des connaissances informatiques avancées, afin qu’ils ne deviennent pas aveugles vis-à-vis des algorithmes… »

[1]  Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle. CNIL / Ethique & Numérique, décembre 2017.

Thomas Gouritin est ingénieur, expert en intelligence artificielle et en chatbots. Analyste de l’information santé, il intervient en tant que « vulgarisateur » pour la plateforme « Regards Connectés » pour laquelle il a notamment produit un podcast en 4 épisodes, Voyage en terres d’Intelligence Artificielle.

Thomas Dautieu est juriste, directeur de la conformité à la Commission Nationale Informatique et Libertés (CNIL).

  • Un algorithme est une suite d’instructions et d’opérations mathématiques complexes permettant de résoudre un problème en traitant un ensemble de données. L’algorithme s’exécute dans le cœur de l’ordinateur, le micro-processeur ou CPU. Plus la suite d’instructions est longue et complexe, plus elle nécessite une grande puissance de calcul de la CPU et une mémoire importante de l’ordinateur.
  • Dans le monde de la recherche comme dans celui de l’analyse de données, on parle de « cohorte » pour désigner un ensemble plus ou moins important de personnes ayant vécu (subi ou agi) le(s) même(s) événement(s) au même moment. Ce mode de segmentation permet d’étudier le comportement d’une population cohérente dans une durée définie.
  • La Commission Nationale pour l’Informatique et les Libertés (CNIL) existe depuis 1978. Elle régule le traitement des données dites « personnelles » (les informations qui permettent d’identifier des personnes). Elle travaille depuis plusieurs années sur les questions d’intelligence artificielle et sur les risques que pourrait faire courir cette dernière aux libertés individuelles. Elle a notamment conduit, de janvier à octobre 2017, un débat public qui a abouti à la publication de son document sur les enjeux éthiques de l’IA et des algorithmes : Comment permettre à l’Homme de garder la main ?  Elle y affirme notamment deux principes fondateurs : le principe de loyauté (« l’intérêt des utilisateurs doit primer ») et le principe de vigilance/réflexivité (l’IA doit être l’objet d’un « questionnement régulier, méthodique et délibératif »).