Faut-il avoir peur de l’intelligence artificielle en santé ?

MACSF Exercice Professionnel
Notre expertise sur la responsabilité médicale
       et votre exercice professionnel

Faut-il avoir peur de l’intelligence artificielle en santé ?

  • Réduire le texte de la page
  • Agrandir le texte de la page
  • Facebook
  • Twitter
  • Messages0
  • PDF
  • Imprimer la page
  • IA, salle d'opération

L’intelligence artificielle (IA) s’invite aujourd’hui dans toutes les discussions et dans tous les secteurs économiques. Epouvantail pour les uns, « Saint Graal » pour les autres, l’IA n’épargne pas le domaine de la santé.

Conscient des enjeux, notamment éthiques, de cette course technologique, le Conseil national de l’Ordre des médecins (CNOM) a publié en janvier 2018 son livre blanc « Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle ». L’occasion pour nous de revenir sur ce que signifie exactement l’IA en santé, quels sont ses apports mais aussi ses risques potentiels.

  • Pharmacien
  • Vétérinaire
  • Médecin généraliste et urgentiste
  • Chirurgien-dentiste
  • Sage-femme
  • Etablissement de santé
  • Interne
  • Infirmier
  • Masseur-kinésithérapeute
  • Autres paramédicaux
  • Médecin spécialiste
Auteur : Stéphanie TAMBURINI, Juriste / MAJ : 12/02/2018

Mais au fait : qu’est-ce que l’intelligence artificielle ?

Nous entendons chaque jour ce terme d’intelligence artificielle, parfois employé à mauvais escient. Il peut effrayer car il accole les termes d’ « intelligence », c’est-à-dire une capacité mentale et cognitive à évoluer dans son environnement, au terme « artificielle » qui renvoie, certes, à ce qui n’émane pas de la nature mais du travail de l’Homme, mais peut aussi évoquer l’idée de « factice ». D’où, peut-être, certaines réticences à l’égard de ce nouveau concept.

Nouveau ? Pas tant que cela. Le terme existe depuis les années 50. Bien plus complexe qu’il n’y paraît, il a beaucoup évolué au cours des années, au rythme des nouvelles méthodes d’apprentissage (machine learning, deep learning), et nul doute qu’il évoluera encore ces prochaines années.

Autrefois, la définition de l’IA se résumait à celle de l’algorithme1. Aujourd’hui, l’IA peut être définie, plus généralement, comme la capacité d’une machine (c’est-à-dire un « objet » capable d’agir, par lui-même ou sous le contrôle de l’homme) à reproduire des actions ou des fonctions qui sont habituellement celles des êtres humains (homme ou animal).

A cet égard, le développement du deep learning2 a beaucoup contribué à faire évoluer la machine d’un comportement d’imitation et de reproduction d’actions vers un comportement de plus en plus « intelligent ».

On est donc bien loin de la simple « robotique » utilisée parfois, à tort, comme un synonyme de l’IA.

On précisera enfin que les spécialistes distinguent deux types d’IA :

  • l’IA faible, qui s’entend de l’exécution d’un programme préalablement défini et réalisé par l’homme ;
  • l’IA forte, qui va beaucoup plus loin puisque la machine est alors capable de produire, mais aussi de comprendre, un comportement intelligent, voire à en tirer de nouvelles compétences. Les « super IA », définies comme celles ayant des capacités supérieures à l’homme, sont aujourd’hui surtout évoquées par ceux qui alertent sur les dangers de l’IA.

Quelles applications de l’IA en matière médicale ?

Il est impossible d’être exhaustif, tant les applications « techniques » de l’IA en santé sont diverses.

Comme le rappelle le CNOM dans son livre blanc, on peut schématiquement regrouper, sous la bannière de l’IA, les outils suivants (sans exhaustivité) :

  • aide au diagnostic, par exemple en croisant des milliards de données ou en analysant des images ;
  • chirurgie robotique qui, pour impressionnante qu’elle puisse être, reste cependant majoritairement à la main de l’homme ;
  • réalité virtuelle : par exemple, les lunettes 3D peuvent être portées par les patients pour des actes de chirurgie éveillée, ou par les chirurgiens pour « modéliser » le patient et gagner en précision, comme ce fut le cas début décembre 2017 pour la pose d’une prothèse d’épaule à l’hôpital de Bobigny ;
  • applications en santé et objets connectés qui permettent aux patients de s’impliquer davantage dans leur propre prise en charge, et au soignant d’assurer une surveillance plus régulière et approfondie ;
  • tests génétiques permettant de prédire le risque et le taux de survie pour, par exemple, certains cancers ;
  • exploitation de données dans la recherche, qui permet notamment de pratiquer une recherche inversée3 et d’accélérer les processus ;
  • imprimantes 3D qui permettent de réaliser des dispositifs médicaux sur mesure en peu de temps ;
  • serious games et simulation, de plus en plus utilisés dans la formation des professionnels de santé ;
  • exploitation à grande échelle des données de santé (le fameux Big Data, ou méga données).

Et dans la relation de soins ?

Là aussi, les exemples ne manquent pas : « robots animateurs » en maison de retraite, destinés à stimuler les résidents sur le plan cognitif ou à les « divertir », robots humanoïdes qui interagissent avec des enfants en pédiatrie ou en pédopsychiatrie, « robots d’accueil » entraînés à dialoguer avec les patients et à détecter leurs émotions (!) pour adapter leur discours, coaches virtuels, agents conversationnels en santé mentale, etc.

C’est dans ce domaine que l’intrusion massive de l’IA pose le plus de problème en termes d’éthique. En effet, la relation soignant/patient est au cœur même du soin. S’il est largement admis par tous que l’IA peut faire gagner en efficacité, en précision et en rapidité pour des actes techniques, déléguer à une machine le rôle relationnel du soignant peut apparaître bien plus choquant.

C’est dans ce relationnel que s’établit la relation de confiance, gage de qualité des soins. Confier cet aspect à un robot peut certes présenter des avantages, dans un contexte de pénurie de personnel et/ou de rationalisation des coûts, mais risque aussi de faire perdre un élément essentiel de la prise en charge : le colloque singulier, l’empathie, conduisant à une déshumanisation de la relation.

Conscient de cette possible dérive, le CNOM rappelle dans son livre blanc que « le médecin doit se souvenir qu’il soigne une personne qui est malade et qu’il ne combat pas seulement la maladie dont un individu serait atteint. (…) L’empathie médicale aide à guérir. »

Quels risques ?

L’IA est indéniablement le sujet du moment. Tous les jours, les médias, spécialistes comme généralistes, se font l’écho de telle ou telle expérimentation, tel ou tel exploit de la machine, même le plus futile. Dans cette avalanche d’informations vont nécessairement se glisser quelques inexactitudes sémantiques, quelques nouvelles « sensationnelles » mais dénuées de tout intérêt scientifique. Elles vont alimenter les fantasmes du public, soit dans le sens d’un enthousiasme débordant et parfois injustifié, soit au contraire dans le sens d’une peur irraisonnée à l’égard de ces machines toujours plus intelligentes et donc potentiellement menaçantes…

Sans aller jusqu’à imaginer des « robots tueurs » qui, comme dans un film de science fiction, se rebelleraient soudainement contre l’humanité, force est de constater que l’IA comporte certains risques, qu’il est difficile de lister :

  • Atteinte à la vie privée et violation du secret professionnel lors de l’exploitation des données personnelles, d’autant que de nombreuses voix s’élèvent pour demander l’assouplissement des règles en la matière pour éviter de freiner certains usages de l’IA. Sur ce point, la CNIL reste ferme quant à la protection des données. Il se pose également la question de la possible perte de données, ou de leur utilisation à des fins malveillantes.
  • Disparition de certains emplois qui pourraient être remplacés par des procédés d’IA, même si le CNOM considère cette crainte comme infondée, convaincu de la persistance de la relation humaine dans le domaine de la santé. Il n’en demeure pas moins que la formation, initiale et continue, devra se mettre au diapason de l’IA pour permettre aux professionnels de santé de s’adapter aux évolutions de leurs métiers.
  • Déshumanisation de la relation : selon le baromètre santé 360° réalisé par Odoxa en 2018, 6 français sur 10 ne seraient pas prêts à interagir avec un robot dans le domaine de la santé.
  • Responsabilité en cas d’erreur de la machine : qui sera responsable, dès lors qu’à l’heure actuelle, il n’existe pas de régime juridique particulier dans ce domaine ?
  • Opacité des algorithmes qui ne permettent pas à l’homme de toujours garder la main sur la machine : dans son livre blanc, le CNOM souligne l’impossibilité d’analyser le raisonnement de la machine ayant abouti au résultat dans le cadre du deep learning. La crainte de voir une IA « échapper » à tout contrôle de l’homme devient alors réelle. Si, aujourd’hui, il est encore communément admis que la machine, bien qu’ayant des capacités supérieures à l’homme, manque du « bon sens » humain, qui nécessite d’avoir une connaissance globale d’un problème, et non pas segmentée, qu’en sera-t-il si, dans quelques années, les progrès permettent à l’IA de s’affranchir de tout contrôle de l’homme ?

Ces risques – déjà existants ou potentiels - ne doivent pas conduire à l’immobilisme. D’où l’utilité de rechercher un moyen d’accompagner les développements de l’IA, sans les freiner, mais en limitant les risques de dérives.

L’éthique et le droit souple : des solutions pour accompagner l’IA ?

Si certains – et notamment des juristes – appellent de leurs vœux une réglementation spécifique à l’IA, la plupart des spécialistes s’accorde plutôt à préférer un « encadrement » plus souple. Ainsi, dans ses 33 recommandations, le CNOM invoque le recours à la « soft law », système de droit souple qui permet de réguler un sujet de manière beaucoup moins rigide et lourde que l’encadrement législatif classique. Ainsi un domaine peut-il se trouver régulé sans pour autant que son développement ne soit freiné par de trop lourdes contraintes.

De plus en plus de voix s’élèvent, y compris parmi ses plus ardents défenseurs, pour demander l’intégration de l’éthique au cœur de l’IA, notamment lorsque les machines ou les robots sont amenés à jouer un rôle social, « humain » aux côtés du patient.

Dans son livre blanc, le CNOM est clair : « Dans ce tourbillon technologique en marche accélérée, nous devons nous proposer – l’Ordre en tout cas – de réussir à organiser et assurer la complémentarité entre l’homme et la machine, le premier conservant la capacité éthique de garder toujours le dernier mot ».

L’éthique, qui doit toujours guider la démarche du professionnel de santé, constituerait sans doute le nécessaire contrepoids à un développement aveugle et sans limite de l’IA. Il serait ainsi fait un compromis acceptable entre les partisans d’une « course à l’IA » et ceux, plus circonspects, qui s’inquiètent de ses possibles dérives.

Le débat ne fait que commencer.

Notes

(1) Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. (Larousse).

(2) De façon très simplifiée, la capacité de la machine à apprendre par l’exemple, par « entraînement », sans avoir été spécifiquement programmée par l’homme pour le faire

(3) Au lieu de partir d’une hypothèse sur laquelle on réalise des croisements de données et des tests, on croise les données pour permettre l’émergence d’hypothèses auxquelles l’homme n’aurait pu penser seul

0 Commentaire

Publier un commentaire