II. FAIRE FACE À LA CRAINTE D'UNE MÉCANISATION DE LA MÉDECINE

A. LE SCÉNARIO REDOUTÉ DU ROBOT-MÉDECIN

Dès lors que les performances des IA se rapprochent de celles des médecins, ce qui est déjà le cas en analyse d'images, se pose la question du remplacement à terme de l'homme par la machine. Il est évident que les systèmes d'IA n'ont aujourd'hui pas la capacité à assurer une analyse complète des besoins du patient et n'interviennent que pour répondre à une question précise : localisation de tumeurs, identification de biomarqueurs, mise en forme d'informations médicales dispersées, etc. Une IA globale capable de prendre en charge un patient paraît à ce stade hors d'atteinte.

Mais l'expérience de la performance d'IA peut conduire à une automatisation de nombreuses tâches d'analyses complexes, contribuant à créer une nouvelle expertise de la machine, à laquelle on sera enclin à faire systématiquement confiance dès lors que l'on constate qu'elle se trompe rarement. Lors de son audition, le Pr Guillaume Assié soulignait que l'aide au diagnostic, lorsqu'elle fonctionne bien, pouvait rapidement se transformer en diagnostic automatisé. Avec l'automatisation, il existe un risque réel de déqualification de praticiens amenés à ne plus réaliser certains actes. L'expertise humaine sera transférée à un petit nombre d'hyper-spécialistes de l'ingénierie biomédicale numérique qui auront la lourde charge de qualifier les systèmes d'IA et de les surveiller.

L'intégration d'IA performantes dans les processus de soins pourrait conduire à une standardisation des procédures médicales, une meilleure application des protocoles de soins ou des bonnes pratiques correspondant au dernier état de la science. Il pourrait en résulter un bénéfice global pour les patients, avec une limitation des erreurs médicales et davantage d'égalité dans la qualité des prises en charge.

Pour autant, une confiance aveugle dans l'IA pourrait aussi amener à rater les cas particuliers, ou à ne pas pouvoir traiter des maladies émergentes, non répertoriées. L'entraînement des IA peut au demeurant avoir tendance à stériliser l'innovation. Dans son rapport à l'Académie nationale de médecine sur les IA génératives, le Pr Bernard Nordlinger note que « l'analyse rétrospective, si elle contribue à construire une base de travail ne peut suffire à générer des hypothèses originales, par essence prospectives et issues de la créativité et de l'inventivité du chercheur ».

Un autre souci connu est la propension des IA génératives, qui fonctionnent sur des modèles probabilistes, à produire des « hallucinations », c'est-à-dire des réponses fausses, certes rares, mais d'autant plus problématiques qu'elles peuvent être non détectables (voir rapport thématique n° 1 p. 23).

Le corollaire de cette évolution serait un déplacement de responsabilité du praticien vers le fournisseur de la solution informatique : la non-détection d'une tumeur par la machine ne pourrait pas être reprochée au radiologue, dès lors que l'analyse des clichés radiologiques est faite de manière automatique.

Le médecin serait alors réduit à un rôle de supervision et éventuellement de sélection des IA qu'il envisage d'utiliser pour son travail. Outre les difficultés techniques qu'il rencontre, la prise en charge médicale ne se résumant pas à une suite d'équations à résoudre et l'IA n'ayant pas une capacité globale d'analyse, ce scénario se heurte à de réels obstacles en termes d'acceptabilité sociale et éthique. Il est ainsi établi qu'on accepte moins bien les erreurs faites par des machines que celles faites par des humains. Le chemin vers une IA de confiance ne se confond pas avec une IA totalement autonome et une approche mécaniste de la santé.

Partager cette page