David GRUSON, directeur programme santé du groupe Jouve et fondateur d’Ethik-IA
Vous avez remis à l’Institut Montaigne un rapport sur les impacts de l’IA sur les RH. Dans ce rapport, vous évoquez la notion de transfert de compétences. Quels sont les transferts de compétences du fait de l’IA ?
Nous vivons actuellement une véritable révolution dans la diffusion des cas d’usage de l’intelligence artificielle en santé. C’est une vraie lame de fond, encore principalement focalisée sur le champ de l’imagerie au sens large. Le mouvement concerne l’ensemble du système de santé avec une cinétique en accélération forte due à la nouvelle vague de l’IA générative. Pour autant, cette rapidité ne met pas en cause le constat que nous établissions dès 2019 dans ce rapport : le mouvement vers l’IA ne conduit pas à mettre en danger telle ou telle spécialité médicale. Nous assistons plutôt, comme en radiologie, à un mouvement plus large de repositionnement, d’une part vers des tâches à plus haute valeur ajoutée médicale comme le domaine interventionnel et, d’autre part, à une réarticulation avec les professions paramédicales adjacentes. En outre, nous observons un mouvement puissant – accentué par le « moment chat GPT » que nous vivons en 2023 – de diffusion de l’IA sur les fonctions supports et logistiques du système de santé. Il est majeur de pouvoir accompagner la transformation des métiers associés à ces fonctions, mais aussi de pouvoir systématiser la sensibilisation à l’IA dans les formations médicales et soignantes, initiales et continues.
En matière d’IA, la réglementation impose une garantie humaine. Vous parlez de tiers de confiance. Comment les établissements de santé doivent-ils/peuvent-ils s’organiser pour se constituer en tiers de confiance ?
Effectivement, nous avons porté depuis 2017 dans le débat public avec Ethik-IA ce principe de « garantie humaine », désormais repris dans la loi de bioéthique d’août 2021 et dans le règlement européen sur l’IA – l’AI Act – qui s’appliquera à tous à partir de mi 2025 avec le même niveau de force opposable et de sanctions financières que le RGPD.
Il est essentiel que puissent se constituer, à l’instar de ce que nous avons déjà fait aux côtés des acteurs du domaine bucco-dentaire ou de la radiologie, des écosystèmes de garantie humaine avec des tiers de confiance représentants d’aires thérapeutiques ou de groupes d’établissements. C’est ainsi que nous pourrons tenir le cap d’une régulation positive, voie d’équilibre entre le soutien à l’innovation par l’IA et la régulation de ses enjeux éthiques.
Vous observez un développement par niche, en silo de l’IA. Comment et pourquoi anticiper une mise en œuvre globale, une réflexion collective ?
Il est absolument essentiel de se poser ces questions collectivement. C’est ce que font la FHP et la FHP-MCO et je tiens à le saluer. Nous avons initié cette réflexion depuis plusieurs années maintenant avec Lamine Gharbi, et je constate avec satisfaction qu’une dynamique d’ensemble s’enclenche. Les acteurs de santé doivent se saisir de la révolution de l’IA pour s’y ouvrir, la réguler et non pas subir le mouvement. L’IA n’est jamais qu’un outil technologique et ce n’est pas à la technologie de dicter une stratégie médicale. Il appartient aux professionnels et aux établissements de mettre l’IA au service de l’amélioration de la qualité de la prise en charge des patients.