
IA et soins : pour une médecine humaine et éclairée
Résumé
Cette rencontre-conférence, axée sur les usages actuels de l’IA en santé a fait la part belle aux partages d’expériences en croisant les approches et pratiques de 4 acteurs aux regards complémentaires.
Pour ce faire, nous avons réuni, au CHU de Liège, un panel interdisciplinaire : Jean-Baptiste Fanouillère, chercheur au sein du Spiral, Département de sciences politiques de l’ULiège et spécialisé en sociologie numérique, le Prof. Julien Guiot, Chef de clinique au Service de Pneumologie du CHU de Liège et Professeur Associé à la Faculté de Médecine ULiège, Michel Raze, Coordinateur du Service informatique et Chef des Applications informatiques au CHU de Liège, Delphine Gilman, Responsable des Relations Institutionnelles et Stratégie au CHU de Liège et Vincent Uyttendaele, Fondateur et CEO de InsiliCare, spin-off de l’ULiège.
La discussion a débuté avec le constat que l'IA est un concept protéiforme et souvent mal compris, particulièrement sur le terrain. Le terme "IA" est devenu un mot à la mode, fréquemment utilisé, notamment pour des raisons commerciales et économiques, mais dont la signification précise (types d'apprentissage, distinction faible/forte) reste souvent floue pour les praticiens. Il s’avère donc crucial de bien définir l'IA utilisée et son domaine d'application.
Une distinction a ensuite été faite entre différents types d'IA, notamment l'IA générative (comme ChatGPT) qui génère du langage à partir de "prompts" en accordant un poids aux mots pour produire une réponse cohérente. L'IA générative est décrite comme extrêmement spécifique, même si elle peut être appliquée à divers domaines comme l'aide au diagnostic en analysant rapidement de grands corpus de textes. Cependant, elle est potentiellement très biaisée en fonction des données utilisées pour son entraînement, ce qui peut conduire à des résultats moins efficaces ou erronés (exemple du mélanome sur peaux racisées).
Il a été rappelé que dans les soins de santé, les projets d'IA existants se concentrent principalement sur l'imagerie médicale. L'imagerie est jugée particulièrement bien adaptée à l'IA car la source des données (les images) est une machine, ne présentant pas de biais humains initial. Des systèmes ont été mis en place pour la détection automatique de fractures ou l'examen d'images aortiques et neurologiques, par exemple. L'IA dans ce domaine sert d'aide au diagnostic, apportant une précision supplémentaire et permettant de ne rien manquer, mais elle ne remplace pas le diagnostic du professionnel de santé.
Au-delà de l'imagerie, l'IA est également utilisée pour des usages non médicaux au sein des institutions hospitalières, tels que la logistique (gestion du circuit du médicament, par exemple). Dans ce cas précis, l'analyse de vastes bases de données logistiques peut permettre d'optimiser des processus, en prévenant la production de médicaments à des heures précises pour minimiser les retours. Un autre exemple est l'utilisation d'agents conversationnels pour la gestion des litiges de facturation avec les patients. Ces chatbots sont spécifiquement encadrés pour éviter de donner des conseils médicaux et renvoient vers un humain si le problème n'est pas résolu.
L'IA est perçue comme une aide potentielle à la décision clinique. Face à l'incapacité de l'œil humain à analyser la totalité des points dans des images complexes comme un scanner (des milliards de points), l'IA peut aider en analysant des modèles d'images et en identifiant des liens ou des "patterns" non évidents pour l'homme. L'utilisation de réseaux neuronaux et l'approche non supervisée permettent à l'ordinateur de chercher des liens au-delà des connaissances médicales préconçues, potentiellement en découvrant des corrélations inattendues (par exemple, des groupes de patients ayant le même comportement lié à un médicament). L'IA peut ainsi aider le praticien à voir au-delà de ce qui est mesurable individuellement. Un autre avantage est la réplicabilité : l'outil IA fournira la même réponse chaque fois qu'il mesure quelque chose.
Cependant, l'intégration de l'IA soulève de nombreux défis et points d'attention :
- La peur de perdre le contrôle : les médecins craignent de ne plus maîtriser le modèle IA et ses résultats, surtout s'il évolue dans le temps. La complexité de l'IA lui donne parfois cet aspect "boîte noire" difficile à comprendre même pour ses concepteurs ;
- La régulation : le droit est l'outil principal pour réguler l'IA. L'AI Act s'inspire du RGPD mais hérite aussi de ses faiblesses. La régulation prévoit une classification des risques, mais l'évaluation est souvent faite par l'entreprise elle-même. Les autorités de contrôle manquent de moyens humains et financiers, ce qui crée des failles. Par ailleurs, la lourdeur administrative et technique de la validation et de la certification réglementaire constitue un mur pour les entrepreneurs, empêchant des solutions cliniquement validées d'atteindre les patients. L'alignement des réglementations, notamment pour les transferts de données, est particulièrement difficile à l'international. La régulation de l'IA médicale est plus stricte que celle de l'IA logistique ;
- La responsabilité : la question de la responsabilité en cas de défaillance de l'IA est complexe. Bien que l'IA soit une aide à la décision, la décision finale revient toujours au clinicien, qui engage pleinement sa responsabilité. La responsabilité médicale doit être articulée avec l'IA ;
- Le consentement et l'information du patient : il est fondamental d'informer le patient de l'utilisation de l'IA dans son parcours de soins, au même titre que pour d'autres examens ou traitements. Le consentement est la base de la relation thérapeutique. Cependant, expliquer l'IA au patient est complexe en raison du manque de compréhension générale et de la difficulté pour le médecin lui-même d'expliquer l'outil dans ses détails. Le patient devrait avoir le droit de refuser l'utilisation de l'IA, ce qui pourrait devenir problématique si l'IA fait partie du standard de soin ;
- Les biais : outre les biais liés aux données d'entraînement, il y a un risque de reproduction de biais cognitifs dans l'IA générative où l'utilisateur est aussi apprenant du système ;
- La pression commerciale et l'imposition d'outils : les entreprises ont une démarche commerciale très agressive. Les fournisseurs de matériel médical intègrent de plus en plus de solutions IA, parfois créant un besoin qui n'existait pas ou n'apportant pas de bénéfice réel au patient, tout en étant coûteuses pour les hôpitaux. Il y a un risque que des systèmes IA soient imposés aux praticiens, développés avec des données potentiellement non représentatives de la population locale ;
- La demande accrue de données par les autorités : la "politisation" de l'IA et la pression des autorités pour collecter de plus en plus de données, justifiée par la perspective d'exploitation automatique pour piloter le système de santé, conduit à une explosion des demandes de données, consommant d'énormes ressources informatiques dans les hôpitaux. Cette demande grandissante peut sembler excessive par rapport au cœur de métier de l'hôpital qui est le soin. Aussi, les mécanismes de financement sont de plus en plus liés à la fourniture de données et d'indicateurs ;
- Le choix entre solutions internes et externes : L'acquisition de logiciels tiers étrangers sur lesquels les hôpitaux n'ont aucun contrôle rend difficile l'explication aux patients et limite la maîtrise des données et des modèles. Le développement en interne, bien que coûteux en ressources, permet de garder le contrôle, d'expliquer le fonctionnement aux patients et d'adapter les solutions ;
- Convaincre les parties prenantes : Le déploiement d'une solution IA nécessite de convaincre non seulement l'utilisateur final (médecin, infirmière), mais aussi les patients (bénéfice / absence de risque) et l'hôpital (coût et bénéfice financiers et organisationnels).
En guise de vœux pour une IA au service d'une médecine humaine et éclairée, plusieurs pistes ont enfin été évoquées.
Le politologue, Jean-Baptiste Fanouillère a rappelé l’intérêt de maximiser le travail interne ou en association (comme le Réseau Santé Wallon) pour maîtriser les logiciels et les données, et de s'assurer que l'IA répond à un réel besoin du patient (pas seulement à une opportunité commerciale). Il faut toujours se demander si le patient en bénéficie. Le médecin et professeur Julien Guiot a exprimé l’importance de mieux définir l’IA dans sa réalité pour le clinicien et pour le patient en termes de compréhension de l'outil, de son utilité et d'aide comme service tant au diagnostic que à la prise en charge des patients, tout en restant vigilant sur l'évolution des modèles et le maintien du contrôle. Du côté de l’administration du CHU, Michel Raze, a bien insisté sur le fait que l'IA est un outil, une intelligence différente, qui ne remplace pas l'humain, mais vient en complément. Il faut donc continuer à cultiver la diversité des moyens pour garantir la robustesse. Delphine Gilman, elle, a ajouté la nécessité de différencier le besoin du désir et de questionner l'utilité de l'innovation (pour qui et par rapport à quoi,) tout en reconnaissant que l'innovation se base parfois sur des besoins non encore formalisés. Et de rappeler que la réflexion permanente est essentielle, et qu’un hôpital académique est précisément bien placés pour cela. Enfin, du point de vue « entrepreneurial », Vincent Uyttendaele, lui, a fait le vœu du « bon sens », pour éviter de sur-complexifier les débats et de tuer l'innovation par trop de barrières, et de "l'ouverture" pour l'interopérabilité des systèmes afin de faciliter l'intégration et le remplacement des outils, réduisant les coûts et la dépendance aux grosses boîtes aux systèmes fermés.
En conclusion, l'IA en santé est un domaine plein de promesses, notamment dans l'aide au diagnostic via l'imagerie et l'analyse de données complexes, mais son adoption doit être prudente, bien définie et encadrée. Les enjeux éthiques, juridiques, économiques et organisationnels sont majeurs, nécessitant une réflexion collective et une volonté de garder l'humain (le patient et le soignant) au centre des préoccupations, en s'assurant que l'IA sert réellement le soin plutôt que d’autres impératifs excessifs d’ordre commercial ou administratif.