Des solutions numériques
pour piloter l’action publique

IA & Santé : mythes et réalités
IA & santé : la lutte vitale contre les biais

IA & santé : la lutte vitale contre les biais

Les acteurs de la santé se sont emparés de l’intelligence artificielle pour améliorer la qualité des soins et la prévention. Mais pour y parvenir, la lutte contre les biais sera indispensable pour créer de la confiance et favoriser l'adoption.

Les modèles d’intelligence artificielle permettent de personnaliser des e-mails publicitaires, de mieux segmenter une base de clients, d’améliorer le processus de fabrication d’un alliage… Mais ils peuvent aussi aider à la prise en charge de maladies comme le cancer.

Les professionnels de santé et l’écosystème de la santé dans son ensemble, centres de soin et groupes pharmaceutiques notamment, s’intéressent de près à ces technologies et méthodes algorithmiques

L’IA cœur de la médecine du futur… et d’aujourd’hui

“L’IA est en effet au cœur de la médecine du futur avec les opérations assistées, le suivi des patients à distance, les prothèses intelligentes, ou encore les traitements personnalisés grâce au recoupement de données”, souligne ainsi l’Inserm dans un dossier réalisé en collaboration avec l’AP-HP et le LIMICS (Laboratoire d’informatique médicale et ingénierie des connaissances pour la e‑santé).

Si l’intelligence artificielle est le futur de la médecine, elle en constitue aussi, et d’ores et déjà, le présent. L’Inserm rappelle, par exemple, la participation de son unité, le LIMICS, au projet européen Desiree, qui a pour but d’utiliser l’IA pour aider les cliniciens dans le traitement et le suivi des patientes atteintes de cancers du sein. « Ces maladies très complexes nécessitent en effet souvent des adaptations de protocoles classiques ».

Autre illustration avec l’Institut Gustave Roussy, premier centre de lutte contre le cancer en Europe, et Unicancer, qui unissent leurs efforts dans le cadre d’un nouveau consortium financé par l’État, PortrAIt. Leur mission commune consiste à “développer et déployer de nouveaux outils d’IA en pathologie numérique, afin d’améliorer à terme la prise en charge du cancer.” Au minimum, 15 solutions d’IA seront mises au point pour des finalités bien précises : accélérer le travail du pathologiste, détecter la présence de certains biomarqueurs ou encore prédire l’évolution des patients.

Prévenir l’indigestion de mauvaises données

Si l’univers de la santé s’empare de l’intelligence artificielle, il doit aussi tenir compte des risques associés, parmi lesquels les biais : ces orientations que l’on va involontairement introduire dans le processus d’entraînement de l’IA et qui risquent de fausser les résultats. Une problématique d’autant plus critique dans ce secteur que les usages peuvent avoir un impact direct sur la santé de patients.

L’IA de santé n’est pas immunisée contre ces biais. Un modèle est placé sous perfusion, entraîné, grâce à des données, qui peuvent être biaisées. Une décision basée sur de telles données présente donc le risque d’être elle-même erronée ou discriminatoire.

À la fin des années 70 déjà, l’IA de l’école de médecine Saint George de l’université de Londres discriminait les minorités ethniques et les femmes.

 

D’autres facteurs peuvent être à l’origine de biais. Il s’agit, entre autres, de la culture des organisations et de la personnalité des concepteurs. Si l’erreur est humaine, on la retrouve dès lors, presque logiquement, dans l’IA.

Les biais pourront résulter de données déséquilibrées, comme la sous-représentation d’une catégorie d’individus. Ils seront également la conséquence de choix de méthodes d’échantillonnage.

Le problème des biais n’est pas nouveau. À la fin des années 70 (déjà), l’école de médecine Saint George de l’université de Londres confiait à un système informatique le tri des CV. Pour cela, il se basait sur les recrutements déjà réalisés. Résultat : l’IA a perpétué un biais existant en discriminant minorités ethniques et femmes.

Data Scientists, les docteurs des algorithmes

Avec la démocratisation de l’IA, il est plus que critique d’intégrer des processus de détection et de prévention des biais dans les projets de développement des IA. Et compte tenu des sources des biais, les réponses à apporter à ce risque sont majoritairement humaines.

Des chercheurs du MIT l’ont souligné :“Le coupable n’est souvent pas l’algorithme lui-même, mais les données biaisées qui l’ont alimenté.” L’analyse des données et de leurs caractéristiques constitue donc une première étape.

Les technologies d’observabilité et de monitoring pourront suivre les distributions des données d’entraînement ou la mesure des écarts de prédiction entre sous-catégories. Des outils, pour beaucoup en open source, sont disponibles pour corriger et redresser les biais, pendant et après la phase d’apprentissage.

La législation européenne en cours d’écriture, l’AI Act, rendra bientôt obligatoires certaines mesures pour les IA les plus sensibles.

 

Mais la lutte contre les biais doit au départ faire l’objet d’une décision de l’entreprise et de ses dirigeants. C’est à eux que revient la responsabilité de mettre en place des process et des checklists de prévention des biais à destination des data scientists.

L’adhésion à des démarches concrètes en faveur d’une IA responsable constitue une solution. Des labels et certifications émergent et permettent ainsi de structurer des actions et de définir des rôles et responsabilités. La législation européenne en cours d’écriture, l’AI Act, rendra bientôt obligatoires certaines mesures pour les IA les plus sensibles.

En attendant, la priorité est d’anticiper la régulation. Cette approche est stratégique pour permettre la confiance et in fine tirer l’adoption de l’intelligence artificielle dans la santé où la confiance représente une valeur cardinale.

Partager sur Facebook
Partager sur Twitter
Partager sur Linkedin

Une réponse

  1. Pensez-vous que la gestion des biais dans l’intelligence artificielle en médecine est essentielle pour garantir la confiance des professionnels de la santé et des patients ? Comment pensez-vous que les entreprises et les institutions devraient aborder cette question de manière proactive ?

Laisser un commentaire

Sur le même sujet

Travail hybride : le SNAP de l’agent public

Piloter les territoires durables avec l’IA

Piloter les territoires durables avec l’IA

Comment le secteur hospitalier se saisit de l'IA générative

Comment le secteur hospitalier se saisit de l’IA générative

Soins intensifs : concilier IA et données sensibles avec la computer vision

Soins intensifs : concilier IA et données sensibles avec la computer vision

Au-delà du Buzzword

Au-delà du Buzzword : Data LakeHouse

À lire aussi

Vers la semaine en 4 jours dans la fonction publique ?

Vers la semaine en 4 jours dans la fonction publique ?

Et non pas « de » 4 jours.

Cyber Solidarity Act : quand l’Europe dresse son bouclier numérique

Au-delà du Buzzword : Data LakeHouse

Comment libérer l’utilisation secondaire des données de santé ?

Rodrigue Alexander (CHU de Martinique) : « L’IA, une réponse au défi de la démographie médicale »

CHU de Montpellier : l’IA au cœur d’un partenariat avec Dell

Newsletter

Suivez ITPublic

La boîte à outils

Découvrir l’ensemble des contenus