Quand l’IA joue avec nos vies à l’hôpital

Urgences saturées, lits rares : l’intelligence artificielle Qventus, arrivée récemment sur le marché de la santé états-unien, promet d’optimiser la gestion dans les hôpitaux. Pourtant, son triage des patient·es trahit des biais discriminants graves, menaçant l’équité au profit d’une efficacité impitoyable.

« Automatisez les opérations hospitalières avec vos camarades IA », lit-on sur le site internet de Qventus, la société états-unienne derrière l’intelligence artificielle qui se veut révolutionnaire. Fondée en 2012, elle développait son IA qui avait pourtant encore tout d’un fantasme : celui d’une médecine parfaitement fluide, où les lits sont disponibles au bon moment, où les patient·es n’attendent plus dans les couloirs, et où les soignant·es, libéré·es des contraintes organisationnelles, peuvent enfin se recentrer sur les soins. Mais derrière cette promesse d’efficacité se cache un autre visage, celui d’un système qui hiérarchise les vies selon des critères parfois injustes. Au fil des années, Qventus a transformé cette vision en produit opérationnel, et l’entreprise a progressivement imposé ses solutions de gestion dans une grande partie des États-Unis : le magazine américain MedCityNews affirme que plus de 115 établissements hospitaliers utiliseraient ses services.

Mesurer la discrimination

Si Qventus et les autres IA développées en parallèle promettent au monde de la santé un avenir radicalement plus efficace, certain·es chercheur·euses ne les voient pas sous un si bon œil. Ses concepteurs, Mudit Garg et Ian Christopher, défendent une IA « éthique, sûre et responsable » via un guide de gouvernance, mais des études scientifiques indépendantes fleurissent depuis les années 2020, révélant des biais systémiques dans le triage et la priorisation des patient·es. 

Une de ces études, publiée dans Nature Medicine, montre que les algorithmes IA sous-diagnostiquent systématiquement les minorités ethniques, de genre et de statut socio-économique par rapport aux hommes blancs. Une priorité plus basse leur est assignée malgré des pathologies graves, en reproduisant les biais historiques des données d’entraînement. Et cela s’illustre par une étude parue en 2019 dans Science : elle révèle que l’IA Optum, utilisée pour les soins intensifs, discrimine les patient·es noir·es en se basant sur les coûts passés plutôt que la gravité clinique, les sous-estimant systématiquement malgré une maladie 26% plus avancée. Cela a exclu deux fois plus de personnes racisé·es éligibles des programmes de suivi, déclenchant fin 2019 une enquête de l’État de New York pour « codification de la discrimination raciale ».

C’est un constat qui n’est pas isolé. Un article publié dans Frontiers in Digital Health démontre qu’une IA entraînée principalement sur des données de patients blancs masculins peut produire des résultats inexacts ou injustes lorsqu’elle est appliquée à des femmes ou patient·es noir·es, prolongeant ainsi les inégalités sociétales existantes.

Le dilemme algorithmique

Qventus et ses clones posent un dilemme éthique proche de la doctrine du double effet conceptualisé par la philosophe américaine Philippa Foot (1920-2010). Cette théorie morale distingue les effets intentionnels d’une action des effets prévisibles mais non désirés. Foot la mobilise pour évaluer des situations où une action entraîne à la fois un bien et un mal, et l’illustre par le célèbre dilemme du tramway : un conducteur doit choisir entre continuer sur une voie où cinq ouvriers seront tués, ou dévier vers une autre voie où un seul ouvrier sera tué. Dans les hôpitaux saturés, les IA comme Qventus jouent ce rôle permettant la déviation. Elles priorisent l’optimisation et la rapidité au risque de « sacrifier » des patient·es issu·es de minorités, écarté·es pour libérer de la place, comme le soulignent les études scientifiques citées précédemment. 

Ce dilemme soulève des questions fondamentales sur la responsabilité, l’intentionnalité, et surtout l’éthique dans les systèmes intelligents. Contrairement à un humain, où l’empathie et le contexte tempèrent le choix, l’intelligence artificielle applique une logique froide augmentant les injustices, sans que personne n’en assume les conséquences.

Et si l’IA aggravait la crise ?

Plutôt que de libérer les soignant·es, Qventus risque d’imposer une logique de rentabilité où l’humain passe au second plan. Ses fondateurs vantent des « camarades IA » qui automatisent les opérations pour soulager le personnel, mais cette vision cache les biais profonds qui perpétuent les inégalités. Au-delà de ces dérives, des voix s’élèvent pour dénoncer d’autres problèmes liés à ces algorithmes, notamment pour les infirmier·es : « Les hôpitaux attendaient le moment où ils auraient enfin une solution suffisamment légitime pour remplacer les infirmier·es », a déclaré Michelle Mahon du National Nurses United à EuroNews. Qventus et ses clones risquent de transformer les hôpitaux en usines à patient·es, où l’efficacité se mesure en lits tournants, et non en vies sauvées. Il est temps, alors, de questionner : à qui, sincèrement, cette révolution technologique hospitalière profite ? 

Note : Les différentes citations ont été traduites de l’anglais par l’auteur et sont vérifiables, comme toutes les autres sources exposées, en cliquant sur les hyperliens.

Retour en haut