Alors que la rentrée s’annonce riche en salons et en conférences sur le sujet de l’intelligence artificielle (IA), notamment Adopt AI au Grand Palais à Paris les 25 et 26 novembre, nombreuses sont les annonces résolument optimistes laissant imaginer que l’IA pourrait résoudre la majorité de nos problèmes contemporains, tel un deus ex machina. Parmi ces promesses, l’idée que cette technologie serait irrémédiablement capable de révolutionner la santé et nos pratiques médicales s’impose aux yeux de tous. Dans ce technosolutionnisme ambiant, afin de convaincre les plus sceptiques, il est le plus souvent dit que l’IA ne remplacera pas les cliniciens, mais que les médecins qui l’utilisent remplaceront ceux qui s’en passent.
Cette injonction positiviste domine, multipliant les formules rassurantes répétées en boucle, tels des mantras, dont, notamment : l’humain restera le décideur final ; l’outil est neutre ; cela soulagera les utilisateurs des tâches fastidieuses et administratives pour lui laisser du temps pour des tâches plus nobles ; l’IA permettra de faire mieux avec moins ; cela diminuera la charge mentale ; c’est une aide, donc le résultat sera forcément meilleur. C’est sur cette dernière formulation que nous aimerions attirer l’attention, tant il paraît impensable d’envisager que la collaboration entre humain et IA puisse donner un résultat dégradé par rapport à celui escompté.
C’est ici une première faille méritant exploration. Si l’IA n’aide pas systématiquement, se pourrait-il qu’elle nuise, parfois, à la décision médicale, avec toutes les conséquences sanitaires qui en découlent ? Les travaux de recherche en ergonomie, en sécurité industrielle, et en facteurs humains permettent d’élucider le sujet et de lever le voile sur une réalité de la collaboration humain-IA qui s’avère complexe et ambivalente. En substance, lorsque l’IA n’est pas suffisamment fiable – notamment lorsque ses prédictions se révèlent correctes à 70 % –, il arrive que l’utilisateur ne sache pas systématiquement identifier les cas où la machine se trompe, le conduisant à prendre la mauvaise décision. A contrario, lorsque la performance de l’IA est nettement supérieure à l’humain, garder une stratégie de collaboration peut dégrader le résultat final.