Le 11 septembre, le premier ministre albanais, Edi Rama, promut Diella, un agent programmé avec des techniques d’intelligence artificielle (IA), au rang de ministre chargé de prendre les décisions d’attribution des marchés publics. Objectif annoncé : lutter contre la prévarication, intention ô combien louable dans un pays connu pour ses problèmes de corruption. Pour autant, rien ne permet de dire que Diella disposera du sens de la justice, que les actions qu’elle préconisera seront bonnes et exemptes de parti pris. Rien ne permet non plus d’affirmer qu’on suivra ses recommandations, ni qu’elles limiteront effectivement les délits de concussion.
Que la proposition vienne d’Edi Rama fait quelque peu sourire, dans la mesure où il a exercé des fonctions politiques éminentes durant plus d’un quart de siècle et a donc une part non négligeable de responsabilité dans les turpitudes des gouvernants dans son pays. Quoi qu’il en soit, il n’est jamais trop tard pour bien faire, et il ne s’agit pas de décourager des initiatives vertueuses. Qui plus est, la volonté de faire adhérer son pays à l’Union européenne constitue peut-être une motivation tangible et respectable. On peut néanmoins se demander en quoi un agent artificiel serait plus intègre qu’un être humain.
Le premier argument qui vient à l’esprit tient au caractère systématique des machines : pour une même entrée, elles donnent toujours la même sortie. Régi par des algorithmes, leur fonctionnement n’est pas sujet à l’aléa, ce qui garantirait leur fiabilité. On rétorquera que les voyous sont eux aussi fort prévisibles dans leur comportement, en ce qu’ils volent toujours… La régularité n’est donc pas un gage d’honnêteté.
Plus sérieusement, lorsqu’on leur soumet le même prompt - c’est-à-dire la même consigne - plusieurs fois de suite, les machines programmées avec des techniques d’IA générative ne donnent pas toujours un résultat identique, car elles sont stochastiques. Ce caractère aléatoire conduit à ce qu’on appelle des « hallucinations », à savoir des erreurs, ce qui n’est guère rassurant, surtout s’il est question de confier à l’IA de hautes fonctions et les responsabilités qui les accompagnent.