Histoire d’une notion. L’affaire est délicate. Prenons l’exemple d’un robot humanoïde auquel on aurait demandé de débarrasser une table le plus efficacement possible. Il pourrait découvrir que balayer la table d’un grand revers de bras, ou basculer violemment celle-ci vers l’avant, permet de la « débarrasser » en un temps record. Face à ce risque, l’ambition de garantir que la machine se comporte réellement comme nous le souhaitons est désignée par la notion d’« alignement », en particulier dans le domaine de l’intelligence artificielle (IA). Tout le défi est de maîtriser les techniques nécessaires pour y parvenir?, tant en matière de fiabilité, de sécurité que d’éthique.

« Dès le début de la recherche en robotique, les ingénieurs ont constaté que la définition d’une consigne pouvait générer des comportements inattendus, voire non acceptables », commente Mehdi Khamassi, directeur de recherche au CNRS rattaché à l’Institut des systèmes intelligents et de robotique de Sorbonne Université. Un ordre donné en langage naturel comporte en effet un grand nombre de dispositions implicites, fait-il remarquer : dans le cas du robot qui débarrasse, ne rien abîmer et ne blesser personne sont restés sous-entendus, parce que c’est évident pour un humain. « Et quand bien même ces dispositions sont énoncées, elles restent extrêmement difficiles à traduire de façon applicable par un système informatique », poursuit le chercheur.

La question de la coïncidence du comportement des machines avec les valeurs humaines est ancienne. C’est à la faveur de la démocratisation de l’usage des agents conversationnels de type ChatGPT que cette problématique s’invite désormais dans le débat public.

Rapidement montrées du doigt pour la propension de leurs produits à générer des réponses contenant des insultes, des propos diffamants ou inconvenants, ou des conseils pour se livrer à des activités illégales, les entreprises de l’IA investissent désormais beaucoup de ressources dans la phase d’« alignement » de leurs modèles. Durant celle-ci, les systèmes sont entraînés au respect des valeurs humaines à partir d’exemples, pour réduire la probabilité de sorties inappropriées ou immorales. Un apprentissage qui peut avoir lieu en amont, lors du développement de l’agent IA, ou en aval, une fois le produit sur le marché.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario