Les messages d’alerte se multiplient autour des progrès de l’intelligence artificielle (IA) et des risques que cela pourrait faire encourir à l’humanité. Cette fois, ce sont plus de 800 scientifiques, personnalités politiques, entrepreneurs tech et célébrités qui appellent, mercredi 22 octobre, à l’arrêt des travaux visant au développement de la superintelligence artificielle, une IA capable de surpasser les capacités humaines.
« Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population », explique la page de l’initiative lancée par le Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de l’IA.
Parmi les signataires figurent plusieurs pères de l’IA moderne comme Geoffrey Hinton, prix Nobel de physique en 2024, Stuart Russell, professeur d’informatique à l’université de Californie à Berkeley, ou encore Yoshua Bengio, professeur à l’université de Montréal.
La liste comprend aussi des figures de la tech comme Richard Branson, fondateur du groupe Virgin, et Steve Wozniak, cofondateur d’Apple ; des personnalités politiques comme Steve Bannon, ancien conseiller du président américain Donald Trump, et Susan Rice, conseillère à la sécurité nationale sous Barack Obama ; des responsables religieux comme Paolo Benanti, conseiller du pape et principal expert du Vatican sur l’IA, mais aussi des célébrités comme le chanteur américain will.i.am ou encore le prince Harry et son épouse Meghan Markle.
La plupart des grands acteurs de l’IA cherchent à développer l’intelligence artificielle générale (AGI), stade auquel l’IA égalerait toutes les capacités intellectuelles des humains, mais aussi la superintelligence, qui la verrait aller au-delà.
Pour Sam Altman, patron d’OpenAI qui a donné naissance à ChatGPT, le cap de la superintelligence pourrait ainsi être atteint d’ici à cinq ans, a-t-il expliqué en septembre lors d’un événement du groupe médiatique Axel Springer.
« Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable », a déclaré à l’Agence France-Presse (AFP) Max Tegmark, président du Future of Life Institute, pour qui les entreprises ne devraient pas plancher sur ce type de travaux « sans aucun cadre réglementaire ».
« On peut être en faveur de la création d’outils d’intelligence artificielle plus puissants, pour guérir le cancer par exemple, tout en étant contre la superintelligence », a-t-il ajouté.
Cette action fait écho à une lettre de chercheurs et cadres du secteur de l’IA, publiée il y a un mois lors de l’assemblée générale des Nations unies, qui réclamait l’instauration d’« accords internationaux sur des lignes rouges pour l’IA » pour prévenir des effets dévastateurs pour l’humanité.