Nate Soares fait partie des « doomers », ces chevaliers de l’apocalypse qui prédisent la fin de l’humanité provoquée par l’intelligence artificielle (IA). Depuis son laboratoire de Berkeley, en Californie, le Machine Intelligence Research Institute (MIRI), ce chercheur passé par Microsoft et Google a publié en septembre avec son collègue Eliezer Yudkowsky, fondateur du MIRI, une sévère mise en garde avec un livre intitulé If Anyone Builds It, Everyone Dies. Why Superhuman AI Would Kill Us All (« Si quelqu’un la construit, tout le monde mourra. Pourquoi la superintelligence artificielle nous tuerait tous », Little, Brown and Company, non traduit).

L’avertissement s’inscrit dans le fil des lettres ouvertes exigeant un moratoire sur l’IA, signées par les sommités de cette technologie début 2023, dont le Prix Nobel de physique Geoffrey Hinton et Yoshua Bengio, tous deux Prix Turing (l’équivalent du Nobel d’informatique) pour leurs travaux sur l’IA, et réitérées en octobre 2025. Ils ne sont pas seuls : Elon Musk a aussi estimé, fin 2024, lors d’un forum en Arabie saoudite, qu’il y avait de 10 % à 20 % de chances que « les choses tournent mal ». Expression reprise en septembre par le patron du géant de l’IA Anthropic, Dario Amodei : « Je pense qu’il y a 25 % de chances que les choses tournent vraiment très mal. »

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario