Le parquet de Paris a annoncé, mercredi 19 novembre, avoir étendu son enquête sur le fonctionnement de la plateforme X, propriété d’Elon Musk, à des « propos négationnistes » publiés par son intelligence artificielle (IA), Grok.
Dans la publication visée, qui fait aussi l’objet de plaintes de la Ligue des droits de l’homme (LDH) et de SOS Racisme, Grok affirme notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives ».
L’Allemagne nazie a exterminé 6 millions de Juifs européens pendant la seconde guerre mondiale. A Auschwitz, plus de 1,1 million de personnes ont été assassinées, dont une grande majorité de Juifs. Le Zyklon B est le gaz mortel utilisé pour tuer dans les chambres à gaz.
Les « propos négationnistes relayés par l’intelligence artificielle Grok, sur X, ont été versés à l’enquête en cours, diligentée par la section de lutte contre la cybercriminalité du parquet de Paris, et le fonctionnement de l’IA sera analysé dans ce cadre », a annoncé le ministère public.
Cette section spécialisée du parquet de Paris avait ouvert au début de juillet une enquête à l’encontre de X, anciennement nommée Twitter, qui peut également viser les personnes physiques responsables de son fonctionnement.
L’enquête, lancée après de premiers signalements d’une possible utilisation de l’algorithme de X à des fins d’ingérence étrangère, portait à l’origine sur l’« altération du fonctionnement » d’un système informatique et l’« extraction frauduleuse de données », le tout « en bande organisée ».
De leur côté, la LDH et SOS Racisme ont annoncé porter plainte pour « contestation de crime contre l’humanité ». Ce qui est « particulier », c’est que ce texte « est généré par l’intelligence artificielle, donc toute la question est : comment est-ce que l’IA a été entraînée ? », souligne Nathalie Tehio, présidente de la LDH.
Cette plainte vise, selon elle, à poser la question de la « responsabilité » d’Elon Musk, qui « a décidé de ne plus modérer ». « Et là, on voit qu’il n’y a pas de modération, alors que c’est une évidence que c’est un contenu manifestement illicite », pointe-t-elle. « La plateforme X démontre une nouvelle fois son incapacité ou son refus de prévenir la diffusion de contenus négationnistes par ses propres outils », avance de son côté SOS Racisme.