« La vérification de l’information par chatbot interposé renforce à terme la polarisation de nos sociétés »

A l’approche d’échéances électorales majeures en France, les réseaux sociaux annoncent suivre le modèle des « notes de communauté » du réseau social X pour lutter contre la mésinformation. Or ce dispositif révèle de nombreuses fragilités, aggravées par le recours aux chatbots intégrés à des fins de vérification des faits.

Les 15 et 22 mars doivent se tenir en France les élections municipales, suivies par les sénatoriales en septembre, puis par la présidentielle au printemps 2027. Ces échéances laissent présager une vague de mésinformation : des contenus faux ou trompeurs, susceptibles d’induire le public en erreur. Lors des dernières élections européennes en France, pas moins de 25 tentatives d’ingérence numérique étrangère [diffusion volontaire de mésinformation par un Etat dans le but d’en déstabiliser un autre] ont ainsi été détectées par Viginum.

Cette menace est amplifiée par l’inaction des grandes plateformes numériques, qui demeurent des vecteurs majeurs de diffusion de la mésinformation. Malgré l’entrée en vigueur, fin 2023, du Digital Services Act, le règlement européen sur les services numériques, censé contraindre les plateformes à réduire ce phénomène, l’exposition des utilisateurs européens à des contenus de mésinformation reste élevée. D’un réseau social à l’autre, la mésinformation varie, représentant jusqu’à 20 % des contenus consommés sur la plateforme TikTok chez les utilisateurs situés en France, en Espagne, en Pologne et en Slovaquie, d’après un rapport de collectifs de vérification de faits indépendants (fact-checkers).

A ce jour, les notes de communauté constituent la principale mesure de lutte contre la mésinformation déployée par X. Ouvert à l’ensemble des utilisateurs depuis début 2023, ce système participatif permet aux utilisateurs d’ajouter collectivement du contexte aux publications jugées trompeuses. Pour la plateforme, ce dispositif revêt un double avantage : une réduction des coûts de modération et une position de neutralité, requise par le statut d’hébergeur de contenus (par opposition à celui d’éditeur), moins strict en matière de régulation. Ainsi, début janvier 2025, le groupe Meta a annoncé remplacer son programme de fact-checking par un modèle fondé sur la participation des utilisateurs, directement inspiré des notes de communauté de X. Mi-avril, la plateforme TikTok a annoncé tester une fonctionnalité similaire.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario