« Il faut réconcilier la révolution de l’IA avec nos objectifs environnementaux »

L’essor fulgurant de l’intelligence artificielle (IA) en fait une révolution technologique majeure, à l’instar de la machine à vapeur au XIX? siècle ou de l’électricité et des technologies de l’information au XX? siècle. Toutefois, à la différence de ces précédentes révolutions, toutes fondées sur une forte croissance des flux énergétiques, celle de l’IA devra s’imposer dans un contexte où la réduction des émissions de gaz à effet de serre constitue désormais une priorité mondiale.

Or, pour l’heure, l’explosion des usages de l’IA s’accompagne d’une hausse rapide et préoccupante de la consommation d’énergie. Plus inquiétant encore, une étude publiée en septembre du Centre for Economic Policy Research suggère qu’aux Etats-Unis l’insuffisante adaptation des infrastructures électriques a entraîné un recours accru aux énergies fossiles pour alimenter les centres de données.

Les grands modèles de langage (LLM), à l’origine de l’IA dite générative, contribuent de façon disproportionnée à l’augmentation de la consommation d’énergie : l’entraînement d’un seul modèle de pointe peut nécessiter plusieurs gigawattheures, et chaque requête consommer jusqu’à dix fois plus d’électricité qu’une recherche sur Google. Et cela ne prend même pas en compte le fait que les LLM sont encore dans une phase de développement précoce : pour l’heure, la course à la domination technologique pousse les champions mondiaux à construire des modèles de plus en plus complexes, la puissance de calcul doublant tous les cent jours.

Faut-il pour autant renoncer à tout espoir de réconcilier la révolution de l’IA avec nos objectifs environnementaux ? Notre réponse est non. En premier lieu, au cours de la décennie 2010, la consommation énergétique liée aux centres de données (data centers) a été contenue grâce aux gains d’efficacité énergétique spectaculaires des serveurs et des infrastructures.

La dynamique observée jusqu’à aujourd’hui paraît ainsi pouvoir être inversée par l’adoption d’un cadre institutionnel ambitieux, permettant de valoriser l’efficacité énergétique et le dimensionnement raisonné des modèles IA, selon les usages réels. Les premières recherches sur la question, dont une étude de l’Unesco publiée en 2025, montrent que la compression des modèles aboutit à des économies d’énergie considérables ; en particulier, l’adoption de petits modèles de langage (SLM), pour des applications spécifiques, réduirait la consommation énergétique d’un facteur 10 en conservant un haut niveau de précision.

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario