Attention

Votre navigateur n'est plus à jour et il se peut que notre site ne s'affiche pas correctement sur celui-ci.

Pour une meilleure expérience web, nous vous invitons à mettre à jour votre navigateur.

Quel est l’impact environnemental des IA comme ChatGPT?

Par Maxime Johnson
Quel est l’impact environnemental des IA comme ChatGPT? Tutti_frutti/Shutterstock.com

Chacune de vos interactions en ligne avec un outil d’intelligence artificielle a un coût environnemental, que ce soit en ce qui a trait à l’énergie ou aux matériaux requis pour développer ces systèmes. Il est toutefois possible de réduire votre empreinte.

Que ce soit pour générer une image ou pour traduire un article, les outils d’intelligence artificielle (IA) générative – la technologie qui se trouve au cœur des robots conversationnels comme Gemini et ChatGPT – ont des répercussions sur la planète.

Or ces effets se produisent souvent loin de vos yeux, contrairement au gaz rejeté par le tuyau d’échappement d’un véhicule.

« On ne réalise pas l’impact environnemental de ces outils parce qu’on ne le voit pas », a souligné Sasha Luccioni, chercheuse et responsable climat au sein de l’entreprise d’IA Hugging Face, à l’occasion d’une présentation faite à la conférence C2 Montréal en mai 2025.

C’est que les centres de données – qui servent à faire fonctionner l’IA, mais aussi la plupart des services numériques, de Gmail à Netflix – consomment beaucoup d’énergie. Aux États-Unis, ils étaient responsables de 4,4 % de toute la consommation en électricité en 2023, selon le département américain de l’Énergie. Par ailleurs, une étude de l’Université Harvard évalue qu’un peu plus de 56 % de l’électricité qui alimente ces centres provient d’énergies fossiles, dont le gaz naturel et le charbon.

Pourquoi l’IA consomme-t-elle autant?

Les modèles qui sont au cœur de l’IA générative, comme ceux d’OpenAI (GPT) et de Meta (Llama), nécessitent le traitement d’une quantité massive de données. Llama 4 Behemoth de Meta, par exemple, a été entraîné sur l’équivalent de 300 millions de livres de longueur moyenne.

Cet apprentissage requiert de puissantes puces graphiques. Selon Meta, l’entraînement des modèles Llama 4 a exigé plus de 100 000 cartes graphiques H100 de Nvidia, d’une puissance de 700 watts chacune.

D’après les estimations de Paul Churnock, ancien ingénieur électrique principal, Gouvernance technique et stratégie des centres de données, à Microsoft, chacune de ces cartes consomme environ 3 740 kilowattheures d’énergie annuellement, soit de 5 à 10 fois plus qu’un réfrigérateur moderne. Nvida aurait vendu aux entreprises d’IA entre 1,5 et 2 millions de cartes H100 en 2024 seulement.

Des cartes graphiques différentes (moins énergivores) sont aussi employées chaque fois qu’un utilisateur envoie une requête à un modèle d’IA en ligne.

Mentionnons que de l’eau est également nécessaire pour évacuer la chaleur générée par le matériel informatique dans les centres de données. Selon l’Agence internationale de l’énergie, les grands centres de données pourraient consommer jusqu’à deux millions de litres d’eau par jour pour refroidir leur équipement.

L’impact environnemental de l’IA en trois temps

 

1. La mise en place de l’infrastructure : l’équipement informatique dans les centres de données, notamment les serveurs et les cartes graphiques, génère d’importantes quantités d’émissions de gaz à effet de serre lors de sa production, en plus de nécessiter l’extraction de minéraux rares.

 

2. L’entraînement des modèles : chaque modèle d’IA nécessite un entraînement de plusieurs mois. L’impact environnemental exact d’un tel entraînement est difficile à estimer, puisque les détails de cette étape sont gardés secrets par les entreprises. Chose certaine, avant même qu’elle soit mise en ligne, une nouvelle version de Gemini ou de ChatGPT a déjà des répercussions importantes sur l’environnement.

 

3. L’utilisation : l’usage d’un modèle d’IA requiert aussi de l’énergie. D’après une enquête du MIT Technology Review, la création d’un prospectus et d’une vidéo de cinq secondes (en incluant quelques essais) demanderait autant d’électricité qu’un four à micro-ondes fonctionnant pendant plus de trois heures et demie. Les fournisseurs d’IA tels Google et Microsoft ne dévoilent pas où sont situés leurs serveurs lorsqu’une requête est envoyée à un robot conversationnel, mais près de la moitié des centres de données dans le monde sont établis aux États-Unis, et principalement alimentés par des énergies fossiles.

6 conseils pour réduire votre impact environnemental

1. Privilégiez les IA « locales »

Certains outils d’intelligence artificielle sont installés sur vos appareils, et non dans des centres de données. C’est le cas de la plupart des fonctionnalités d’Apple Intelligence sur l’iPhone, comme l’appli Image Playground, et de la transcription de fichiers audio sur les téléphones Pixel de Google. L’impact environnemental à l’utilisation – surtout au Québec, où l’électricité est verte à plus de 99 % – est donc minime.

ChatGPT.jpg

- La version payante de ChatGPT vous permet de choisir des modèles d’IA légers, qui consomment moins d’énergie. Photo : Maxime Johnson

2. Choisissez un modèle léger

Les robots conversationnels comme ChatGPT et Gemini vous offrent parfois la possibilité de poser vos questions à des modèles d’IA plus légers, qui nécessitent moins d’électricité pour fonctionner. En haut à gauche de votre navigateur web, sélectionnez une IA « Mini » dans ChatGPT (si vous avez un abonnement payant) ou « Flash » dans Gemini pour choisir un modèle du genre.

3. Évitez de surcharger le modèle

La longueur de la question (ce qui comprend les fichiers téléversés) peut avoir une incidence considérable sur l’énergie nécessaire pour générer une réponse. Évitez de fournir inutilement des documents volumineux ou de demander à un outil d’IA de rédiger un rapport approfondi si ce n’est pas absolument nécessaire pour vous.

4. Lancez de nouvelles requêtes

Plus une conversation avec un robot conversationnel est longue, plus sa « fenêtre de contexte » (la question qui lui est posée) est importante, puisque le modèle doit tenir compte de ce qui a été dit précédemment. Posez vos nouvelles questions dans une nouvelle conversation lorsque c’est possible.

5. Faites attention aux images et aux vidéos

La génération d’images, et encore plus de vidéos, s’avère beaucoup plus énergivore que la génération de texte. D’après une étude de 2023, générer une image pourrait demander autant d’énergie qu’une demi-recharge de téléphone intelligent.

6. Utilisez des outils spécialisés

Votre empreinte énergétique sera moindre si vous utilisez des outils spécialisés plutôt que des IA généralistes. Il vaut donc mieux faire traduire un texte par un outil de traduction comme DeepL plutôt que par ChatGPT.

Une IA plus écoénergétique, mais…

Plusieurs défenseurs de l’IA générative soutiennent que les améliorations apportées aux algorithmes et aux puces informatiques permettent de générer des résultats de plus en plus efficacement, en consommant moins d’énergie. « Mais les gens s’en servent de plus en plus, alors l’énergie consommée ne diminue pas », fait remarquer Sasha Luccioni. Ce phénomène – le paradoxe de Jevons – est le même que celui qui a été décrit au 19e siècle par l’économiste britannique William Stanley Jevons pour expliquer pourquoi la consommation de charbon augmentait, même si les machines à vapeur étaient de plus en plus efficaces.

Bientôt des centrales nucléaires pour alimenter l’IA

Les centres de données sont responsables d’environ 1,5 % de la demande mondiale en électricité, mais cette consommation pourrait doubler d’ici 2030, à en croire les projections de l’Agence internationale de l’énergie, en grande partie à cause de l’intelligence artificielle.

Les géants technologiques tels Amazon, Google et Microsoft prévoient que l’offre énergétique, surtout verte, ne sera pas suffisante pour répondre à la demande. En 2024, ces entreprises ont signé des promesses d’achat de 10 gigawatts d’énergie nucléaire – soit l’équivalent de cinq fois la puissance de la centrale hydroélectrique de Beauharnois d’Hydro-Québec – avec des entreprises énergétiques pour accélérer la mise en place de centrales nucléaires au cours des prochaines années.

Ces centrales utiliseront des réacteurs nucléaires de quatrième génération, conçus pour être plus sécuritaires que ceux qui sont en service à ce jour au Canada et aux États-Unis. « S’il y a surchauffe, ces réacteurs vont naturellement se stabiliser, même sans alimentation électrique. C’est en partie pourquoi nous avons investi massivement dans cette technologie », explique James Hamilton, vice-président principal et ingénieur distingué à Amazon. Ces centrales, plus petites et modulaires (il est possible d’augmenter la quantité de petits réacteurs avec le temps), peuvent aussi être construites à proximité des centres de données.

D’après une étude de la banque d’investissement Goldman Sachs, les nouvelles centrales nucléaires qui seront mises en service d’ici 2030 pourront toutefois fournir moins de 10 % de l’énergie nécessaire pour alimenter la croissance de l’IA.

L’environnement n’est qu’une partie du problème

Selon Sasha Luccioni, se concentrer sur l’impact environnemental de l’IA est une erreur. « Il y a trois piliers au développement durable : l’environnement, l’équité sociale et la viabilité économique », spécifie-t-elle. Se concentrer sur les émissions en CO2 (dioxyde de carbone) des modèles d’IA – ce qu’elle reconnaît avoir elle-même longtemps fait – met de côté de grandes parties des problèmes liés à ce type d’intelligence. Pensons au vol de propriété intellectuelle, aux pertes d’emploi ou aux inégalités entre les pays. « Et ça, nous commençons à peine à nous y intéresser », se désole la chercheuse.

À lire aussi : Comment limiter votre impact environnemental sur le Web

  Ajouter un commentaire

L'envoi de commentaires est un privilège réservé à nos abonnés.

Il n'y a pas de commentaires, soyez le premier à commenter.