L’intelligence artificielle n’est pas seulement performante, elle est aussi extrêmement énergivore. ChatGPT, en particulier, nécessite d’énormes quantités d’électricité, tant pour traiter les millions de requêtes quotidiennes de ses utilisateurs que pour son entraînement.
Selon l’étude How Hungry is AI ?, les requêtes journalières de ChatGPT représentent environ 2,5 milliards d’interactions, soit près de 7 832 GWh par an, l’équivalent de la consommation annuelle de 1,6 million de foyers français.
Mais l’impact environnemental le plus significatif réside dans l’entraînement des modèles, indispensable pour leur permettre de comprendre les données et de générer des réponses pertinentes. L’entraînement initial d’un modèle comme GPT‑4 aurait ainsi consommé près de 50 GWh, soit autant que San Francisco pendant trois jours, ou la consommation annuelle d’environ 4 000 foyers français. En termes plus concrets, cela correspondrait à recharger 3,3 milliards de fois un smartphone.
Cette consommation ne se limite pas à l’entraînement. Faire fonctionner ChatGPT dans des environnements comme Google Search nécessite des centaines de milliers de serveurs haute performance, ce qui accentue encore l’impact écologique. Le calcul précis reste difficile, les géants technologiques partageant peu de données sur la consommation réelle de leurs centres de données.
Ces chiffres soulignent les enjeux environnementaux majeurs liés à l’intelligence artificielle, invitant à repenser la manière dont ces technologies sont développées et déployées.