Presque un an après l’arrivée de ChatGPT, les technologies d’intelligence artificielle continuent de se développer rapidement. À tel point que beaucoup commencent à s’interroger sur les conséquences qu’elles pourraient engendrer sur l’environnement. Dans une note d’analyse, un expert a même déjà donné quelques chiffres sur la consommation d’électricité de ces nouvelles technologies.
Le créateur de Digiconomist, Alex de Vries, a publié une étude sur l’impact énergétique des intelligences artificielles (IA) génératives. Il prévient dans son rapport que l’expansion de ces solutions IT s’accompagne de retombées énergétiques conséquentes.
L’économiste invite alors les programmeurs à revoir l’utilité de toujours recourir à l’IA pour leurs projets. L’expert indique aussi que ces professionnels devraient se focaliser sur l’optimisation de cette technologie. Pour lui, la probabilité que les avantages prévalent sur les coûts de consommation énergétique est faible. Par ailleurs, tous les logiciels ne doivent pas forcément être alimentés à l’IA. Ces surcoûts peuvent de plus impacter les salaires, primes et donc le calcul des charges salariales.
Plusieurs méthodes de calcul possibles
Une méthode pertinente pour évaluer l’impact énergétique de l’intelligence artificielle passe par l’examen des ventes de cartes graphiques de NVIDIA. À noter que sur le marché des processeurs de traitement de l’IA, 95 % des parts appartiennent au fondeur américain. S’ils marchent à plein régime, les serveurs s’appuyant sur des puces de la firme consomment en électricité :
- 10,2 kW pour les appareils reposant sur les DGX H100 ;
- 6,5 kW s’ils se basent sur des DGX A100.
Les consultants IT portés envisageant d’utiliser ces matériels devraient considérer ces chiffres, sachant qu’ils peuvent engendrer des factures mensuelles énormes. Pour remarque, ce statut se situe à mi-chemin entre le freelancing et l’emploi classique. Ainsi, les travailleurs indépendants qui l’adoptent paient des charges salariales pour bénéficier d’une assurance chômage, des droits à la retraite…
Un autre moyen moins rassurant pour jauger la consommation électrique de l’IA est l’évaluation des besoins de refroidissement des serveurs. En outre, l’on doit souligner que l’engouement pour l’IA générative depuis l’année dernière engendre un effet de rebond sur l’impact énergétique.
ChatGPT consomme une quantité colossale d’électricité
Plus tôt dans l’année, Google et Microsoft ont mis en ligne respectivement Bard et Bing Chat, leurs robots conversationnels maison. Ces lancements font suite à l’expansion croissante des technologies d’IA après le franc succès du chatbot d’OpenAI : ChatGPT. Un logiciel déployé en novembre 2022 et qui a enregistré 100 millions d’usagers dès janvier 2023.
Selon le cabinet d’étude SemiAnalysis, ChatGPT a besoin de 3 617 serveurs NVIDIA HGX A100 pour tourner correctement. Au total, OpenAI se sert de 28 936 GPU pour son fonctionnement. La consommation électrique journalière de la firme à ce titre s’élève à 564 MWh. Ce besoin découle du mécanisme du logiciel. Le traitement du langage naturel et le processus de traitement passent par deux cycles : la formation initiale et l’inférence. À des échelles différentes, ces phases entraînent une facture électrique considérable.
Une autre source d’inquiétude se dégage si l’on prend l’hypothèse que toutes les recherches Google soient assorties d’IA générative. Dans ce cas, elles consommeraient 29,2 TWh d’électricité en une année et 80 GWh en un jour. Avec une recherche classique par mot-clé, la note est divisée par dix.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Votants: 0