Malgré l’explosion de la consommation de données et des services de cloud, la dépense énergétique des centres de données a été contenue depuis 2010. Google se voit comme un modèle du genre.
...
Un article du magazine Science établit même cette semaine que si la quantité de calcul effectuée dans les centres de données a augmenté d'environ 550% entre 2010 et 2018, la quantité d'énergie consommée n’aurait cru que de 6% au cours de la même période.
L'intelligence artificielle optimise le refroidissement
... Son vice-président des infrastructures, Urs Hölze, rappelle qu’une chasse incessante au gaspillage a été mise en œuvre à tous les niveaux. Des capteurs d’éclairage et de chaleur ont été installés pour réduire l’énergie dépensée. Mais surtout, des algorithmes d’apprentissage automatique sont utilisés depuis 2014 pour optimiser à la volée le refroidissement des machines.
« Aujourd'hui, en moyenne, un centre de données de Google est deux fois plus économe en énergie qu'un centre de données d'une entreprise basique. Par rapport à il y a cinq ans, nous fournissons environ sept fois plus de puissance de calcul avec la même quantité d'énergie électrique », a détaillé Urs Hölze.
D'après l'expert Frédéric Bordage, auteur du livre La Sobriété numérique paru en octobre 2019, les data centers représenteraient tout de même 15% des impacts du numérique. Mais il estime que leur efficience énergétique aurait doublé en moyenne ces quinze dernières années.
Source : Google https://blog.google/outreach-initiatives/sustainability/data-centers-energy-efficient
Ndlr :
- n'y a-t-il pas beaucoup de verbiage pour des boucles de régulation et d'asservissement tout ce qu'il y a de plus basiques (lumière, chaleur, énergie électrique) ?
- quelles données sur l'effet rebond et l'explosion combinatoire des usages ?
- Conclusion, l'IA MISe en avant n'est-elle qu'un attrappe nigauds ? technologisme ?!