Presque du jour au lendemain, à cause de qui vous savez, tout ce qui pouvait passer en virtuel a quitté le monde physique. D’un point de vue énergétique, les conséquences ne se sont pas fait attendre : les émissions de CO2 liées à l’industrie et aux transports ont drastiquement chuté. Mais qu’en est-il de la demande énergétique liée à l’explosion de l’utilisation des services numériques? Les chiffres manquent encore pour que l’on puisse en mesurer l’impact, mais une chose est certaine, et Babak Falsafi, directeur du centre EcoCloud de l’EPFL, ne manque pas de la mentionner : «Derrière tout ce qui est numérique, il y a un centre de données. Nous nous dirigeons vers un monde où tout est numérisé. Toutes les activités, de tous les secteurs.»
«La pandémie a transféré beaucoup d’activités professionnelles en ligne, provoquant une augmentation de la demande, essentiellement pour de la vidéo. En outre, la demande pour du streaming de loisir a explosé. Et de surcroît sur des supports de haute résolution et donc plus gourmands en données et en énergie», résume le responsable. «Les gens ne réalisent pas ce que ça représente de regarder un film en 8k en termes de traitement, de transport de données et donc de consommation électrique. C’est gigantesque!»
Et ce n’est pas près d’être terminé. Le développement d’un vaccin prendra des semaines voire des mois, sans compter la deuxième vague. Nombre d’organisations, notamment dans le domaine de l’éducation, ont déjà annoncé que le virtuel allait continuer, au moins dans un format hybride pour les cours par exemple.
L’enjeu est phénoménal. Il l’était déjà avant la crise sanitaire. «L’Internet des objets, la prolifération de l’intelligence artificielle, l’arrivée de la 5G ou encore les poussées technologiques – comme le passage des téléviseurs de résolution 4k à 8k – vont faire exploser la demande. Et donc la consommation énergétique», rappelle Babak Falsafi. Entraîner un seul modèle d’intelligence artificielle du type «Transformer» pourrait émettre autant de CO2 que cinq voitures américaines au cours de toute leur vie, titrait la MIT Technology Review il y a un an. Autre exemple, Netflix a annoncé qu’en 2019 sa consommation énergétique avait augmenté de 84%, atteignant 451’000 mégawatts-heure soit autant que pour alimenter 40’000 foyers américains durant une année.
Certaines projections avancent que d’ici à la fin de la décennie 8% de la consommation d’électricité mondiale proviendront du numérique, provoquant 4% des émissions de CO2. Selon les estimations, la facture électrique se situe aujourd’hui entre 3 et 5% de l’énergie mondiale. Cela comprend, d’une part, les centres de données, dont les plus gigantesques atteignent déjà plusieurs centaines de mégawatts. Ces infrastructures physiques abritent des serveurs qui traitent, analysent, stockent et distribuent nos données, accessibles par le cloud. Et, d’autre part, dans une proportion équivalente, les réseaux qui les transportent. Dans une moindre mesure, on ajoute les appareils grand public et la construction.
Nous nous dirigeons vers un monde où tout est numérisé.
Parallèlement à l’explosion de la demande, l’offre fait face à une limite physique. La loi de Moore, qui énonce que le nombre de transistors contenus dans les microprocesseurs double tous les deux ans, atteint ses limites. On ne peut plus rendre le silicium plus dense comme on l’a fait au cours de 50 dernières années. La solution consiste donc à construire de nouveaux centres de données ou à agrandir les existants. D’ici à cinq ans, le marché de la construction des centres de données est estimé à 57 milliards de dollars.
Qui paie la facture «climatique»? «Personne!» répond Babak Falsafi. «Personne n’est responsable des émissions carbone. L’utilisation d’une connexion Internet est facturée par un opérateur mais les services des fournisseurs, comme la recherche Google ou Facebook, sont gratuits. Ces géants du numérique veulent récolter des données et les utiliser pour améliorer leurs services. Ce modèle ne tient donc pas compte de l’empreinte carbone puisque l’analyse énergétique se fait sur les centres de données et non pas sur les réseaux.» Edouard Bugnion, vice-président pour les systèmes d’information à l’EPFL, renchérit: «Les centres de données sont le conditionnement des changements technologiques sous une forme consommable. Ils sont le véhicule qui permet au cyberespace de se développer. Google n’existerait pas sans centres de données. Beaucoup de recherches à l’EPFL n’auraient pas fonctionné non plus.»
Depuis 2011, le centre EcoCloud de l’EPFL travaille à sortir de l’impasse physique du silicium en misant sur la technologie pour rendre les centres de données plus efficaces et réduire leur empreinte énergétique. A l’époque personne ne se préoccupait de cet aspect. Aujourd’hui le vent a tourné. «Il y a trois aspects à prendre en compte dans l’équation», résume Edouard Bugnion. «D’abord, l’efficacité énergétique du centre afin de l’améliorer. Ensuite, la quantité de carbone émise pour le faire fonctionner afin de se tourner vers des sources durables ou renouvelables. Enfin, l’utilisation de l’énergie produite par les machines qui se transforme en chaleur. Peut-on en faire quelque chose de plus que d’ouvrir les fenêtres pour chauffer le parking?»
En lançant leur label énergétique au début de l’année, EcoCloud et les membres de la Swiss Data-center Efficiency Association (SDEA) entendent maintenant quantifier combien de CO2 par kWh est généré par les centres de données. Avec le label, ils espèrent encourager l’adoption des énergies renouvelables dans les technologies de l’information. Parallèlement, EcoCloud génère des projets menés par des laboratoires de l’EPFL avec des partenaires privés sur les technologies de refroidissement, la gestion de l’énergie, le stockage de l’énergie, ainsi que la production d’électricité, le tout faisant partie d’un écosystème qui peut contribuer à améliorer les émissions de carbone des centres de données.
«En 2011, lorsque l’on a fondé EcoCloud, le but était de réduire la consommation électrique et les émissions carbone des centres de données, alors qu’à cette époque les grandes groupes IT n’accordaient de l’importance qu’aux aspects économiques et commerciaux», déclare Babak Falsafi, directeur du centre de recherche. «Nous avons développé des technologies pionnières qui ont introduit les énergies renouvelables dans l’écosystème des centres de données.» EcoCloud a pour mission de relever les défis majeurs du secteur ICT en stimulant l’innovation dans ce domaine, des algorithmes aux infrastructures.
Alors que la planète se tourne chaque jour un peu plus vers le numérique, les centres de données sont de plus en plus sollicités, ce qui induit une augmentation de leur consommation d’électricité. On estime que leur consommation énergétique pourrait atteindre 8% de l’électricité mondiale d’ici 2030.
Face à ce constat, acteurs académiques et industriels ont uni leurs forces pour créer l’alliance Swiss Datacenter Efficiency Association (SDEA). Initiée par digitalswitzerland and Hewlett Packard Enterprise (HPE), l’association regroupe EcoCloud, HPE, Green IT Switzerland, la HES de Lucerne, l’Association suisse des centres de données (Vigiswiss) et l’Association suisse des télécommunications (ASUT). Le projet est également soutenu par le programme SuisseEnergie de l’Office fédéral de l’énergie (OFEN).
«Il n’existe aucun moyen de mesurer la responsabilité des centres de données dans les émissions de CO2», souligne Babak Falsafi. En janvier dernier, la SDEA a donc lancé un label qui permet de calculer l’empreinte carbone des centres de données en se basant sur l’efficacité énergétique de l’infrastructure hôte, de l’infrastructure informatique et de la charge de travail de celle-ci. «Le label est unique car, en plus des critères de base, il prend en compte la source de l’électricité et l’efficacité du recyclage de la chaleur émise, explique Babak Falsafi. Cela fonctionne comme un ensemble: si on utilise des énergies renouvelables, on obtient de meilleurs résultats.»
Grâce aux trois labels (bronze, silver et gold), la SDEA veut inciter les exploitants à rendre leurs centres de données moins gourmands en énergie. D’après des tests menés dans dix centres en Suisse, la « boîte à outils » élaborée par la SDEA permet d’intégrer des mesures qui peuvent déplacer les besoins en électricité vers des énergies renouvelables jusqu’à 100%.
Il n’existe aucun moyen de mesurer la responsabilité des centres de données dans les émissions de CO2
Alors que le matériel informatique atteint ses limites, la seule option pour faire face à la demande croissante est de construire plus de centres de données. «Ce label arrive donc à point nommé», se réjouit Babak Falsafi. «On espère encourager l’intégration des énergies renouvelables dans les futures infrastructures et, par la même occasion, stimuler l’activité économique et l’innovation dans ce domaine.»
«Si l’on peut repenser la solution à un problème de manière plus efficace, et en consommant moins de ressources, on est durable. C’est ainsi que l’on peut dire que notre recherche est directement reliée à la question de la durabilité», avance Anastasia Ailamaki, professeure du Laboratoire de systèmes et applications de traitement de données massives (DIAS) et fondatrice de la start-up RAW Labs SA. Le DIAS construit des systèmes de gestion de données qui visent à exploiter au maximum le hardware et le software à disposition. Un véritable défi étant donné l’hétérogénéité de l’un comme de l’autre.
«Du hardware sous tension qui n’est pas utilisé, c’est du gaspillage énergétique», rappelle la professeure. Les humains consomment l’énergie de manière proportionnelle à leur activité, mais ils consomment de l’énergie aussi sans rien faire. C’est le cas aussi pour les ordinateurs : même quand ils ont une activité faible, ils restent de gros consommateurs d’énergie. «Or, les machines sont en moyenne utilisées à 20% de leur potentiel», poursuit la chercheuse. «C’est comme si on remplissait le frigo, laissait pourrir la nourriture et se plaignait ensuite de ne pas avoir à manger.» Idem pour les logiciels. «Aujourd’hui, on n’utilise que 10% des données que l’on stocke et pour les utiliser il faut d’abord les charger, les homogénéiser et savoir a priori ce que l’on veut en faire», déplore-t-elle.
Anastasia Ailamaki explique ceci par un exemple. «Prenons d’un côté une liste d’interviews de toutes sortes sous forme de fichiers Word et de l’autre un tableau Excel des entreprises qui investissent dans les start-ups de l’EPFL. Si je veux chercher dans mes interviews le nom des personnes qui ont parlé de durabilité et qui investissent à l’EPFL, c’est impossible. Si les données brutes ne sont pas chargées dans une base de données, on ne peut pas répondre à cette requête. Et, du fait que ce sont deux sortes de données différentes, à savoir du texte et un tableau, il faut les homogénéiser pour les charger dans une base de données.»
La solution que propose son laboratoire se trouve en amont de ces processus. «Au lieu d’homogénéiser les données, nous reconnaissons leur nature et, en fonction de la requête, nous leur donnons une forme mathématique. Le programme va alors générer du code pour exécuter la requête. En temps réel», détaille la chercheuse. Reste le problème de la performance. Si les données avaient été préchargées et la question posée à la base de données, l’exécution aurait été beaucoup plus rapide. «Notre solution consiste à utiliser l’intelligence artificielle et l’apprentissage automatique pour se souvenir et apprendre le style des questions posées. Nous gardons tout le travail réalisé lors des précédentes requêtes à disposition. C’est comme un cache qui permet de répondre beaucoup plus vite à la prochaine question posée sur les mêmes données.»
La philosophie de conception du système, appelée Just-In-Time (JIT), permet de poser tout type de question sur tout type de données, de marier des données de n’importe quelle source et, finalement, de créer un cache avec les données les plus fréquemment utilisées. C’est comme payer à la carte. En outre, si les applications, les données, les infrastructures changent, le système reste valable, car ce n’est pas du code, mais des mathématiques. La start-up RAW Labs SA applique cette philosophie en développant RAW, une solution qui combine des données diverses en temps réel et apporte ainsi les informations importantes prêtes à l’emploi aux entreprises et au grand public.
Et le hardware? Idem. Le mécanisme de génération de code sert à concevoir un logiciel qui cartographie les propriétés du hardware en temps réel et optimise son utilisation. «Avec notre système, l’utilisation des machines atteint 80% de leur potentiel», avance la chercheuse.
Notre solution consiste à utiliser l’intelligence artificielle et l’apprentissage automatique pour se souvenir et apprendre le style de questions posées.
Le Laboratoire de systèmes embarqués (ESL) s’attaque à deux problèmes énergétiques majeurs des serveurs. Le premier est le fait que les serveurs sont loin d’être utilisés au maximum de leurs capacités. Soixante pour cent, estime son directeur David Atienza. «Les serveurs sont conçus pour des tâches qui nécessitent beaucoup de puissance de calcul, comme les réseaux de neurones, mais ils sont essentiellement utilisés pour regarder des vidéos ou envoyer des photos de chats», résume David Atienza. Conséquence: ils chauffent. «C’est comme faire rouler une Ferrari à 40 km/h, elle consommera beaucoup si les gens l’utilisent comme une Twingo.»
Or quand une partie des éléments d’un centre de données chauffe beaucoup, en l’occurrence les serveurs, c’est l’entier du centre de données qu’il faut refroidir. Le projet Compusapien, qui a valu en 2016 une bourse ERC Consolidator au professeur, a démontré que le refroidissement local des serveurs permet d’économiser 40% de l’énergie habituellement utilisée. Au lieu d’avoir des ventilateurs dans toute la pièce, en collaboration avec IBM, les chercheurs ont utilisé de l’eau à proximité des serveurs non seulement pour les refroidir, mais aussi pour récupérer de l’énergie. Les plaques de refroidissement sont constituées de minuscules canaux microfluidiques, d’à peine 50 à 100 microns de hauteur. Pris en sandwich entre des couches, les canaux ont un double objectif : le fluide qui les traverse refroidit le système, tandis que des petites piles à combustible microfluidique convertissent la chaleur en énergie électrique. L’idée est de réintroduire cette énergie dans le système du serveur pour le faire fonctionner et réduire la facture énergétique des centres de données.
«Le cerveau utilise le même système, rappelle David Atienza. Le sang apporte à la fois les nutriments et refroidit le cerveau. C’est la même idée, même si pour les serveurs c’est un peu plus compliqué!» Si le refroidissement des serveurs à l’eau est aujourd’hui largement utilisé, la génération d’énergie pour les serveurs avec des piles à combustible microfluidique est complètement nouvelle. Un prototype a été réalisé avec IBM et a démontré la faisabilité de cette technologie baptisée «sang électronique». Aujourd’hui, l’ESL est en train de construire une version en 3D du système intégré, et compte mettre au point, à l’avenir, un serveur complet avec un autre partenaire industriel.
La deuxième voie empruntée par le laboratoire est le fait de traiter localement ce qui peut l’être, car l’envoi de données consomme beaucoup d’énergie. Spécialistes des systèmes embarqués, les scientifiques de l’ESL ont par exemple développé une machine à café avec Nespresso qui inclut l’intelligence artificielle embarquée afin d’être indépendante dans la gestion de sa maintenance et de son approvisionnement. «De plus en plus d’apps, dans les smartphones notamment, fonctionnent localement et ne passent plus par les centres de données», précise le chercheur. «Le corps humain fonctionne sur le même principe. Plein de petits modules sont capables de faire deux ou trois opérations très simples et, quand on en a besoin, on les utilise. Ce n’est que quand il y a une décision importante à prendre que le cerveau entre en jeu. Tandis que dans les datacenters tout est en permanence en fonctionnement.» ■
De haute densité, il aura à terme une capacité de 3 MW. Il servira à stocker, gérer et traiter essentiellement les données acquises par les chercheurs au cours de leurs expériences scientifiques. Ses façades et son toit seront entièrement recouverts de panneaux solaires, et la chaleur produite par les serveurs sera récupérée et utilisée par la nouvelle centrale de chauffe. Sa mise en service est prévue au deuxième semestre 2021. ■