L’intelligence artificielle et les centres de données pourraient consommer jusqu’à plus de 10% de l’électricité américaine dans les trois prochaines années, selon une étude soutenue par le département américain de l’Énergie, ce qui n’est pas sans poser de sérieux défis quant à la robustesse du réseau du pays.
L’annonce avait fait du bruit en septembre dernier. Microsoft déclarait vouloir relancer la centrale nucléaire de Three Mile Island, fermée depuis cinq ans, avec pour objectif d’assurer les besoins en électricité de ses centres de données utilisées pour l’intelligence artificielle.
Un exemple de la quantité toujours plus colossale d’énergie que réclame cette technologie, et ce n’est que le début : ces besoins vont tripler d’ici à 2028, selon une étude soutenue par le département américain de l’énergie. Le secteur consommera alors 12% de l’électricité produite aux États-Unis.
Il faudra en conséquence que les moyens de production suivent, d’autant plus que la demande est également croissante dans d’autres domaines, à mesure que le pays s’électrifie, notamment dans les transports et le bâtiment, afin de décarboner l’économie.
Pour répondre à cet enjeu, les auteurs de ce travail proposent plusieurs pistes, allant de l’installation de batteries longues durées sur les sites des centres de données jusqu’à la mise en place de miniréacteurs nucléaires, même si cette technologie n’est pas encore mature et cherche encore son modèle économique. Enfin, autre option envisagée, travailler sur l’efficacité énergétique de ces centres pour les rendre moins gourmands.
Rfi