Autrefois, un rack de serveurs, c’était un simple meuble technique : quelques machines bien rangées, quelques kilowatts à fournir, et le tour était joué. Mais l’arrivée de l’intelligence artificielle a tout bouleversé. Aujourd’hui, les “racks IA” consomment vingt à trente fois plus d’énergie qu’un rack classique. Selon Lennox Data Centre Solutions, certains atteignent désormais jusqu’à un mégawatt par rack, soit l’équivalent d’une petite centrale électrique.
Cette explosion de puissance change tout : la chaleur dégagée devient un enjeu central, tout comme la stabilité électrique. Les centres de données passent progressivement au courant continu haute tension (+/-400 volts) pour limiter les pertes et réduire la taille des câbles. Chaque watt compte, et chaque choix technique influe directement sur la performance. Comme l’explique Ted Pulfer, directeur chez Lennox, « le refroidissement, autrefois secondaire, est désormais au cœur du métier. Les charges de travail liées à l’IA imposent des approches inédites, comme le refroidissement liquide ».
Concrètement, les data centers font circuler du liquide dans des plaques froides fixées aux composants les plus sollicités. Microsoft, de son côté, expérimente la microfluidique : de minuscules canaux gravés directement dans le dos des puces laissent passer le liquide au plus près du silicium. Résultat : une dissipation thermique jusqu’à trois fois plus efficace et une température réduite de 65 % sur les GPU selon la charge. L’IA elle-même vient prêter main forte en identifiant, en temps réel, les zones les plus chaudes pour adapter le flux de refroidissement. Cette course à la puissance crée aussi des opportunités pour les acteurs plus agiles, capables de proposer des solutions innovantes là où les géants peinent à suivre la demande. Alors oui, ces infrastructures avalent des mégawatts, mais pas de panique : malgré l’appétit grandissant de l’IA, on reste encore loin d’une crise énergétique.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.