[AVIS D’EXPERT] Repenser la distribution électrique dans les datacenters pour réduire le risque de panne

En 1893, la compagnie Westinghouse entreprenait de déployer le premier réseau électrique des États-Unis, en exploitant le système du courant alternatif préconisé par le scientifique Nikola Tesla. Aussi étonnant que cela puisse paraître, la façon de distribuer l’électricité n’a pas beaucoup évolué depuis cette époque. L’histoire des datacentres, bien plus récente, subit la même inertie. Les hébergeurs redondent évidemment certains éléments (UPS, transformateurs) de la chaîne de distribution du courant, pour augmenter la disponibilité de leurs infrastructures. Mais ils en ont conservé le principe général. De quelle manière peut-on aujourd’hui optimiser la distribution électrique au sein des datacentres, qui représenteraient aujourd’hui entre 1,5 et 2 % de la consommation électrique mondiale ? Quelles sont les difficultés ? De quelle manière ces changements pourraient réduire le risque de panne ? États des lieux par Germain Masse, Dedicated Infrastructures manager chez OVH.

Intérêt économique VS réduction des « domaines de panne »

Lorsque l’on conçoit un datacentre, deux logiques s’affrontent. D’un côté, il y a la volonté de segmenter le plus possible la distribution électrique, en multipliant le nombre de « petits » transformateurs et d’UPS (aussi appelés « onduleurs »), ceci pour diminuer l’impact causé par la défaillance d’un équipement. De l’autre côté, cette stratégie augmente les coûts d’installation et de maintenance, et en définitive alourdit la facture du client final. Aujourd’hui, le point d’équilibre est généralement atteint avec le déploiement de transformateurs de 1 à 2 Mégawatts, en aval desquels sont installés des UPS d’une capacité de 400 kilowatts à 1 Mégawatt (à noter que les générations actuelles d’onduleurs sont souvent un assemblage de modules de 200 à 400 kW). Ces UPS, de par leur puissance électrique importante et leur criticité, nous obligent à accepter des domaines de panne (domain of failure) relativement importants, de l’ordre de 3 000 à 6 000 machines. (Les UPS sont sollicités dès qu’une coupure électrique survient, le temps de basculer sur une arrivée électrique de secours et/ou de démarrer les groupes électrogènes, ce qui prend entre 15 secondes et 1 minute).
Ce dilemme constitue un enjeu majeur dans les datacentres. C’est ce que nous appelons chez OVH le « domaine de panne ». En cas de défaut d’un équipement, l’ensemble des serveurs impactés se situent dans le même domaine de panne. Selon l’architecture bâtie, certains utilisateurs vont préférer regrouper des serveurs dans le même domaine de panne (dans le cas par exemple, où plusieurs serveurs doivent impérativement communiquer entre eux), ou au contraire éclater les machines entre différents domaines de panne (nécessaire pour un plan de reprise d’activité, par exemple). Pour répondre à ce type de besoins, OVH propose de localiser ses serveurs dans le datacentre de son choix (Roubaix, Gravelines ou Strasbourg en Europe ; Beauharnois au Canada). Nous souhaitons offrir un choix encore plus fin à nos clients, en proposant le choix de la baie. Un casse-tête logistique, mais un vrai plus pour les utilisateurs.

Et si l’alternative était le courant continu ?

Partout dans le monde, le courant électrique est distribué en AC (courant alternatif, ou alternating current en anglais). A contrario, les éléments qui constituent un serveur informatique (processeur, disques…) sont alimentés en DC (courant continu ou direct current en anglais) de 3,3 ; 5 ou 12 volts suivant les composants.
Le courant électrique arrive donc en AC à l’entrée du datacentre et subit de nombreuses transformations jusqu’à alimenter en courant continu les éléments d’un serveur. Quand on y regarde de près, voilà ce qu’il se passe dans un datacentre aux États-Unis :

Un minimum de logique voudrait qu’on supprime la phase de DC/AC et AC/DC entre l’UPS et le serveur. Mais le milieu de l’électricité n’évolue malheureusement pas aussi vite que celui de l’informatique…
Allons encore plus loin : pourquoi n’approvisionnerait-on pas directement les datacentres en courant continu ? Sur la base des travaux de Thomas Edison, l’électricité était à l’origine distribuée en courant continu. Simplement, pour diminuer les pertes lors du transport du courant (continu comme alternatif), il est nécessaire de baisser son intensité en élevant sa tension, en vertu du fameux effet Joule. Or, la modification de la tension d’un courant continu provoquait beaucoup de pertes énergétiques. C’est pourquoi les compagnies d’électricité donnèrent finalement raison à Nikola Tesla et son système de courant alternatif.
Aujourd’hui la donne a changé : on peut, à l’aide de composants d’électronique de puissance (plus connus sous le nom de convertisseurs) modifier la tension électrique d’un courant continu pour le transporter en limitant les pertes énergétiques. Le courant continu est d’ailleurs déjà privilégié sur les très longues distances ou dans le cas de câbles souterrains ou sous-marins, entre autres parce que seuls deux câbles sont nécessaires à son transport (contre trois pour le courant alternatif).
L’intérêt d’approvisionner les datacentres en courant continu, outre le fait de simplifier la chaîne de distribution électrique (réduire le nombre d’équipements = réduire le risque de panne), est la possibilité de coupler différentes sources d’énergie entre elles pour, selon les cas, augmenter la tension, l’intensité et la redondance. L’essor récent de nouveaux modes de production d’électricité, tels que le photovoltaïque ou les piles à combustible, favorisera probablement cette évolution. Mais celle-ci se heurte actuellement à deux freins. Le premier est économique : les équipements pour le courant continu ont un coût actuellement supérieur. Le second est psychologique : il s’agit tout simplement de la méconnaissance des opérateurs…

UPS dans la baie ou dans le serveur : quelle est la meilleure stratégie ?

Quelle que soit la stratégie choisie pour évoluer vers le DC – transformation AC/DC à l’entrée du datacentre, au niveau de l’UPS, au niveau de la salle ou de la baie, ou du serveur – il faut remplacer l’alimentation du serveur.
Microsoft a récemment divulgué, dans le cadre de sa contribution à l’Open Compute Project, les plans d’une alimentation de serveur incluant des batteries Li-ion (1). Une innovation que la firme a nommé Local Energy Storage (LES). Ce concept, en réalité, n’est pas nouveau, puisqu’en 2012 Supermicro annonçait la commercialisation d’alimentations de serveur avec batteries (2), 3 ans après que Google eut dévoilé utiliser ce procédé dans certaines de ses machines (3).
L’approche d’OVH est originale dans le sens où l’alimentation dans le serveur est remplacée par un simple étage de conversion DC/DC et, dans chaque baie électrique, un équipement (nom de code Altigo) prend en entrée un courant AC pour produire un courant continu (24 volts ou 48 volts suivant les cas).
Cette solution nous permet d’utiliser les mêmes batteries que celles des UPS standards, qui sont produites en masse. C’est aujourd’hui bien plus économique que d’installer une batterie au sein de chaque serveur. Mais cette situation évoluera peut-être, en fonction du succès commercial que rencontrera ce nouveau type d’alimentation avec batterie intégrée.

OVH a opté pour une approche intermédiaire,qui consiste à disposer une batterie en amont de chaque rack. Un compromis qui permet de réduire le domaine de panne tout en limitant les coûts.

(1) Microsoft Reinvents Datacenter Power Backup with New Open Compute Project Specification

(2) Supermicro® Servers Offer Industry-First N+N+N Battery Backup Power (BBP™) Module Technology

(3) « Google’s big surprise: each server has its own 12-volt battery to supply power if there’s a problem with the main source of electricity. »


Quand l’Amérique adopte les normes européennes

L’histoire d’OVH a commencé en Europe, et plus particulièrement en France, où la tension nominale est de 230 volts, en monophasé et avec une fréquence de 50 Hz. Le courant électrique est distribué en courant triphasé 400 volts. Aucune transformation n’est requise pour obtenir du 230 volts à partir de 400 volts ; il suffit de prendre la tension entre une phase et le neutre.
En Amérique du Nord, où OVH a implanté en 2012 un datacentre à Beauharnois (40 km de Montréal), la tension historique est de 120 volts (monophasé phase-neutre).
Afin de rationaliser leur production vis à vis des différents standards, les constructeurs d’alimentations électroniques ont conçu des systèmes fonctionnant suivant une large plage de tension : de 100 à 240 volts.
Cela a provoqué un engouement pour le 208 volts (monophasé phase-phase) en Amérique du Nord : meilleur rendement des alimentations, et plus de puissance pour un diamètre de câble identique. Toutefois, la distribution électrique aux États-Unis est traditionnellement en courant triphasé 480 volts (et 600 volts au Canada). Pour passer de 480 volts à 120/208 volts, il faut d’abord abaisser la tension à 277 volts à l’aide d’un transformateur. On obtient alors 120 volts entre une phase et le neutre (monophasé), et 208 volts entre deux phases.
En plus des pertes électriques, comme tout autre élément sur la chaine de distribution électrique, la nécessite d’un transformateur augmente le risque de panne. Enfin, c’est bien sûr un coût supplémentaire.
C’est pourquoi de plus en plus de centres de données implantés en Amérique du Nord utilisent les tensions européennes (240 volts), à l’instar d’OVH pour son centre de données de Beauharnois.
En savoir plus : Ils ont adapté les techniques d’OVH aux conditions nord-américaines


Le saviez-vous ?

À puissance identique, le courant alternatif à 50/60 Hz est plus dangereux que le courant continu, à cause des risques accrus de fibrillation ventriculaire et de tétanisation des muscles. C’est d’ailleurs pour le prouver (et tenter une campagne de dénigrement de son concurrent Westinghouse, promoteur du courant alternatif) que Thomas Edison a inventé… la chaise électrique.

+ posts