Refroidir les datacenters en plein réchauffement climatique

Refroidir les datacenters en plein réchauffement climatique

L’été 2022 et ses vagues de chaleur successives ont démontré que le réchauffement climatique est bel et bien une réalité. De fait, maintenir une température basse dans les datacenters s’avère être un défi des plus complexes, à la fois très coûteux et gourmand en énergie. Par ailleurs, il y a fort à parier que ces besoins se renforcent à cause des volumes de données qui ne cessent d’augmenter.

Les acteurs du secteur du traitement et du stockage de données sont donc familiers avec l’expression « garder la tête froide ». En effet, tout responsable de datacenter est conscient qu’il est nécessaire de trouver l’équilibre entre températures constantes et consommation énergétique efficace, mais également de répondre en parallèle aux besoins de l’entreprise. Même si l’on peut compter sur l’aide de technologies spécialisées dans le refroidissement de composants, installer ou adapter ces dernières dans des datacenters existants peut parfois s’avérer être un exercice compliqué. Par chance, il existe également des stratégies pratiques et durables que l’on peut explorer à l’aide d’une solution holistique.

publicité

Refroidir l’air

Il est essentiel que chaque datacenter soit doté d’un système de climatisation performant. Par ailleurs, les organisations ayant les fonds nécessaires peuvent bâtir leur datacenter sous des climats plus froids pour refroidir ainsi convenablement leur structure. Hélas, cette option n’est réalisable que pour une poignée d’entre elles.

Tout d’abord, il faut déjà s’assurer que les systèmes CVC disposent d’une alimentation électrique stable. En effet, pour assurer une bonne continuité d’activité et prévoir un plan d’urgence en cas de perturbation, il est primordial d’installer un générateur de secours, autant pour les technologies de refroidissement que pour les systèmes de traitement et de stockage. Ainsi, en cas de coupure de l’alimentation principale – et de celle de secours -, les plans de continuité d’activité et de reprise après sinistre devraient déjà indiquer les procédés à suivre.

Investir dans du matériel plus fiable et plus durable paraît donc être une bonne initiative pour limiter l’impact de ces températures, qui ont atteint de nouveaux sommets en termes de chaleur. Par exemple, contrairement à des solutions à disques mécaniques, il est préférable de se tourner vers une solution de stockage flash, qui est de loin la plus apte à gérer une hausse importante des températures. Cela signifie que, malgré des températures élevées, les performances restent constantes et la sécurité des données est assurée.

Comment réduire sa consommation énergétique

Les services IT devraient se pencher sur les trois stratégies suivantes qui, une fois combinées, permettent de diminuer les besoins en énergie tout en refroidissant les datacenters :

Opter pour des solutions plus efficaces

Puisque chaque matériel consomme de l’énergie et dégage de la chaleur, les services IT devraient se mettre en quête de matériel plus efficace et ayant une faible empreinte dans le datacenter afin de maintenir les températures – ainsi que les coûts – au plus bas. Lorsqu’elles doivent sélectionner les composants qui viendront constituer leur datacenter, de plus en plus d’entreprises prennent en considération leur efficacité sur le plan énergétique. Par exemple, si l’on se tourne vers le marché du traitement et du stockage de données, les métriques clés évaluées comprennent notamment la capacité et la performance par watt.

Comme le stockage des données représente une partie importante du matériel utilisé dans la construction de datacenters, la mise à niveau vers des systèmes plus fiables et plus durables permet de réduire de façon significative l’empreinte énergétique et liée au refroidissement à l’échelle du datacenter.

Mettre en place des architectures désagrégées

Aujourd’hui, la mode est au Direct Attached Storage et aux systèmes hyperconvergés. De nombreux fournisseurs mettent en avant les gains que peut apporter le regroupement de systèmes de traitement et de stockage au sein d’une HCI (ou infrastructure hyperconvergée). Si ces gains sont bel et bien réels, ils découlent surtout des délais réduits de déploiement et du nombre plus faible d’équipes impliquées, et n’apportent rien en termes d’efficacité énergétique. La réalité est que le Direct Attached Storage et les systèmes hyperconvergés dépensent une grande quantité d’énergie… pour rien.

D’un côté, les besoins en traitement et en stockage évoluent rarement au même rythme – certains services finissent même par accorder plus de budget à la partie traitement afin de pourvoir aux besoins de la partie stockage qui ne cessent d’augmenter. Mais l’inverse est également vrai, même si ce cas de figure est bien moins fréquent. Néanmoins, dans les deux cas, la quantité d’énergie gaspillée est tout aussi importante. Bien que les parties stockage et traitement soient indépendantes l’une de l’autre, il est plus aisé de réduire le nombre total de composants nécessaires dans l’infrastructure et, de ce fait, de réduire également les besoins en énergie et en refroidissement. D’un autre côté, le Direct Attached Storage et les solutions hyperconvergées sont plus enclins à créer des silos d’infrastructures. Puisqu’il est très compliqué de partager les capacités inemployées d’un cluster avec d’autres clusters, la surallocation et le gaspillage de ressources s’en trouvent alors accentués.

Approvisionner en temps utile

Aujourd’hui, l’approche traditionnelle consistant à pourvoir aux besoins sur les trois à cinq prochaines années n’est plus adaptée. Dans cette approche, les services doivent gérer une infrastructure bien plus importante que ce dont ils ont besoin dans l’immédiat. Au lieu d’opter pour cette approche, le fait de se tourner vers des modèles modernes de consommation à la demande et des outils de déploiement automatisé permet aux entreprises d’adapter plus facilement l’infrastructure de leurs datacenters au fil du temps. L’infrastructure est alors mise en service « en temps utile » et non pas « au cas-où », évitant ainsi d’avoir à alimenter et refroidir des composants qui seront inemployés pendant plusieurs mois, voire plusieurs années.

Maintenir les datacenters au frais dépend généralement de la fiabilité du système de ventilation et de la solidité du plan d’urgence. Cependant, quel que soit le site, chaque fraction de degré d’augmentation de la température va de pair avec l’augmentation proportionnelle de la pression subie par l’équipement, une pression limitée au niveau des piles et des racks par les systèmes de refroidissement. Les responsables de datacenter ne souhaitent donc pas exposer ces systèmes à une nouvelle pression, ce qui a été le cas avec les vagues de chaleur de cet été.

La solution paraît alors évidente : pourquoi ne pas d’abord réduire le volume des équipements et, de ce fait, diminuer la génération de chaleur ? Cela permettrait à la fois de réduire les coûts d’exploitation, de simplifier et de refroidir les datacenters, mais également de réduire la consommation énergétique. Le temps n’est plus à l’hésitation.

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading