Episode 2 : on s’introduit dans le Data Center

Dans les coulisses techno’ de PowerBoutique

Après un premier article où, d’emblée, je donnais les bases de ce qu’on appelle le Cloud, je voudrais revenir sur des notions plus terre-à-terre, plus physiques. Cloud et autres services Internet sont immatériels, ils sont constitués de petits bouts d’information qui se propagent sous forme de signaux lumineux ou électriques. Mais cela ne peut se faire que grâce à une infrastructure matérielle.
Dans ce nouveau billet (et probablement les suivants), je vous propose de vous emmener visiter un Data Center afin de vous faire entrevoir un univers franchement pas virtuel, antre des systèmes d’information modernes. Et comme cela est à propos, il sera aussi un tout petit peu question d’environnement.

Les centres de données sont des lieux très protégés où sont regroupés les systèmes de production du Web et les applications logicielles industrielles dès lors qu’elles doivent être largement accessibles par l’Internet. Aujourd’hui, je vous emmène donc visiter un centre de données que dans notre jargon anglophone nous appelons : Data Center.

 

Mais d’abord, à quoi sert un Data Center et qu’y fait-on ?

C’est tout simple, on y concentre des connexions à l’Internet, des serveurs informatiques, des ressources énergétiques, des conditions environnementales et de sécurité propices au fonctionnement des machines ; l’objectif étant d’assurer une meilleure qualité du service tout en contrôlant son coût.
Bien, et maintenant que vous avez tout compris, passons à la visite proprement dite. Suivez le guide et bienvenue à Fort Knox.

Au fond d’une zone d’activités périurbaine balayée par le vent glacial de décembre, un immeuble gris, moderne, discret, sans âme. Derrière les grilles, il y a un petit parking, des docks de déchargement pour les camions. Un coup d’œil suffit à mesurer la quantité de systèmes de sécurité à l’extérieur de l’immeuble : multiples caméras, détecteurs d’intrusion, capteurs aussi divers qu’étranges.
Un premier code est nécessaire pour passer les grilles puis un deuxième pour accéder à un sas de sécurité blindé. Une fois enfermés dans le sas, un système complexe de carte à puce couplé à un capteur biométrique permet de valider notre identification. Un dernier effort pour tirer la porte qui doit bien faire ses 200 kilos et nous pénétrons dans le saint des saints.

La chaleur et un bruit assourdissant nous assaillent. Il fait un bon 30 degrés dans cet endroit. Quant au bruit, il est tel que pour s’entendre, il faut crier. Passées ces premières impressions, que voit-on dans cette salle ? Le sol, les murs et le plafond sont blancs, très propres. De gros blocs métalliques gris sont rangés le long des murs et, au centre, sont alignées des espèces de grandes cabines allongées, toutes noires mais avec des portes coulissantes en verre fumé aux extrémités. Au-dessus de ces cabines, des rails suspendus amènent d’épais torons de câbles multicolores.

Aujourd’hui, il fait 32 degrés dans la salle mais lorsque j’ai commencé dans le métier, les salles étaient bien fraîches. Cela serait-il dû au réchauffement climatique ? Oui et non. En réalité, nous essayons de réduire le coût de nos data centers et pour cela nous travaillons depuis peu avec un système appelé “Allées froides confinées/allées chaudes”. Dans la pratique, on cloisonne complètement une allée sur deux et on souffle de l’air froid par le sol dans cet espace. L’air refroidi est forcé de traverser les machines et ressort chauffé dans les allées non cloisonnées. Cette technique permet de faire de sérieuses économies d’énergie. Avant, on climatisait la salle entière, maintenant, on climatise uniquement l’intérieur des machines et l’espace très restreint des allées froides.

 

Et ces serveurs, pourquoi chauffent-ils tant ?

Oulàlà !! Alors un peu d’arithmétique : on estime que les serveurs vont consommer 0,008 Wh pour fabriquer une page Web (par exemple, une fiche article de votre site).
Imaginons maintenant que nous avons 10 millions de pages vues par jour (grosso-modo la production quotidienne de la plate-forme PowerBoutique). On en déduit vite que nos serveurs vont consommer 80 kWh… et que c’est bien suffisant pour chauffer une douzaine d’appartements.
Dans ce calcul, je ne prends en compte que la fabrication des seules pages Web, et j’exclus donc les services associés comme les systèmes de gestion, les mails, les sauvegardes… Mieux encore, il faut imaginer qu’à coté de l’allée de PowerBoutique, il y a celle d’une banque, puis un peu plus loin celle d’une compagnie d’assurance et ainsi de suite. Donc, oui, ces serveurs chauffent, et pas qu’un peu. Et si on ne les refroidit pas, la température ne cessera de grimper, très-très vite, jusqu’à ce que – couic – ils se mettent en sécurité, ou – argh – ils crament.

 
Maintenant, deux questions à cent sous : “Refroidir des centaines de serveurs, est-ce cher ? Cela consomme-t-il beaucoup d’énergie ?”
En effet, les data centers sont extrêmement gourmands en électricité et la gestion de l’énergie est une notion vitale, il n’est pas simplement question d’adopter un vernis “green” et de se montrer écolo. Et comme dirait le Schtroumpf à lunettes : “Si effectivement la sobriété est écologique, en termes économico-industriels, elle est d’abord une question de bon sens”. Mmmmh… rien que d’y penser, je transpire à grosses gouttes, et pour le coup, je me dis que cela suffit bien pour aujourd’hui. Et oui, parce qu’on n’a parlé que de refroidissement, il aurait peut-être fallu commencer par la fourniture de l’électricité, tout un poème, et puis, tôt ou tard il faudra aborder d’autres mystères infernaux et cabalistiques s’il en est…

Alors, à très bientôt sur le blog !

Alex – Infrastructure, Système & Réseau – PowerBoutique.

 

Photos : tobbef©Fotolia

5 commentaires

  • Et bien les amis de PowerBoutique je préfère être a ma place. je vous décris, atelier 19° des grandes fenêtres sur une foret cerfs sangliers pinpin, de la bonne musique (Deezer & Spotify & Qobuz). casse-croute a volontés, des gentils clients grâce a PowerBoutique et à son assistance toujours de bonne humeur et avec accent délicieux, bonne années à tous.
    Patrice Collet

  • La chaleur émis par certain data center est recyclé se qui contribue a diminuer la consommation d’énergie pour les entreprises qui bénéficies de telles installations. Cela ne c’est pas encore généralisé.
    Il est aussi envisageable de construire des data center en pôle nord (je rigole), quoi que, quand on regarde se que fait facebook ou google ….

  • en fait les datacenter vont être installés sauf erreur… en Suède 😉

  • Salut les gamins,
    je vous jure que si votre data center chauffe, je n’en suis pas la cause. Et si on les mettait à 12 mètres sous terre ? (température moyenne 12°)

    • PowerBoutique

      Bonjour Pappy,

      Bonne idée : enterrer un data center présente quelques avantages dont celui de bénéficier, un temps, d’une température stable et fraîche.

      Malheureusement, quand on est sous terre, il n’est pas plus aisé de dissiper les surplus caloriques. D’autre part, il faut savoir que la température moyenne à l’extérieur de notre data center est de 14°. Sur l’année, le gain ne serait pas énorme.

      Personnellement, je redoute aussi les effets de l’eau sur vos données. Un trou se remplirait très vite lors d’un épisode pluvieux intense, il en est de même pour une grotte. On peut d’ailleurs trouver, sur Youtube, des images prises dans des data centers par des caméras de surveillance lors d’inondations. C’est proprement terrifiant et finalement je préfère installer vos données sur pilotis :-).

      En tout cas, merci pour votre question.

      Alex – Infrastructure, Système & Réseau – PowerBoutique.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *