on pourrait faire baisser la pression sur les serveurs, rentabiliser au mieux les machines, et payer l’électricité du bazar pour autre chose, que les écrans de veilles (et au passage éviter de construire une centrale nucléaire pour alimenter tous les datas centers de paris par exemple).
Pour mettre en lumiére les datacenters modernes (les derniers construits) sont construits sur une densité de 3kVA par métre carré. Soit environ 12 Ampéres (c’est une estimation, cela dépend du facteur de puissance de votre matériel) par métre carré. Sachant que ca, c’est la capacitée fournie au client. Par dessus, il faut mettre encore plus pour assurer la climatisation. (L’électricité fournie pour alimenter les serveurs est entiérement convertie en chaleur qu’il faut impérativement évacuer). Si vous coupez la clim dans une telle salle, il faut moins de 10 minutes pour que la température atteigne 50 degrés. La conséquence c’est que tout doit être redondant pour ne pas qu’il y ait de panne de clim.
L’espace dans une telle salle se loue mensuellement pour environ 1000 € du m2. (Prix variable selon votre négociation votre conso électrique réelle, la surface louée, etc, etc, ...).
Maintenant que vous avez ces informations, il faut savoir que beaucoup de ces datacenters ont des surfaces utiles qui dépassent les 10 000 m2 et donc une consommation électrique absolument gigantesque. Et qu’actuellement une salle de 10 000 m2 se remplit de clients en moins de 4 ans. (Sachant qu’il y a de la concurrence dans toutes les capitales d’europe sur ce marché). A Paris, environ 4 grandes salles de ce type existent et il y en a également de plus petites (dont certaines dépassent les 3000 m2 quand même). De nouvelles sont actuellement en construction.
Rajoutez que construire a 3kVA le m2 est un challenge d’ingénierie. Des datacenters ouverts à la fin des années 90 étaient construits sur la base de 1 kva par m2. Et que malgrés cette augmentation de densité électrique, elle n’est toujours pas suffisante. Il faudrait construire avec un objectif de 6kVA/m2 et plus. Mais à partir de la, la seule solution devient le refroidissement liquide. (Des armoires ("rack") pour cela sont en vente).
Rajoutez encore que cette quantité d’énergie colossale doit être livrée avec la même priorité et la même sécurité que pour un hopital (les contrats auprès d’edf sont identiques) tant une panne de courant sur un de ces sites a des conséquences graves.
Et vous comprendrez que la meilleure rentabilisation du matériel est effectivement un problème complétement nécéssaire non seulement d’un point de vue environemental mais aussi du point de vue de l’ingénierie. La croissance actuelle des systèmes de traitement de l’information force à une utilisation optimale du matériel. Sinon elle ne sera rapidement plus soutenable. Mais ca tombe bien les solutions existent déja !
01/09 16:52 - FuturHebdo
28/04/2058 : IA en marche 	 	 	 	 La société BNE, éternelle (...)
31/08 13:37 - kabreras
90% des bogues et des plantages viennet de conflits materiels / drivers, etc. Meme si les (...)
31/08 11:04 - Leekid
Bruxman dit : " Bref, traiter la langue naturelle ce n’est malheureusement pas (...)
30/08 19:32 - wiztricks
Les applications qui ont besoin de plus de puissance que celle offerte par un seul CPU (...)
29/08 02:08 - Sahtellil
28/08 20:18 - Siko
Ouais, je vois pas trop l’intérêt d’avoir une RAM commune puisque de toute façon, (...)
Agoravox utilise les technologies du logiciel libre : SPIP, Apache, Ubuntu, PHP, MySQL, CKEditor.
Site hébergé par la Fondation Agoravox
A propos / Contact / Mentions légales / Cookies et données personnelles / Charte de modération