Il y a deux ans, Microsoft avait lancé les tests de son projet de data center sous-marin au large de l’Écosse. Il y a peu, l’édifice a été remonté et les premiers constats ont été rendus publics. Selon la firme, non seulement ce procédé est plus écologique, mais celui-ci est également gage d’une plus grande fiabilité.
Le data center sous-marin remonté à la surface
L’idée d’un data center sous-marin date de 2014, lorsque Microsoft désire aller plus loin que leur simple refroidissement à l’aide de l’eau de mer. En juin 2018, la firme lance son projet Natick, consistant à placer 864 serveurs au fond de l’eau, ainsi que l’infrastructure du système de refroidissement connexe. Ainsi, la firme a plongé son data center test à 35 m de profondeur au large de l’Écosse. Comme l’explique un communiqué publié le 14 septembre 2020, Microsoft l’a remonté et a procédé à quelques analyses.
Rappelons qu’à la surface, les data centers sont vulnérables à la corrosion. Ceci est le fait de l’oxygène environnant, des variations de température, mais aussi de l’humidité. En plongeant ses serveurs dans l’eau, Microsoft a voulu vérifier si ceux-ci étaient mieux protégés dans un caisson étanche. En effet à l’intérieur, les conditions climatiques ne varient pas ou très peu.
Des résultats très encourageants
Selon les premières constatations, l’expérience a été concluante. En effet, le data-center sous-marin présentait seulement 12 % du taux habituel de défaillance d’un centre de données terrestre. Or, il s’agit là d’une amélioration considérable. Autrement dit, huit serveurs défaillants sur Terre équivaut à un seul dans le caisson étanche. Aussi, les opérateurs auront beaucoup moins à intervenir sur ces installations et fort heureusement, car le fait que le caisson soit sous l’eau représente une difficulté supplémentaire. Il est intéressant de noter que les avantages du serveur sous-marin en matière de sécurité n’ont pas été autant mis en avant par Microsoft. En termes de cybersécurité, l’emplacement physique du serveur n’est pas aussi important que le logiciel utilisé – développé par exemple par les fournisseurs de VPN – et le taux de défaillance du matériel lui-même.
« L’hypothèse de l’équipe est que l’atmosphère du caisson composé l’azote, moins corrosif que l’oxygène, et l’absence d’activité humaine, et donc personne pour heurter et bousculer les composants, sont les principales raisons de cette différence. Si l’analyse s’avère correcte, l’équipe pourrait être en mesure d’utiliser ces résultats dans des centres de données terrestres », peut-on lire dans la publication de Microsoft.
Certain de la fiabilité du concept, Microsoft prévoit de placer des serveurs sous-marins à proximité des villes côtières aux quatre coins du monde. L’objectif ? Diminuer le temps d’accès aux données et applications contenues dans le Cloud. Au passage, le géant rappelle que plus de la moitié de la population mondiale vit à moins de 200 km des littoraux. Ainsi, la navigation sur le Web devrait gagner en fluidité pour une grande partie des terriens.
Voici une vidéo évoquant l’expérience récemment menée par Microsoft :