Data Center Kesako ?
Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).
Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.
Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.
Parc actuel
Il existe aujourd’hui environ 4.000 Data Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :
- quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
- un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
- un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
- un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises
Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.
Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).
Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).
Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.
Les enjeux sont géostratégiques (principe de territorialité des données )
Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.
Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.
Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :
Notons l’exemple d’une entreprise française qui a vu ses données délivrées à la NSA, après une décision de la cour américaine.
Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).
Les enjeux sont économiques
L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).
Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…
On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.
L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :
- (à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
- (à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
- (à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
- jusqu’à la consolidation en vue de mener des projections stratégiques.
Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.
Les enjeux sont écologiques
Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…
Les centres de traitement de données sont de gros consommateurs d’énergie. A eux seuls, ils représenteraient 18% de la consommation électrique mondiale.
En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).
Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.
A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.
Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).
En conclusion
Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :
- en savoir plus sur la transposition de la directive Network and Information Security (NIS) en Droit belge ;
- votre organisation est-elle prête à faire face aux nouvelles obligations en matière de cybersécurité ?
Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :
- la territorialité des données ;
- l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
- la protection contre le « Cloud Act ».
Mais ils conduisent également à des opportunités de développement :
- intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
- développement économique par intérêts mutuels.
Mais d’autres enjeux restent cachés :
- Qui va financer ces infrastructures ?
- Qui sera propriétaire des données ?
- Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?
Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?
Un mix des 2 ?
Claude WILLEMS (2019)
Disposez de plus de dispositifs…
- Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?
- THONART : Intelligence artificielle et artifices de l’intelligence (2024)
- HALLEUX : La seconde révolution industrielle dans le bassin liégeois 1860-1917 (CHiCC, 2002)
- VÉLOTAF : ne dites pas “autoroute vélo”, mais “cyclostrade”
- BOGDANOFF : les jumeaux Igor & Grichka meurent du Covid-19
- Mes données sur Internet ou le consentement prisonnier
- WILLEMS : Réflexions à propos des Data Centers
- Et si les réseaux sociaux devenaient une chance pour nos démocraties ?
- WalOnMap : géoportail de la Wallonie
- ELECTRALIS 2001 à Liège : CAMPUS, la convention Research to Business qui n’a pas eu lieu…
- Ce que le «2» dit de nous