WILLEMS : Réflexions à propos des Data Centers

2019, l’odyssée de l’espace ?
Data Center Kesako ?

Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).

Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.

Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.

Parc actuel

Il existe aujourd’hui environ 4.000 Data  Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :

  • quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
  • un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
  • un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
  • un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises

Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.

Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).

Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).

Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.

Les enjeux sont géostratégiques (principe de territorialité des données )

Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.

Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.

Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :

Notons l’exemple d’une entreprise française qui a vu ses données délivrées à la NSA, après une décision de la cour américaine.

Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).

Les enjeux sont économiques

L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).

Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…

On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.

L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :

  • (à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
  • (à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
  • (à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
  • jusqu’à la consolidation en vue de mener des projections stratégiques.

Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.

Les enjeux sont écologiques

Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…

Les centres de traitement de données sont de gros consommateurs d’énergie. A eux seuls, ils représenteraient 18% de la consommation électrique mondiale.

En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).

Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.

A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.

Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).

En conclusion

Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :

Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :

  • la territorialité des données ;
  • l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
  • la protection contre le « Cloud Act ».

Mais ils conduisent également à des opportunités de développement :

  • intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
  • développement économique par intérêts mutuels.

Mais d’autres enjeux restent cachés :

  • Qui va financer ces infrastructures ?
  • Qui sera propriétaire des données ?
  • Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?

Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?

Un mix des 2 ?

Claude WILLEMS (2019)


Disposez de plus de dispositifs…

Que sont les pluies acides devenues…

(c) futura-sciences

“Au début des années quatre-vingt, les Allemands constatent que leurs forêts sont malades. Hâtivement, les scientifiques déclarent qu’elles sont victimes des pluies acides causées par le transport à longue distance des polluants et la presse reprend largement cette thèse. Vingt ans plus tard, les études montrent que l’effet sur les forêts de la pollution acide à longue distance n’a pas été vérifié. Cependant, l’acidification des sols et l’impact de la pollution acide sur les écosystèmes naturels et agricoles et sur la santé humaine restent toujours d’actualité à l’échelle mondiale.

Au début des années quatre-vingt, l’Allemagne est prise d’une véritable psychose. Elle découvre que ses forêts sont ravagées par les pluies acides et que ses arbres dépérissent par milliers. En 1983, le tiers de la forêt allemande semble touché. Dans toute l’Europe et en Amérique du Nord, des programmes d’étude sont lancés, des réseaux de suivi mis en place. Ce branle-bas dure quelques années. Puis, petit à petit, la menace paraît s’estomper…

Il faut dire qu’entre-temps la dégradation de la couche d’ozone polaire et la pollution par l’ozone troposphérique ont fait leur apparition et mobilisé l’attention des médias. Puis l’effet de serre et changement climatique sont arrivés… D’autres préoccupations ont pris le relais ! Est-ce à dire que le problème des pluies acides est définitivement réglé ?

Le terme « pluies acides » avait été forgé en 1872 par un chimiste anglais pour décrire un phénomène nouveau lié à l’industrialisation intensive de l’Angleterre. Il s’agissait essentiellement d’une pollution observée sous le vent des usines métallurgiques et des centrales thermiques. C’est bien plus tard, dans les années 1950-1960, alors que les Scandinaves voient leurs lacs s’acidifier, que le grand public s’approprie le concept. Plus de la moitié du stock de poissons habitant les lacs scandinaves et certaines espèces disparaissent en une ou deux décennies. L’aluminium est pointé du doigt car ce métal toxique, plus soluble aux faibles pH, a vu sa concentration fortement augmenter dans les lacs au fur et à mesure de l’acidification des eaux. À l’inverse, les algues se sont mises à proliférer.

Sous la pression des Scandinaves, l’OCDE se mobilise alors et, en 1979, fait adopter la convention de Genève sur la pollution atmosphérique transfrontière à longue distance. Cependant, les recommandations de cette convention restèrent plus ou moins lettre morte jusqu’à ce que la République fédérale d’Allemagne reprenne brusquement le flambeau au début des années quatre-vingt, comme expliqué précédemment.

Victimes d’une pollution longue distance

Menées dans les années 1970-1980 dans les principaux pays industrialisés, les études atmosphériques mettent en évidence une forme de télé-pollution, différente de la pollution de proximité connue jusqu’alors. Cette pollution diffuse et chronique provient de la transformation, pendant leur transport dans l’atmosphère, des polluants primaires émis par les installations de combustion et par les véhicules automobiles. Dans le cas de la forêt allemande, les scientifiques affirmèrent un peu vite que si les arbres étaient malades, c’est qu’ils étaient victimes de cette pollution acide à longue distance dont l’effet était, à première vue, comparable à la pollution de proximité décimant alors les forêts de l’Europe centrale (Allemagne de l’est et Tchécoslovaquie en particulier) sous l’effet de l’utilisation débridée de lignites très riches en soufre.

Les symptômes du dépérissement variaient suivant les espèces : le feuillage du hêtre par exemple, devenait clairsemé et jaunissait tandis que les conifères (sapin, épicéa, pin sylvestre) perdaient leurs aiguilles. De fait, sauf pour les zones directement touchées par les émissions d’un centre industriel voisin, comme ce fut le cas en Europe de l’est, ce dépérissement n’était évident que pour les spécialistes.

Les notions de pollution locale, de pollution longue distance, associées à la vision d’arbres souffreteux constituèrent un cocktail médiatique explosif largement exploité par l’opinion publique d’outre-Rhin.

La France réagit de façon plus mesurée : on mit sur pied des suivis de l’acidité des pluies. Dans les Vosges notamment, un réseau d’étude du Dépérissement des forêts attribué à la pollution atmosphérique (DEFORPA) fut créé et il est encore bien utile de nos jours pour suivre l’évolution du phénomène. La forêt européenne a crû plus vite ces années-là.

Dans les années qui suivirent, les premières conclusions des études scientifiques furent loin d’être convaincantes. Ainsi, le symposium européen de 1987 à Grenoble, mit en évidence le manque de preuve quant à la culpabilité des pluies acides vis-à-vis des observations des forestiers. En fait l’opinion publique européenne, surtout allemande, s’était emballée, et les politiques lui avaient emboîté le pas, prenant des mesures avant que les scientifiques aient formellement identifié le phénomène. Cependant, même si a posteriori ces mesures ne semblent pas avoir été entièrement justifiées, elles furent salutaires pour la santé publique et la réduction de la pollution atmosphérique par les composés soufrés.

Depuis le début des années 1990, les émissions de composés soufrés ont considérablement décru en Europe et en Amérique du nord, grâce aux efforts de désulfuration des carburants fossiles (pétrole), à la moindre utilisation du charbon et enfin à l’effondrement de l’activité industrielle en Europe de l’est et en Russie. En revanche, on sait maintenant qu’en dépit des apparences, les forêts d’Europe ont crû plus rapidement que jamais pendant les années de précipitations acides, probablement en raison des apports additionnels de composés azotés et de l’augmentation du gaz carbonique (CO2) atmosphérique.

Quel bilan tirer de cette crise ?

Il semble que le déclin récent des forêts puisse être attribué à un manque de magnésium et de potassium. Paradoxalement le meilleur entretien des forêts avec élimination des débris organiques conduit à l’épuisement des sols. Aux USA, les atteintes concernant les épicéas furent finalement imputées au climat, à des épisodes rapprochés de gel par exemple. Les symptômes disparurent au milieu des années 1990, peut-être à cause de changements météorologiques. L’acidification des sols a bien été notée par-ci par-là, et dans quelques cas seulement, elle fut attribuée aux précipitations.

Où en sont les émissions de polluants acides ?

Les études lancées dans les années 1980 ont permis de constituer des banques de données permettant le suivi des bilans d’émission. Or, à partir de 1990 on constate que si les émissions polluantes de l’industrie ont considérablement baissé, les bateaux croisant au voisinage de l’Europe ont continué à polluer, émettant quelque 2,8 millions de tonnes de dioxyde de soufre (SO2) et 4 millions de tonnes d’oxydes d’azote (NOx). Sur la base d’une augmentation de 2 % par an et si aucune mesure restrictive n’est prise, ces pollutions devraient dépasser celles produites par l’industrie, à  l’horizon 2010. Par ailleurs, de nouvelles régions du globe sont susceptibles d’être gravement touchées par les précipitations acides. Ainsi, suite à la rapide industrialisation de l’Asie, la pollution atmosphérique augmente dans le nord-est de l’Asie. Comme en Europe dans les années soixante, les émissions résidentielles et industrielles de dioxyde de soufre et d’oxydes d’azote affectent majoritairement la précipitation locale urbaine, alors que les centrales thermiques assurent l’essentiel de la pollution longue distance. Les impacts sont déjà sensibles sur les écosystèmes naturels et agricoles et sur la santé humaine dans les grands centres industriels et les villes. Et la tendance à l’acidification ne fait que commencer.

À l’horizon 2020, il faut s’attendre à ce que la capacité du sol à absorber ces dépôts acides soit totalement dépassée en Chine, dans la Péninsule coréenne et au Japon. Les études actuelles montrent clairement que les régions sources sont situées en Chine et que les Corée et le Japon sont des pays essentiellement récepteurs. La Chine doit, certes, pouvoir se développer, mais la très faible efficacité énergétique chinoise -vingt fois plus faible que celle du Japon- constitue un facteur aggravant. Inversement ce chiffre peut permettre d’espérer une réduction drastique de la pollution, dès lors que les autorités chinoises auront pris conscience du problème.

Retenons que les précipitations en Europe et en Amérique du nord se sont bien acidifiées dans les années 1970-1980, avec des effets avérés sur la santé, les bâtiments, les sols, les eaux de surface, mais que les effets sur les forêts sont beaucoup plus incertains et discutables. La catastrophe montée en épingle (de bonne foi, tout au moins au début), à propos des forêts germaniques a eu des répercussions considérables sur l’industrie automobile, puisqu’elle fut indirectement à l’origine de l’essence sans plomb… Gardons en mémoire que la question des pluies acides persiste, notamment en Asie, mais que le désastre annoncé de la mort de nos forêts est heureusement resté dans le domaine du fantasme.”

Lire notre source, l’article de Robert J. DELMAS sur ESPACES-NATURELS.INFO (article de juillet 2004)


Plus de presse :

10 plantes dépolluantes pour purifier l’air intérieur

“La pollution intérieure serait responsable de 99.000 décès par an en Europe. Elle provient des produits parfumés comme l’encens, les bougies ou les huiles essentielles, mais aussi des produits ménagers, déodorants, laque ou vernis. Mais que peut-on faire contre cette pollution ? Il existe des plantes très efficaces qui raffolent de ces polluants.

Bioépuration

Les plantes « respirent » par un phénomène qu’on appelle la photosynthèse qui leur permet de réduire naturellement le CO2. Mais en plus de ce mécanisme connu, certaines plantes et fleurs épurent l’air environnant. C’est ce qu’on appelle la « bioépuration » ou « purification par le vivant ». Les plantes qui en sont capables purifient l’air en stockant les produits chimiques toxiques dans leurs cellules ou en les transformant. Les scientifiques utilisent alors le terme de phytoremédiation, du grec phyto qui signifie plante et remédiation qui signifie remise en état. Quelles plantes choisir ? Malheureusement, toutes les plantes et fleurs n’ont pas cette fonction de purification de l’air face aux produits toxiques.

Voici une sélection de dix plantes, arbustes et fleurs qui seront bénéfiques pour votre intérieur :

  1. le chrysanthème ;
  2. le chlorophytum ;
  3. le dragonnier ;
  4. le ficus ;
  5. la fleur de lune ;
  6. la fougère de Boston ;
  7. la sansevière ;
  8. le palmier bambou ;
  9. l’aloes ;
  10. le flamant rose…”

Plus de détails dans l’article 10 plantes dépolluantes pour purifier l’air intérieur (la Rédaction, LESOIR.BE du 16 mars 2016)

Plus de presse…