MARBEN : la méthode ICARE (1997-1999)

Temps de lecture : 3 minutes >

La fin des années 1990 a été un âge d’or pour les intégrateurs informatiques, alors dénommés SSII (pour “Société de Services et d’Ingénierie en Informatique” – à prononcer “esse-esse-deux-zi”). L’arrivée de l’an 2000 et ses frayeurs millénaristes, l’imposition de l’EURO et les myriades de geeks qui cherchaient alors un job, sont autant de facteurs extérieurs qui ont affolé les directeurs informatiques des entreprises d’alors, les petites comme les multinationales. L’Union européenne, déjà dispendieuse, n’était pas non plus le moindre des clients pour ces tribus de consultants, regroupés en entreprises spécialisées, souvent pilotées par des groupes internationaux plus importants…

La réalité était souvent assez crue : ces unités techniques et commerciales installées dans les grandes villes d’administration (Bruxelles, Luxembourg, Strasbourg…), en relation généralement intime avec leurs clients, vivaient du courtage de talents… informatiques. Le responsable IT d’une organisation (le client) décidait à table (sic) avec le commercial d’une SSII (le fournisseur) de combien de PC support il aurait besoin pour les 6 mois à venir, de combien de DBA Oracle et de combien d’administrateurs système. La signature se faisait au pousse-café, en pérorant sur le nouveau logo-fantaisie de JAVA ou sur le dernier company meeting de chez BORLAND (avec leur boss costumé en Darth Vador, je vous prie !). Le lendemain, il revenait au directeur du recrutement de l’entreprise gagnante de luncher avec l’Account Manager de son partenaire dans l’intérim pour discuter des marges à réaliser sur la location (traite ?) des talents vendus. On appelait cela du body-shopping.

Tout le monde était très malin, gagnait beaucoup d’argent et jouait l’influence avant tout. Parallèlement, il était important pour ces “boîtes de consultance” d’avoir l’air un peu plus malin que les autres ; alors, on publiait des études, des livres blancs, des brochures incontournables… aujourd’hui oubliées et disparues. Nous avons retrouvé une de ces publications dont l’intérêt pour nous n’est pas tant de vanter les mérites d’une entreprise aujourd’hui disparue au sein d’un grand groupe international, mais plutôt de relever combien, sous couvert de créer un standard méthodologique, le texte en question propose une bonne introduction au marché de l’informatique aux novices que nous sommes. Si les informaticiens d’aujourd’hui, selon leur âge, reconnaîtront les acteurs et les concepts ou s’amuseront de certaines notions désuètes, le commun des mortels se verra initié à des termes-clefs comme : help desk, externalisation, régie, parcs multi-sites, Outsourcing, SLA pour Service Level Agreement et principe d’extension

Quelques extraits pour une mise en bouche du texte qui est intégralement disponible (PDF avec reconnaissance de caractères) dans notre documenta :

“Qui peut prétendre atteindre un objectif qu’il n’a pas défini?

Qualité et niveau du service. Nous avons vu quelles étaient les évolutions maîtresses des métiers de l’informatique. Une des plus importantes est le besoin exprimé par la majorité des acteurs informatiques d’obtenir :

    • une visibilité accrue sur leur parc informatique et son évolution face aux offres technologiques ;
    • les moyens d’offrir aux utilisateurs un support de qualité adapté à leurs besoins réels.

Il est difficile de répondre à ces attentes : le parc informatique évolue parfois – même au sein d’entreprises très “disciplinées” – de manière indépendante des choix stratégiques (il est si simple d’acquérir un PC), ce qui implique des interventions peu populaires auprès des utilisateurs pour restaurer un niveau de  service respectable. La méthode ICARE se base sur des principes simples, qui s’attaquent directement aux dysfonctionnements que nous avons évoqués au chapitre précédent.”

“C’est sur la base de ce Service Level Agreement (SLA) que sont déterminées les ressources humaines et matérielles qui seront mises en oeuvre pour atteindre les objectifs fixés. Il est courant d’entendre “que pouvons-nous faire avec les moyens actuels ?“. Partir sur une telle base de réflexion n’offre que peu de perspectives de succès. Dans un Service Level Agreement se trouvent notamment les éléments suivants :

    • le champ d’action du Service Level Agreement, c’est-à-dire la définition des activités concernées ;
    • la définition des groupes de travail en charge de ces activités ;
    • les responsabilités de chaque groupe de travail, ainsi que la répartition des tâches ;
    • les objets techniques concernés par chaque activité (par exemple les logiciels supportés, non supportés, ou interdits) ;
    • la liste complète des services assurés ;
    • les conditions d’accès au service.”

  • L’illustration de l’article date de 1972 (nous avons triché) et montre une équipe de consultants en pleine discussion “cool“… © capgemini

L’intégralité du texte est disponible dans notre documenta, en PDF avec reconnaissance de caractères :


Plus de technique ?

Alan Turing, un génie sacrifié (CHiCC, 2020)

Temps de lecture : 5 minutes >
Alan Turing © k-actus.net

Alan TURING est de ces génies tardivement reconnus. Son travail scientifique, aujourd’hui considéré comme majeur, s’est développé sur une quinzaine d’années, de 1936 à 1952 environ.

Alan Mathison Turing est né le 23 juin 1912 à Londres. En 1931, il a 19 ans, il intègre le King’s College de l’Université de Cambridge où il trouve un milieu favorable pour étudier les mathématiques. Il va s’y épanouir, car personne là-bas ne raille son homosexualité, son apparence décalée. Chacun, dit-on là-bas, doit être ce qu’il est.

Seules les mathématiques pures et appliquées procurent à Alan un sentiment d’épanouissement. Il pénètre avec passion dans le monde solitaire et virtuel qui va devenir le sien. Il sera diplômé en 1933.

En 1936, Alan Turing débarque à New York à l’Université de Princeton où se côtoient John von Neumann et Albert Einstein, tous les grands noms de la science et notamment ceux qui ont fui le nazisme.

Turing démontre que certains problèmes mathématiques ne peuvent être résolus. Pour cela, il postule l’existence théorique d’une machine programmable, capable d’effectuer vite toutes sortes de calculs.

Cette machine est composée d’un “ruban” supposé infini, chaque case contenant un symbole parmi un “alphabet fini”, d’une “tête de lecture/écriture” ; d’un “registre d’états” ; d’une “liste d’instructions”.

L’ordinateur – théorique – est né ! Même si elle reste purement abstraite, cette “machine de Turing”, passée sous ce nom à la postérité, est un saut crucial vers les fondements de l’informatique.

Enigma M4 at The Alan Turing Institute © Clare Kendall.

En 1939, Alan Turing, revenu enseigner à Cambridge, s’engage dans l’armée britannique où il travaille à Bletchley Park au déchiffrement des messages de la marine allemande. Pour ses communications radio, le IIIe Reich utilise un engin cryptographique sophistiqué baptisé Enigma.

Poursuivant les travaux des Polonais qui avaient déjà découvert le mécanisme de la machine infernale, Alan Turing et les autres mathématiciens construisent donc un appareil destiné à passer en revue extrêmement rapidement les différents paramètres possibles d’Enigma.

Tous les renseignements issus des codebreakers étaient frappés du sceau “ultra”, plus confidentiel encore que “top secret”, un niveau de protection créé spécialement pour Bletchley. Tous ceux qui y travaillaient étaient soumis à l’Official Secret Act, un texte drastique qui leur interdisait toute allusion à leur activité, et ce, en théorie, jusqu’à leur mort.

En janvier 1943, Turing quitte l’Angleterre et rejoint les laboratoires de télécommunication Bell dans le New Jersey où le savant Claude Shannon travaille au codage de la parole. Turing propose quelques mois plus tard un prototype de machine à voix artificielle, ayant pour nom de code Delilah.

Après la guerre, Alan Turing travaille au National Physical Laboratory et conçoit un prototype de calculateur électronique, l’ACE (Automatic Computing Engine), qui prend du retard dans sa réalisation.

Aussi il rejoint l’Université de Manchester qui avait construit en 1948 le premier ordinateur programmable opérationnel, le Mark 1. Turing participe à la programmation et se passionne pour l’intelligence artificielle.

En 1950, Alan Turing publie, dans Mind, son article “Computing Machinery and Intelligence”. Dans cet article, il défend des positions “révolutionnaires”. Il se propose d’examiner la question : Les machines peuvent-elles penser ? Il élabore un test qui valide l’intelligence d’une machine, le “test de Turing”. Selon lui, si une machine dialogue avec un interrogateur (qui ne la voit pas) et arrive à lui faire croire qu’elle est un être humain, nous devrions dire d’elle qu’elle pense. Dans cette mesure, à la question a priori “Les machines peuvent-elles penser ?”, Turing substitue la question empirique : “Une machine peut-elle gagner au jeu de l’imitation ?”. Le prix Loebner, créé en 1990, est une compétition annuelle récompensant le programme considéré comme le plus proche de réussir le test de Turing.

En 1952, il propose un modèle mathématique de morphogenèse. Il fait paraître un article, “The Chemical Basis of Morphogenesis” (Philosophical Transactions of the Royal Society, août 1952), où il propose trois modèles de formes (Turing patterns). Les structures spatiales formées par le mécanisme physico-chimique très simple qu’il a suggéré s’appellent depuis des  “structures de Turing”.

Il faudra attendre quarante ans après Turing pour obtenir la première mise en évidence expérimentale d’une structure de Turing. Ce mécanisme, très simple, de formation de motifs est devenu un modèle emblématique, invoqué pour expliquer de nombreuses structures naturelles, en particulier vivantes.

Il est conscient du manque de preuves expérimentales. Son but est davantage de proposer un mécanisme plausible, et de montrer tout ce qu’il permet déjà d’expliquer, malgré sa simplicité. Les exemples donnés par Turing sont les motifs tachetés comme la robe du guépard, l’hydre et la phyllotaxie des feuilles en rosette.

Élu membre de la Royal Society, Turing éprouve de graves difficultés quand la révélation de son homosexualité provoque un scandale en 1952. C’est un crime pour la justice britannique. Le procès est médiatisé. Hugh Alexander fait de son confrère un brillant portrait, mais il est empêché de citer ses titres de guerre par le Secret Act”.

Alan Turing © diacritik.com

Alan Turing, qui n’a jamais réellement caché son homosexualité, a longtemps couru à un niveau olympique, pratiquant très régulièrement la course à pied pour calmer ses pulsions sexuelles. Pour éviter l’enfermement, il est contraint d’accepter la castration chimique, mais sa carrière est brisée.

Il meurt à 42 ans. L’autopsie conclut à un suicide par empoisonnement au cyanure. Il n’existe pas de certitude à cet égard, la pomme n’ayant pas été analysée.

La figure d’Alan Turing a mis du temps à émerger dans l’inconscient collectif. Le rôle de Bletchley Park et de ses employés qui décodaient plus de 3.000 messages nazis par jour n’a été rendu public que tardivement, dans les années 70, lorsque les dossiers ont été déclassifiés. Il faudra attendre 2013 pour que Turing sorte enfin des oubliettes de l’Histoire et soit réhabilité par la reine Elisabeth II.

La loi qui a brisé la carrière de Turing, après avoir envoyé Oscar Wilde en prison, ne fut abrogée en Angleterre qu’en 1967. C’est en 1972 que la loi de dépénalisation de l’homosexualité est promulguée en Belgique. L’OMS déclarera avoir retiré l’homosexualité de la Classification internationale des maladies le 17 mai 1990.

Le Britannique Alan Turing (1912-1954), père de l’informatique, co-inventeur de l’ordinateur, visionnaire de l’intelligence artificielle, a eu droit à tous ces signes posthumes, comme autant de regrets de n’avoir compris de son vivant à quel point il était important. Décerné chaque année (1966), un prix qui porte son nom est considéré comme le Nobel de l’informatique.

Des palmarès, comme celui du magazine Time en 1999, l’ont classé parmi les 100 personnages-clés du XXe siècle. Il a été choisi pour illustrer le verso des futurs billets de 50 livres à partir de la fin de l’année 2021.

Claude VIROUL


La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte de Claude VIROUL a fait l’objet d’une conférence organisée en mars 2020 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

WILLEMS : Réflexions à propos des Data Centers

Temps de lecture : 8 minutes >
2019, l’odyssée de l’espace ?
Data Center Kesako ?

Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).

Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.

Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.

Parc actuel

Il existe aujourd’hui environ 4.000 Data  Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :

  • quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
  • un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
  • un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
  • un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises

Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.

Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).

Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).

Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.

Les enjeux sont géostratégiques (principe de territorialité des données )

Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.

Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.

Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :

Notons l’exemple d’une entreprise française qui a vu ses données délivrées à la NSA, après une décision de la cour américaine.

Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).

Les enjeux sont économiques

L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).

Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…

On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.

L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :

  • (à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
  • (à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
  • (à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
  • jusqu’à la consolidation en vue de mener des projections stratégiques.

Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.

Les enjeux sont écologiques

Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…

Les centres de traitement de données sont de gros consommateurs d’énergie. A eux seuls, ils représenteraient 18% de la consommation électrique mondiale.

En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).

Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.

A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.

Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).

En conclusion

Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :

Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :

  • la territorialité des données ;
  • l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
  • la protection contre le « Cloud Act ».

Mais ils conduisent également à des opportunités de développement :

  • intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
  • développement économique par intérêts mutuels.

Mais d’autres enjeux restent cachés :

  • Qui va financer ces infrastructures ?
  • Qui sera propriétaire des données ?
  • Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?

Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?

Un mix des 2 ?

Claude WILLEMS (2019)


Disposez de plus de dispositifs…