Téléphone, mail, notifications… : comment le cerveau réagit-il aux distractions numériques ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 17 avril 2024] Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours.

En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s’inquiéter des interruptions numériques ?

L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).

Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Mieux comprendre d’où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est motivée par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Les événements imprévus provoquent une rupture de fluence

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode focus de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Sibylle Turo, chercheuse


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © fr.vecteezy.com.


Plus de presse en Wallonie…

Et si les réseaux sociaux devenaient une chance pour nos démocraties ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 11 janvier 2024] Alors que le président libertarien Javier Milei, récemment élu en Argentine, a largement profité des réseaux sociaux lors de sa campagne présidentielle, notamment pour séduire les plus jeunes générations, d’autres personnalités politiques envisagent au contraire de quitter ces mêmes réseaux. En France, c’est la maire de Paris, Anne Hidalgo, qui a initié ce mouvement, déclarant en novembre dernier que X (ex-Twitter) constituait “une arme de destruction massive de nos démocraties.” Force est de constater que depuis de nombreuses années, les réseaux sociaux dominants, dont le modèle d’affaires repose sur l’économie de l’attention favorise structurellement le clash et la polarisation des opinions.

Selon ce modèle économique, il s’agit de “maximiser l’engagement” des utilisateurs afin de vendre leur “temps de cerveau” et leurs données personnelles à des entreprises susceptibles de les cibler avec leurs publicités. Dès lors, tout ce qui compte pour gagner en visibilité sur ce type de réseau, est de trouver la ligne de fracture – chez chaque utilisateur ou dans la société – et d’enfoncer le coin, afin d’obtenir plus de clics et plus de vues, alimentant ainsi le “business de la haine” des géants du numérique, qui tirent profit de cette cacophonie.

Le résultat, tel que décrypté par l’écrivain et politologue italien Giuliano da Empoli, est le suivant : tandis qu’hier la politique était “centripète” – il fallait rallier autour d’un point d’équilibre –, elle est devenue aujourd’hui centrifuge. L’expression d’”ingénieurs du chaos” trouve alors tout son sens : pour conquérir le pouvoir, la politique consiste désormais à exploiter au mieux les dynamiques d’infrastructures, ici de communication, pour éclater la société en tous points.

Faire évoluer le modèle économique et l’architecture des réseaux sociaux

Comment changer la donne ? Il parait difficile d’imaginer l’ensemble des démocrates pratiquer la politique de la terre brûlée et quitter les réseaux sociaux dominants tant que l’espoir est encore à leur régulation. De même, nous ne pouvons uniquement nous en remettre à la bonne volonté de quelques autres réseaux dominants faisant pour l’instant office de refuge, tant que leur modèle demeure fondé sur la captation de l’attention.

Si nous devons poursuivre nos efforts pour “trouver des réponses politiques à la colère”, nous ne pouvons pas non plus nous aveugler sur les velléités autoritaires ou nationalistes exploitant les failles des réseaux sociaux les plus utilisés. Néanmoins, nous pouvons les priver de l’infrastructure qui les fait émerger comme forces politiques de premier plan partout dans le monde. Pour cela, nous devons faire évoluer le modèle économique et l’architecture des réseaux sociaux. Car il faut bien se rendre compte, dans la lignée de la pensée du professeur de droit Lawrence Lessig, que l’architecture numérique est normative : de même que l’architecture de nos rues détermine nos comportements, l’architecture des réseaux sociaux détermine la façon dont nous nous y exprimons et dont nous y interagissons.

© Générationlibre

De manière générale et par définition, le principe des “followers”, qui consiste à suivre des personnalités en particulier, ne favorise pas l’expression de points de vue diversifiés, mais plutôt les comportements mimétiques, la concurrence, la rivalité et in fine la dévalorisation de soi comme des autres.

Plus spécifiquement, X/Twitter et Thread sont construits pour faire se rencontrer absolument tous les sujets, points de vue et personnes d’opinions très diverses sur un flux unique et assurer des interactions directes au vu et au su de tous.

Autre architecture, autre ambiance, il en va autrement si l’on se rassemble autour d’un sujet, que ce soit pour en débattre ou seulement pour échanger. Sans qu’ils soient exempts de très nombreux défauts, TrustCafé, Reddit, Twitch, Discord donnent l’opportunité de créer des salons de discussion thématiques ou de regrouper des communautés en un espace et in fine d’avoir un débat plus approfondi. Mastodon repose quant à lui sur une structure décentralisée, c’est-à-dire que “chaque serveur Mastodon est totalement indépendant, mais capable d’interagir avec les autres pour former un réseau social mondial.” Cela permet d’éviter de cultiver l’animosité sociale. Des communautés irréconciliables n’ont pas à se côtoyer, ce qui permet d’éviter de propager le conflit de manière inopportune.

Reprendre la main sur les algorithmes

C’est pour orienter les réseaux sociaux vers des architectures permettant de créer des espaces de débat, d’apprentissage, d’échanges et de coopération que nous devons agir en premier lieu, avant même de nous intéresser à la modération des contenus qui y circulent. Le règlement européen sur les services numériques le permet en théorie, mais il faudra que la Commission européenne se mobilise en ce sens. Ce qui n’est pas le cas aujourd’hui. Jusqu’à présent, le débat a bien plus porté sur le nombre de modérateurs de tel ou tel réseau ou le nombre de contenus retirés que sur la structure des réseaux sociaux en elle-même. Ce qui risque surtout de nous épuiser pour un résultat très relatif.

Pour nous assurer que les réseaux servent une société démocratique où le débat, la construction collective et l’écoute sont privilégiés, nous devrions nous préoccuper de la manière dont les infrastructures numériques sont conçues, développées et financées. Comme les réseaux sociaux dominants sont structurellement fondés sur l’économie de l’attention, l’enfermement de leurs utilisateurs et l’amplification des contenus polémiques et choquants, nous devrions aussi décider de ne plus laisser aux mains du seul réseau social, c’est-à-dire d’une entreprise privée, le monopole de déterminer le flux algorithmique, soit le choix des contenus apparaissant sur nos fils d’actualités.

Une telle proposition est une exigence minimale pour tendre vers une plus grande réappropriation des réseaux sociaux par les utilisateurs. Elle a d’ailleurs déjà été faite sous diverses formes, que ce soit par des spécialistes du numérique, la Commission nationale consultative des droits de l’homme (CNCDH), des journalistes ou des chercheurs. Ainsi, il s’agit non plus seulement de forcer la plate-forme à accentuer tel ou tel paramètre de leur algorithme mais de contester le fait que la recommandation soit le seul fait de la plate-forme.

Pour justifier ce principe, nous pouvons nous demander si une fois une taille critique et une certaine concentration du marché atteintes, il est bien légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé dans l’espace médiatique numérique. Quand bien même certains d’entre nous souhaiteraient s’abandonner aux algorithmes de TikTok ou de Twitter, pourquoi tout un chacun devrait-il s’y plier ? Est-ce à un acteur unique de déterminer les critères en fonction desquels les contenus apparaissent ou disparaissent de nos écrans ?

Reconnaître les réseaux sociaux comme des espaces publics

La chose doit encore être affirmée : oui les réseaux sociaux dominants sont des espaces publics. Ce ne sont plus seulement des cafés que l’on est libre ou non de fréquenter. L’analogie ne fonctionne plus. Ils ont un impact structurant sur nos sociétés, que l’on y soit ou non.

2011 : les “printemps arabes” © Maxime Johnson

De plus, si tout le monde peut virtuellement s’exprimer sur les réseaux, ceux qui auront le plus de vues sont ceux qui joueront les codes du réseau et sponsoriseront leurs comptes ou publications. Ce qui laisse sur le bas-côté ceux qui ne peuvent pas ou refusent de jouer à ce jeu malsain de la mésestime de soi, des autres et du clash constant.

La prétendue liberté d’expression masque le sévère contrôle qui s’exerce sur la recommandation et la hiérarchie qu’elle recèle : l’apparence d’horizontalité (celle de tous les usagers exprimant leurs opinions ou leurs avis publiquement) masque une extrême verticalité (celle des entreprises décidant des critères de ce qui sera vu ou non).

Pour restaurer les libertés d’expression et de pensée, il nous faut donc décorréler l’intérêt du réseau social à voir promu tel ou tel contenu et l’intérêt social ou personnel à s’informer ou échanger sur tel ou tel sujet.

Œuvrer pour des infrastructures numériques démocratiques

Cela n’est désormais plus une seule affaire d’imagination ou de prospective. Regardons Bluesky (le réseau social alternatif créé par Jack Dorsey, l’un des fondateurs de Twitter) ou Mastodon : les flux algorithmiques y sont à la main des utilisateurs.

Sur Bluesky, les utilisateurs les plus chevronnés, des médias ou autres tiers de confiance peuvent proposer à l’ensemble des utilisateurs des algorithmes de leur cru. Et le choix est particulièrement simple à opérer pour un effet immédiat. Sur Mastodon, le classement chronologique reste la clef d’entrée vers les contenus publiés, mais le principe même du logiciel libre permet à l’administrateur comme à l’utilisateur de développer les fonctionnalités de curation de contenus qu’il souhaite. Cela ne veut pas dire que tout le monde doit savoir coder, mais que nous pouvons avoir le choix entre de nombreux algorithmes, paramètres ou critères de recommandations qui ne sont pas seulement le fait de la plate-forme.

Regardons aussi des projets comme Tournesol : cette plate-forme de recommandation collaborative de contenus permet à de nombreux citoyens de participer en évaluant les contenus en fonction de leur utilité publique (et non en fonction d’intérêts privés ou d’agendas politiques déterminés). Grâce à de telles initiatives, il devient possible de découvrir des vidéos pertinentes et pédagogiques que des réseaux sociaux dominants ou une plate-forme comme YouTube n’auraient probablement pas recommandées.

Toutes ces initiatives nous montrent qu’il est possible d’œuvrer pour des infrastructures numériques démocratiques. Nous ne sommes qu’à un pas politique de les valoriser. Et entendons-nous bien, l’objectif n’est pas de nous anesthésier en empêchant le désaccord. Bien au contraire ! Le but est de vivifier la démocratie et renforcer l’intelligence collective en exploitant tout le potentiel des réseaux sociaux.

Anne Alombert & Jean Cattan


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Mauco Enterprises ; © Générationlibre ; © Maxime Johnson.


Plus de presse en Wallonie…

HUNYADI : Faire confiance à la confiance (2023)

Temps de lecture : 11 minutes >

Il est de certains livres comme des petits vieux sur les bancs : on peut passer à côté en les remarquant à peine, pressé que l’on est d’aller, soi-disant, quelque part. Mais celui qui prend la peine de s’asseoir un instant et d’écouter la conversation, voire de s’y mêler, va peut-être se relever avec des trésors d’humanité dans les oreilles et… matière à méditer sur ce que signifie effectivement “aller quelque part.

EAN 9782749275840

Faire confiance à la confiance, le livre de Mark Hunyadi paru en 2023, fait cet effet-là. Au fil d’une petite centaine de pages, le philosophe louvaniste replace la confiance au cœur de la réflexion sur l’homme et sa société : le résultat est inédit et fondateur. En passant, il rend au péril numérique sa juste place, ce qui ne va pas faire plaisir aux complotistes de tout poil. A lire d’urgence !

Ce que j’ai d’ailleurs fait, au point d’intégrer l’approche de Hunyadi au cœur de ma réflexion sur comment “être à sa place” (l’ouvrage prévu a été rebaptisé, après que la philosophe française Claire Marin ait choisi ce titre pour son dernier livre). Vous retrouverez donc la confiance comme principe directeur dans les pages du livre que j’écris en ligne : Raison garder. Petit manuel de survie des vivants dans un monde idéalisé. Et, en attendant la publication dudit ouvrage, foncez chez votre libraire indépendant ou lisez la conclusion de Faire confiance à la confiance ci-dessous : nous n’avons pas résisté à l’envie de la reproduire intégralement… avec une mise en édition qui, l’espérons-nous, en facilite la compréhension.

Patrick Thonart


Conclusion : préserver la vie de l’esprit

Mark Hunyadi © out.be

Étant fondamentalement rapport au monde, la confiance est ce dans quoi nous séjournons. Mais le concubinage forcé avec le numérique modifie notre habitat : plus sûr, plus fonctionnel, il est aussi à même de satisfaire plus rapidement une gamme plus étendue de désirs, pour le plus grand contentement de ses utilisateurs. Il est donc aussi libidinalement plus satisfaisant, ce qui lui confère une force irrésistible.

J’ai essayé de montrer que ce taux accru de satisfaction allait de pair avec une baisse tendancielle du taux de confiance – au sens où on en avait de moins en moins besoin-, puisque le principe même de cette modification de notre manière d’habiter le monde est la prise en charge de nos désirs et volontés par des processus automatisés capables de les exécuter dans les conditions techniques les plus optimales. Du coup, la sécurité technique se substitue à la confiance naturelle dans le processus de réalisation de nos désirs.

Cela nous rive tous de manière inédite au système. Si la satisfaction de nos désirs devient, grâce au numérique, automatique ou quasi automatique, toute résistance se trouve abolie. Des processus machiniques prennent le relais et assurent l’exécution automatique du désir, rivant l’individu à la puissance sans limites de ce système libidinal. Le numérique, par le confort réel qu’il procure, affaiblit les énergies individuelles potentiellement en révolte contre la réalité en place, alimente donc la conservation du système en dédommageant chacun par un confort accru, érodant par là même les énergies antagonistes. De ce monde, le sens de la transcendance se trouve lui-même exilé, car plus les satisfactions sont immédiates, plus l’aspiration à un monde autre s’ éloigne.

Politiquement, les conséquences de cette évolution sont délétères pour la démocratie. Le problème ne tient pas aux institutions elles-mêmes, et on a envie de dire : hélas. Car le mal est plus profond, plus insidieux que cela. Il touche non pas au fonctionnement des institutions démocratiques (qui, formellement, tiennent le coup), mais, plus fondamentalement, aux valeurs sur lesquelles elles reposent. Au premier rang de celles-ci : la recherche coopérative de la vérité, ou la volonté de trouver un consensus et de s’y tenir. En effet, s’il est bien un acquis fondamental de la modernité démocratique, et ce, en gros, depuis la fin des guerres de religion qui avaient laissé l’Europe exsangue, c’est que les conflits doivent se résoudre symboliquement – c’est-à-dire par la discussion plutôt que par les armes.

Principe exigeant, ‘idéal régulateur’ comme disent les philosophes, mais suffisamment puissant et efficace pour que, par exemple, la construction européenne tout entière s’y adosse. Il est en outre éminemment générateur de confiance, car il permet aux citoyens de s’attendre légitimement à ce que les affaires publiques soient gérées dans le meilleur intérêt de tous.

Seulement voilà : la résolution symbolique des conflits suppose d’être d’accord de s’accorder, c’est-à-dire de coopérer à la recherche de la vérité, avec un petit v. Or, s’est progressivement imposée sous nos yeux, à bas bruit, une conviction d’une tout autre nature, selon laquelle ce qui compte, ce n’est plus tant la recherche de la vérité que l’affirmation de soi. L’identité plutôt que la vérité. Crier haut et fort ce que l’on est, clamer ce que l’on veut, penser ce qu’on pense et le faire savoir, voilà la grande affaire. Polarisation entre communautés irréductibles, fragmentation des revendications, populismes et fake news s’alimentent à ce même primat de l’identité sur la vérité : ne compte que ce qui me renforce dans mes convictions.

Ce qui, au-delà de routes leurs différences, réunit ces symptômes politiques, c’est précisément cette attitude de brutale affirmation de soi qui refuse route transcendance à soi-même : je veux ou je désire quelque chose parce que je suis ce que je suis, point barre. On retrouve ici le traitement naturaliste du désir dont il était question plus haut, mais à l’égard de soi-même : j’adhère à une info non en fonction de sa vérité présumée, mais parce qu’elle me plaît et flatte ce que je pense, sucre pour mon cerveau.

Il n’est pas question de former, de réinterpréter, de réévaluer mes aspirations spontanées en fonction de celles d’autrui, ou en regard d’un intérêt ou d’une valeur supérieurs. Chacun considère son désir ou sa volonté comme un fait brut qui cherche sa satisfaction comme la pierre tombe vers le bas. Comme pour les assaillants du Capitole le 6 janvier 2021, le désir doit faire loi.

J’ai essayé de le montrer, le numérique joue un rôle majeur dans ces évolutions. Car il renforce formidablement cette tendance à l’affirmation de soi, qui est aussi une tendance à la satisfaction de soi. Dans ce monde, on a de moins en moins besoin de confiance, donc de relation constructive à autrui. Dans un monde administré par le numérique, la confiance devient inutile, parce que le système tend toujours davantage à sécuriser la réalisation de nos désirs. Il les prend en charge et les exécute à notre meilleure convenance, éliminant au maximum les risques de déception.

De ce point de vue, le numérique se présente comme un immense système de satisfaction, où tout le monde, du cueilleur de champignons à l’athlète de pointe en passant par le diabétique et le chercheur en philosophie, trouve son compte. C’est une réussite diabolique, en ce sens qu’elle enferme tout un chacun dans sa bulle de satisfaction (à l’origine, diable veut dire : qui sépare). Le numérique n’est pas une fenêtre sur le monde, mais monde lui-même, paramétré par d’autres ; un monde au sein duquel, je l’ai dit, l’individu ne fait que répondre à une offre numérique.

Extrapolée à la limite, cette évolution lourde conduit à une forme de fonctionnalisme généralisé: non pas un fonctionnalisme où le système attribue à chacun sa fonction (comme dans la division du travail, où chacun est assigné à une tâche par son n + 1), mais où chacun attend du système qu’il remplisse la fonction qu’il lui attribue. Renversement, au demeurant, typiquement dans la veine de l’individualisme nominaliste : souverain dans sa volonté, l’individu met à son service un système qui l’exécute. Et le système est ainsi fait qu’il en est désormais techniquement capable. Dans ce monde, chacun devient l’administrateur de son propre bien-être, pour sa plus grande satisfaction. L’exécution du désir et de la volonté est automatisée, prise en charge par les algorithmes. Plus besoin de confiance dans ce monde-là ! La confiance y est remplacée par la sécurité. Les relations naturelles de confiance, et leur incertitude constitutive, se trouvent remplacées par des relations techniques, comme on a pu le voir ici à l’exemple du bitcoin.

Cette évolution marque un vrai tournant anthropologique et sociétal. Elle embarque tout sur son passage, y compris, donc, les valeurs qui sous-tendent la démocratie. Car elle renforce immensément chez l’individu la tendance libidinale à la satisfaction de soi, qui dès lors prévaut sur toute autre considération. Et elle renforce au passage son narcissisme cognitif, qui le pousse à préférer sa vérité à la recherche coopérative de celle-ci. L’individu trouve désormais d’autres communautés de confiance, structurées autour des influenceuses et influenceurs, par exemple, des communautés affectives formées de ceux qui pensent et sentent comme lui. Individuel ou collectif, le cockpit numérique n’en est pas moins un puissant isolant.

Nous ne sommes malheureusement, en l’état actuel des choses, pas équipés pour faire face à ces évolutions et adopter les réponses qu’elles réclament. Ni moralement, ni politiquement. Car le seul cadre dont sont dotées les démocraties constitutionnelles modernes, c’est la défense des droits et libertés individuels. Or, l’emprise du numérique comme le changement climatique sont des phénomènes globaux qui nécessitent des réponses globales. L’éthique individualiste libérale, de part en part nominaliste comme je l’ai rappelé, n’est simplement pas taillée à la mesure de ces problèmes. Au contraire, elle les aggrave, animée qu’elle est du seul souci de préserver à chacun sa sphère de liberté d’action, incapable en conséquence d’agir sur les effets cumulés des libertés individuelles agrégées.

En l’occurrence, l’enjeu éthique fondamental de l’emprise numérique n’est pas l’ensemble des risques qu’elle fait courir à nos vies privées ou à la sécurité de nos données. Ce sont là des problèmes certes importants et qu’il faut résoudre, mais le droit allié à la technique s’y emploie déjà ; et bien que difficile, cette tâche n’est pas insurmontable. En revanche, ce que le numérique fait à l’esprit représente un enjeu autrement plus considérable !

Le fonctionnalisme généralisé, l’automatisation de l’exécution des désirs, le renforcement du narcissisme cognitif, l’isolement mental, et tout cela au nom d’une plus grande satisfaction libidinale : voilà qui menace la vie de l’esprit humain bien davantage que les risques juridiques que fait courir aux individus le commerce de leurs données.

Or, cette menace ne peut être appréhendée dans le cadre de l’éthique individualiste – celle des droits de l’homme – dont nous disposons actuellement. Elle n’est simplement pas à la hauteur des enjeux anthropologiques et sociétaux qui se dessinent. Ainsi, l’Union européenne par exemple, qui se considère facilement exemplaire dans le domaine de la régulation du numérique, produit à grande vitesse un nombre considérable de textes législatifs, à commencer par le RGPD (Règlement général sur la protection des données, entré en vigueur en 2018), mais qui tous, sans exception aucune, ne font qu’entériner le système existant, en l’obligeant simplement à se conformer aux exigences des droits fondamentaux des individus. Une telle obligation est importante, certes, et on se désolerait si on ne s’évertuait à l’honorer. Elle est de plus difficile à implémenter dans la réalité, en raison des caractéristiques techniques du fonctionnement numérique, chacun le sait ; tenter de le faire est donc en soi une tâche héroïque.

Il n’empêche que cette approche par ce que j’appelle l’éthique des droits – l’éthique qui se focalise sur les torts faits aux individus – ne peut qu’ignorer les enjeux éthiques fondamentaux qui concernent la vie de l’esprit en général, c’est-à-dire nos rapports au monde, aux idées, à l’imagination. Car la vie de l’esprit pourrait être entièrement prise en charge par des processus automatiques – elle pourrait donc être intégralement automatisée en ce sens -, tout en respectant scrupuleusement les principes fondamentaux de l’éthique des droits. Chacun pourrait se retrouver à gérer son existence dans son cockpit, sans qu’aucune charte éthique ou texte législatif n’y trouve rien à redire. Le respect de l’ éthique des droits est ainsi compatible avec la déshumanisation de la vie de l’esprit.

La défense des droits individuels ne peut donc être le dernier mot de notre rapport au numérique. Sécuriser les transactions numériques, protéger la vie privée, garantir la liberté d’expression et la non-discrimination, tout important que cela soit, passe à côté des véritables enjeux éthiques du numérique, pour lesquels il n’existe pourtant aucun comité d’éthique. Tous sont en effet prisonniers de l’éthique des droits, qui ruisselle des plus hauts textes normatifs (le préambule des Constitutions, ou la Convention européenne des droits de l’homme) jusqu’aux plus infimes règlements internes d’entreprises.

L’impuissance de l’éthique des droits et de la pensée libérale en général rend indispensable une refonte de l’organigramme de nos sociétés démocratiques chancelantes. Je ne reviens pas ici sur la nécessité de créer une institution capable d’organiser l’ agir collectif à la hauteur où agissent actuellement les grandes puissances privées du numérique. C’est là une nécessité en quelque sorte conceptuelle, car aucun agir individuel, même agrégé, ne parviendra à contenir, infléchir ou réorienter ces évolutions massives. Politiquement donc, ce qui est requis, c’est une institution transnationale dont l’horizon normatif ne saurait se limiter à la défense des droits et libertés individuels, pour la raison simple que l’ensemble des phénomènes que j’ai décrits pourrait se dérouler dans le respect intégral des principes de l’éthique des droits. Ces phénomènes sont plutôt à comprendre comme l’effet systémique engendré par l’éthique des droits elle-même, qui laisse tout faire pour peu qu’il ne soit pas fait de tort aux individus en particulier. D’où la nécessité d’une institution qui secondarise l’éthique des droits, pour permettre de penser à l’horizon global du type d’humanité et de société (donc de vie de l’ esprit) que nous souhaitons. Seule une telle institution réflexive peut nous sortir de l’impuissance dans laquelle nous enferme la petite éthique des droits.

Mais une telle institution serait elle-même impossible si elle ne pouvait pas puiser dans les ressources des acteurs eux-mêmes. Cette institution doit apparaître normativement désirable à leurs yeux. Pour qu’une institution ne flotte pas dans le vide éthéré de ses principes abstraits, elle doit pouvoir s’ancrer dans le sens que les acteurs sont capables de conférer à leur propre expérience.

Ce sont ces ressources de pensée négative dont s’alimente la vie de l’esprit que le système érode jour après jour en s’adressant méthodiquement à ses utilisateurs comme à des êtres libidinaux ; il s’adresse à eux non comme à des êtres rationnels capables de pensée et de jugement, mais comme à des êtres cherchant la satisfaction automatique de leurs désirs et volontés. J’ai évoqué comment cette tendance actuellement à l’œuvre s’inscrivait dans le cadre général d’une substitution de relations techniques aux relations naturelles avec le monde, et ses conséquences de longue portée.

Mais une tendance n’est qu’une tendance, précisément, et elle laisse encore la place à des expériences qui ne s’y plient pas. Le numérique ne pourra pas remplacer ni même médiatiser toutes les relations au monde ; s’éprouver soi-même et éprouver le monde et la force illuminante des idées reste et restera l’apanage des sujets vivants, sauf à devenir des robots. C’est par conséquent dans des îlots d’expériences quotidiennes non encore colonisées par le numérique – expériences de confiance, de face-à-face, d’amour, de communication authentique, de confrontation réelle, mais aussi expériences du corps vivant, du corps dansant, du corps sentant -, c’est dans ces expériences d’épreuve qualitative de soi et du monde que les acteurs peuvent trouver eux-mêmes les ressources de contre-factualité capables d’alimenter leur pensée négative, pensée critique qui témoigne encore qu’un autre monde est possible. L’épreuve qualitative du monde, qui a été méthodiquement occultée par l’émergence du nominalisme, et qui est aujourd’hui systématiquement écartée par l’ontologie implicite du numérique, recèle, pour peu qu’on y porte une juste attention, l’image vivante d’une relation possiblement non aliénée au monde.

La philosophie est la seule science qui puisse appréhender l’expérience humaine comme un tout. C’est donc à elle que revient la tâche, aujourd’hui muée, sous la pression des circonstances, en tâche politique, d’exhiber le sens de ces expériences intramondaines riches en ressources face à l’administration numérique du monde. Ces expériences conservent les traces d’un rapport non nominaliste au monde ; traces inapparentes, comme diluées dans l’océan de l’ esprit nominaliste qui nous gouverne, mais que pour cette raison même la philosophie, en particulier dans ses usages critiques, est en charge de préserver et d’exposer comme autant de pépites où se réfugie l’esprit authentiquement humain.

La sécurité technique ne peut certes pas remplacer toutes les relations naturelles de confiance, sauf à ce que nous devenions des robots – auquel cas nous ne pourrions même plus nous en plaindre. C’est à la philosophie – la seule science qui envisage l’expérience humaine comme un tout – que revient la tâche éminente de montrer qu’un autre monde est possible, un monde où l’esprit humain, plutôt que s’ encapsuler sur lui-même, puisse se confronter à ce qui le dépasse. C’est à la philosophie que revient de montrer que la vérité, la confiance, l’amour, et d’autres expériences semblables, irréductibles à la relation numérique, élèvent l’esprit parce qu’ils le transcendent.

Mark Hunyadi, philosophe


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : HUNYADI Mark, Faire confiance à la confiance (2023) | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © Editions ERES ; © out.be.


Plus de tribunes libres en Wallonie…

MATHY : Sans titre (2016, Artothèque, Lg)

Temps de lecture : 2 minutes >

MATHY Vincent, Sans titre

(impression numérique, 40 x 30 cm, 2016)

Vincent MATHY, né à Liège en 1971, a suivi les cours de l’école Saint-Luc de Bruxelles. Son dessin, qui mêle techniques traditionnelles et numériques a très vite séduit. Illustrateur de talent, il a publié une trentaine d’albums jeunesse (Gallimard Jeunesse, Albin Michel, Bayard, Milan, L’Ecole des Loisirs…) et de bandes dessinées. Il est notamment co-auteur de la série “Ludo” chez Dupuis. (d’après  GALLIMARD-JEUNESSE.FR)

Cette image est tirée d’un ensemble publié par l’éditeur liégeois Ding Dong Paper en 2016. Ici Vincent Mathy développe un vocabulaire fait de formes simples, géométriques, et de couleurs vives, dans la lignée d’illustrateurs comme le Russe Vladimir Lebedev, l’Anglais Fredun Shapur ou l’Italien Bruno Munari.

Et pourquoi pas emprunter cette oeuvre gratuitement à l’Artothèque de la Province de Liège ? N’attendez plus, foncez au 3ème étage du B3, le centre de ressources et de créativité situé place des Arts à B-4000 Liège…

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation (droits cédés) et mise à jour par wallonica.org  | source : Artothèque Chiroux | commanditaire : Province de Liège – Culture | contributeur : Philippe Vienne | crédits illustrations : © Vincent Mathy ; © editionslesfourmisrouges.com | remerciements à Bénédicte Dochain, Frédéric Paques et Pascale Bastin

KIRKOVE : Cluedo (2012, Artothèque, Lg)

Temps de lecture : 2 minutes >

KIRKOVE Raphaël, Cluedo
(impression numérique, 50 x 50 cm, 2012)

Et pourquoi pas emprunter cette oeuvre gratuitement
à l’Artothèque Chiroux de la Province de Liège ?

Raphaël Kirkove © saint-leonart.be

Né en 1976, Raphaël KIRKOVE dessine depuis son enfance et touche à tout depuis son adolescence. Diplômé de l’Académie des Beaux-Arts de Liège, sa création artistique se partage entre le dessin, la peinture et les arts numériques. Il est présent sur la scène alternative liégeoise depuis bientôt quinze ans et participe activement au collectif Detruitu. (d’après LESATELIERS04.BE)

Le travail  de Raphaël Kirkove flirte avec la figuration libre, le cut-up, l‘imagerie psychédélique et les comics underground… On retrouve dans ses œuvres une multitude de techniques et de styles. Son sujet est le monde dans toute sa complexité et son absurdité. Cette image fait partie d’une série réalisée sur ordinateur et présentant la figure du petit fantôme, que l’on voit ici étendu raide à l’avant plan. (d’après LESATELIERS04.BE)

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation (droits cédés) et mise à jour par wallonica.org  | source : Artothèque Chiroux | commanditaire : Province de Liège – Culture | contributeur : Philippe Vienne | crédits illustrations : © Raphaël Kirkove ; saint-leonart.be | remerciements à Bénédicte Dochain et Frédéric Paques

PUTZ : Les Marches du savoir (2015, Artothèque, Lg)

Temps de lecture : 2 minutes >

PUTZ Patrick, Les Marches du savoir
(impression sur alu-dibond, 50 x 50 cm, 2015)

Et pourquoi pas emprunter cette oeuvre gratuitement
à l’Artothèque Chiroux de la Province de Liège ?

pputz
Patrick Putz © wikihuy.be

Autodidacte (ayant fréquenté l’Académie Royale des Beaux-Arts et Saint-Luc à Liège), Patrick PUTZ développe un travail en arts numériques. Utilisant la peinture, la gravure et d’autres moyens d’impressions des logiciels de retouche et composition d’images, il forme des images qu’il veut énigmatiques, mais auxquelles il attribue un sens.

Réalisée avec des outils numériques, cette scène est inspirée du surréalisme. On y voit deux bernaches en vol, un autel dédié à la connaissance et une chaise design en mercure dans une pièce d’un intérieur non identifiable. 

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation (droits cédés) et mise à jour par wallonica.org  | source : Artothèque Chiroux | commanditaire : Province de Liège – Culture | contributeur : Philippe Vienne | crédits illustrations : ©Patrick Putz ; wikihuy.be | remerciements à Bénédicte Dochain et Frédéric Paques

MATHY : Dog Show (2014, Artothèque, Lg)

Temps de lecture : 2 minutes >

MATHY Vincent, Dog Show
(impression numérique, 23 x 23 cm, 2014)

Et pourquoi pas emprunter cette oeuvre gratuitement
à l’Artothèque Chiroux de la Province de Liège ?

VincentMathy
Vincent Mathy

Vincent MATHY, né à Liège en 1971, a suivi les cours de l’école Saint-Luc de Bruxelles. Son dessin, qui mêle techniques traditionnelles et numériques a très vite séduit. Illustrateur de talent, il a publié une trentaine d’albums jeunesse (Gallimard Jeunesse, Albin Michel, Bayard, Milan, L’Ecole des Loisirs …) et de bandes dessinées. Il est notamment co-auteur de la série “Ludo” chez Dupuis. (d’après  GALLIMARD-JEUNESSE.FR)

Cette illustration est une impression numérique limitée à 20 exemplaires réalisée pour thewurstgallery.com. L’image a été exposée avec celles de dizaines d’illustrateurs internationaux à Portland, en 2007. Chaque illustrateur donnait sa vision du “Dog show”. Ici ce sont deux puces qui maîtrisent un chien, sous la menace de leur colt. Le dessin délicat de Mathy évoque son travail d’illustrateur jeunesse, notamment chez Père Castor.

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation (droits cédés) et mise à jour par wallonica.org  | source : Artothèque Chiroux | commanditaire : Province de Liège – Culture | contributeur : Philippe Vienne | crédits illustrations : © Vincent Mathy ; editionslesfourmisrouges.com | remerciements à Bénédicte Dochain et Frédéric Paques

WILLEMS : Réflexions à propos des Data Centers

Temps de lecture : 8 minutes >

2019, l’odyssée de l’espace ?

Data Center Kesako ?

Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).

Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.

Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.

Parc actuel

Il existe aujourd’hui environ 4.000 Data  Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :

  • quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
  • un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
  • un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
  • un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises

Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.

Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).

Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).

Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.

Les enjeux sont géostratégiques (principe de territorialité des données )

Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.

Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.

Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :

Notons l’exemple d’une entreprise française qui a vu ses données délivrées à la NSA, après une décision de la cour américaine.

Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).

Les enjeux sont économiques

L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).

Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…

On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.

L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :

  • (à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
  • (à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
  • (à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
  • jusqu’à la consolidation en vue de mener des projections stratégiques.

Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.

Les enjeux sont écologiques

Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…

Les centres de traitement de données sont de gros consommateurs d’énergie. A eux seuls, ils représenteraient 18% de la consommation électrique mondiale.

En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).

Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.

A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.

Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).

En conclusion

Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :

Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :

  • la territorialité des données ;
  • l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
  • la protection contre le « Cloud Act ».

Mais ils conduisent également à des opportunités de développement :

  • intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
  • développement économique par intérêts mutuels.

Mais d’autres enjeux restent cachés :

  • Qui va financer ces infrastructures ?
  • Qui sera propriétaire des données ?
  • Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?

Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?

Un mix des 2 ?

Claude WILLEMS (2019)


Disposez de plus de dispositifs…

Transformer le travail en jeu, pour mieux aliéner

Temps de lecture : < 1 minute >

© Milan

Si la fête du travail a lieu le 1er mai, c’est à cause de mouvements ouvriers qui eurent lieu aux Etats-Unis en 1884. C’est peut-être aux Etats-Unis qu’il faut aller dénicher les nouvelles formes d’aliénation… Et chez Uber en particulier. Parce que si le terme d’ubérisation est désormais passé dans la langue pour désigner cette économie des plateformes qui mettent en lien directement des clients et des travailleurs indépendants, il va sans doute falloir lui ajouter un contenu supplémentaire au mot. C’est en tout cas ce à quoi nous incite une enquête passionnante publiée le mois dernier par le New York Times.
Une enquête qui nous apprend que Uber, faisant face à une contestation montante de ses chauffeurs, a décidé d’utiliser les sciences comportementales pour réformer le rapport entre la plateforme et les gens qui travaillent pour elle. Le problème d’Uber, c’est que ses chauffeurs sont des travailleurs indépendants. Ca permet d’alléger considérablement les coûts de l’entreprise, mais il y a un souci : ces travailleurs travaillent où ils veulent, quand ils veulent…

Lire la suite de l’article de Xavier de la Porte sur FRANCECULTURE.FR (1 mai 2017)


Plus de presse…