Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

Qu’indique réellement le ‘pourcentage de pluie’ affiché par les applications météo ?

Temps de lecture : 8 minutes >

[RTBF.BE, FAKY du 3 août 2023] Le pourcentage de pluie affiché sur les applications météo présentes sur les smartphones donne souvent lieu à de nombreuses interprétations. En réalité, ce chiffre indique la probabilité que de la pluie, légère ou soutenue, se manifeste à un endroit donné dans un certain laps de temps. Pour faire ce calcul, des formules complexes sont utilisées. Cependant, plus la prévision se fait à échéance courte et pour un territoire restreint, plus elle sera potentiellement fiable pour l’utilisateur.

Les applications météo sont présentes sur de nombreux smartphones et utilisées par un grand nombre d’utilisateurs. Sur la plupart de ces applications gratuites accessibles au grand public, des pourcentages sont indiqués pour chaque jour ou chaque heure. Il s’agit de “pourcentages de pluie“.

Demain, il va faire mauvais et pleuvoir, je vois qu’il y a 50% de précipitations annoncées“. Cette phrase prononcée est parfois suivie d’un débat animé sur ce que signifie vraiment cette donnée. Ainsi, selon les explications que l’on peut entendre, les interprétations du pourcentage de pluie affiché varient :

      • Pour certains, il s’agit de la quantité de pluie qu’il va tomber : 10% sera une pluie fine, 100% donnera des trombes d’eau.
      • Le pourcentage de pluie exprimerait la durée des précipitations en pourcentage sur le temps d’une journée ou sur une heure.
      • Pour d’autres, il s’agit de la probabilité qu’il pleuve à endroit donné, peu importe la quantité d’eau qu’il tombera : 50% de pluie indiquerait qu’il y a une chance sur deux qu’il pleuve.

Une étude réalisée en 2005 sur la compréhension par le public de la phrase : “30% de chances de pluie demain“, indiquait également que ce pourcentage était souvent mal interprété par les habitants de différentes villes européennes testées (Amsterdam, Athènes, Berlin et Milan).

En réalité, il s’agit de la probabilité qu’il pleuve à un endroit donné à un moment donné. Cependant le calcul est un peu plus complexe et les résultats affichés demandent de la nuance et de la prudence dans leur interprétation.

Applications météo sur IPhone et Android

Sur un grand nombre d’applications météo gratuites, un pourcentage de pluie accompagne souvent les prévisions météo au jour le jour, ou heure par heure, quel que soit le logiciel d’exploitation. Des applications météo natives et gratuites sont habituellement disponibles avec des widgets (des composants d’interface) dédiés qui permettent de les afficher sur les écrans d’accueil. Ces applications intégrées et gratuites proposent des prévisions symbolisées par des logos (soleil, pluie, neige…) mais aussi des “pourcentages de pluie“.

Nous avons comparé deux téléphones fonctionnant avec les deux principaux OS (systèmes d’exploitations) présents sur le marché. Sur Android, ce pourcentage semble précis à l’unité près (6% ou 81% apparaissent), alors que sur iPhone, ces pourcentages sont arrondis à la dizaine (60% ou 40%). Ces données météo ne sont pas calculées par les sociétés Google (qui développe Android) ou Apple elles-mêmes, mais par des services météo professionnels et privés. De manière plus précise encore, tant Google qu’Apple ont recours à la même société : la société d’informatique IBM et son site weather.com. Ce site héberge la chaîne de TV américaine The Weather Channel dont on peut voir le logo sur les applications. L’Institut Royal Météorologique belge n’intervient pas dans ces prévisions disponibles sur les applications natives des smartphones.

Dans nos captures d’écrans, réalisées le même jour, à la même heure et au même endroit, les deux indicateurs de prévisions émanant du même service ne donnent pas tout à fait le même résultat lors de prévisions à plus long terme. Si les prévisions liées aux températures coïncident globalement, le pourcentage de pluie affiché peut varier. Ainsi :

      • Le jour de la photographie (un lundi) : les deux applications affichent un pourcentage de pluie minime ou nul (6% pour Android ou 0%).
      • Le vendredi qui suit la date de la photographie : Android annonce 80% de chances de pluie quand Apple n’en prévoit que 40%.
      • Le dimanche qui suit : Android est encore plus pessimiste avec un risque de pluie affiché de 66% alors qu’Apple ne prévoit pas de pluie du tout.

De quoi interroger sur ce pourcentage qui peut offrir tant de variations.

Que représente le pourcentage de précipitation indiqué sur les apps ?

Pour mieux comprendre ces différences, il est important de définir ce que recouvre précisément le terme précipitation qui, dans le langage courant, indique habituellement de la pluie ou la chute de neige. Les météorologistes étasuniens considèrent qu’il pleut à partir de 0,254 mm (ce qui correspond à la mesure anglaise de 0,01 inch) de pluie par mètre carré. Ce sont des précipitations très faibles qui mouillent légèrement le sol mais ne laissent pas de flaques d’eau.

Le pourcentage qui s’affiche sur nos smartphones correspond au terme météorologique de “probabilité de précipitation” (qui est utilisé par l’acronyme anglais de “Probability of Precipitation“, soit “PoP“). Et cette PoP se définit comme étant la probabilité qu’en tout point d’une zone géographique délimitée, il tombe au moins 0,254 mm de pluie (ou de neige en hiver) durant une période observée bien définie.

Comment se calcule cette PoP ?

La PoP est toujours calculée en prenant en compte trois variables :

      1. une période donnée : une heure, une demi-journée, une journée entière. Plus la période est longue, plus il y a de probabilité de connaître un épisode de pluie au cours de cette période.
      2. une zone géographique déterminée : plus la zone en question est grande, plus le risque qu’il y pleuve à un moment donné est grand.
      3. le degré de certitude des météorologistes : il ne suffit pas d’estimer qu’il risque de pleuvoir, les météorologistes ajoutent aussi un degré de certitude de la prévision en fonction des différents modèles météorologiques utilisés.

Ces trois éléments sont alors intégrés dans une équation. Au cours d’une période donnée et dans une zone donnée :

Pourcentage (%) de confiance de la prévision X Pourcentage (%) de la zone concernée par la prévision de pluie = Pourcentage (%) de probabilité de précipitation (PoP)

Des réalités différentes pour un même PoP

Trois exemples pour mieux comprendre. Pour la même période du jeudi de 13 heures à 14 heures dans le Brabant wallon, trois mesures de PoP pourraient être identiques, dans les cas où :

      • Les services météo estiment être certains à 100% qu’il va pleuvoir sur 40% du territoire dans ce laps de temps = 40% de probabilité de précipitation.
      • Les services météo estiment être certains à 40% qu’il va pleuvoir sur 100% du territoire dans ce laps de temps = 40% de probabilité de précipitation aussi.
      • Les services météo estiment être certains à 80% qu’il va pleuvoir sur 50% du territoire dans ce laps de temps = 40% de probabilité de précipitation également.

Autrement dit, trois réalités physiques différentes peuvent amener à un même pourcentage affiché sur l’application météo. L’élément le plus décisif est en réalité la zone concernée par la prévision. Ainsi, si on est certain à 100% qu’il pleuvra sur la moitié est du Brabant wallon, l’application affichera une probabilité de précipitation de 50% pour le Brabant wallon. Or, si on réduit la zone à l’est du Brabant wallon, où à la seule commune de Jodoigne par exemple, l’application affichera une probabilité de précipitation de 100%.

Comment “The Weather Company” calcule-t-elle le PoP ?

Joe Koval, météorologue principal pour The Weather Company détaille la méthode qu’ils utilisent pour calculer les probabilités de précipitations affichées sur son site et sur leur app : “La probabilité de précipitations prévue dans l’application The Weather Channel est créée dans les premières heures de la prévision à partir d’un mélange de notre produit de prévision radar et de notre modèle de prévision propriétaire IBM GRAF, ainsi que des observations de surface. Pour les délais allant de quelques heures à quinze jours, la probabilité de précipitations est dérivée des prévisions de précipitations de notre système propriétaire de prévisions météorologiques consensuelles, qui mélange une centaine de modèles météorologiques.

Autre élément important dans ces estimations, la taille des zones géographiques prises en compte. Une prévision pour la ville entière de Bruxelles sera généralement bien moins précise que pour une commune spécifique comme Etterbeek.

M. Koval indique que de nombreux paramètres sont pris en compte dans le calcul de la PoP et que ceux-ci peuvent évoluer. “En règle générale, les prévisions à court terme pour les prochaines heures ont une applicabilité spatiale d’environ 1 km x 1 km, tandis que les prévisions à plus long terme sont plus proches de 4 km x 4 km.

Des PoP à la fiabilité variable

En règle générale, plus la prévision est proche en temps, plus la PoP sera précise. Dès lors, votre PoP sera davantage fiable aujourd’hui ou demain que dans cinq jours. Mais là encore, il peut y avoir des exceptions. Deux exemples :

      • Si les conditions sont instables (tendance aux averses) à aujourd’hui et demain, il se peut que la masse d’air se stabilise avec l’arrivée de hautes pressions à dans deux jours et donc le 0% de dans deux jours sera plus fiable que le 50% aujourd’hui.
      • Si un front pluvieux bien structuré et généralement bien cerné par les modèles arrive à dans deux jours après deux jours dans des conditions instables (risque d’averses voire d’orage), la fiabilité du POP dans deux jours sera là aussi plus grande qu’aujourd’hui ou demain.

En regardant la météo, vérifiez bien la zone géographique couverte par votre prévision pour savoir ce qui explique une probabilité de précipitation moyenne (comprise entre 30 et 70% par exemple). Une chose est certaine, ce pourcentage n’indique pas quelle quantité de pluie il va tomber, il pourrait s’agir d’une bruine ou de trombes d’eau. Cela n’indique pas la proportion de temps qu’il va pleuvoir au cours de l’heure ou la journée concernée par le pourcentage.

Et à l’Institut Royal Météorologique belge ?

© rtbf.be

Sur l’application officielle de l’Institut royal météorologique, des PoP sont présentées heure par heure pour les prochaines 48 heures, mais aucune PoP n’est proposée au-delà de deux jours, contrairement à d’autres services. Sur son site Internet, l’IRM détaille sa façon de calculer ses probabilités de précipitations : “Les probabilités de précipitations (%) sont déterminées par les précipitations prévues pour le centre de la commune consultée et pour des points du modèle de prévisions très proches autour de la commune, afin de tenir compte du fait qu’une prévision de précipitation très localisée est faite avec une certaine marge d’erreur spatiale et temporelle, que nous exprimons sous forme de probabilité. Le rapport entre tous les points du modèle prévoyant des précipitations et le nombre total de points considérés dans un rayon autour du point central est la probabilité de précipitations, exprimée en pourcentage. Si des précipitations sont attendues au niveau du point central, une icône de précipitation est affichée. Par exemple, il se peut qu’il y ait plus de 50% de chances de précipitations mais aucune icône de précipitation n’est affichée car ces précipitations sont attendues dans la région mais pas au point central de la commune. À l’inverse, un pictogramme de précipitation pour une probabilité inférieure à 50%, est également possible.

David Dehenauw, météorologue à l’Institut Royal Météorologique indique que l’IRM n’utilise pas du tout le même modèle que le fournisseur The Weather mais qu’ils proposent leurs propres prévisions commune par commune : “Pour une prévision à moins de deux jours, on compare les données qu’on obtient sur une commune par rapport aux prévisions qu’on obtient pour les communes voisines. Si la prévision de pluie de l’ensemble des communes se vérifie, notre probabilité de pluie va tendre vers 100%. À l’inverse, si une pluie annoncée par un modèle sur une commune n’est pas vérifiée sur les autres communes, on va baisser la prévision vers 0% puisqu’on pensera plutôt à un bruit statistique, quelque chose de pas fiable. Pour une prévision à plus de deux jours, on fait la moyenne de ce qu’annoncent les différents modèles qu’on utilise entre eux.

Des prévisions à prendre avec prudence

Si la qualité des prévisions météorologiques progresse avec l’arrivée d’outils plus performants, elles ne sont pas pour autant infaillibles. Parmi ces prévisions, le pourcentage de pluie ne déroge pas à la règle. Cette donnée dépend de nombreuses variables comme la précision géographique, les modèles météos utilisés ou la durée pour laquelle elle est calculée. Par ailleurs, comme pour les prévisions météorologiques en général, plus le délai de cette prévision est court plus la prévision sera potentiellement fiable. Les prévisions à moyen ou à long terme (au-delà de deux jours) seront donc, elles, moins précises.

Par ailleurs, les pictogrammes affichés pour symboliser la météo sur une journée peuvent parfois être “réducteurs” et ne pas traduire la météo globale qui peut parfois être très changeante. Sur une journée, il peut y avoir des moments de grand soleil, puis des orages. Une icône reprenant ces deux conditions très différentes sur une même journée n’existe pas (l’IRM en affiche cependant parfois deux pour une journée), cela peut donc être trompeur.

Enfin, comme nous l’expliquions en début d’article, des différences existent entre les PoP affichés sur Android et ceux affichés sur iPhone. Ceux-ci indiquent pourtant utiliser la même source, les prévisions de The Weather Channel. La société n’a jamais pu nous apporter d’explication sur ces différences. Globalement, ces probabilités de précipitations sont donc à prendre avec prudence.

Grégoire Ryckmans et Guillaume Woelfle


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | source : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © One Plus Meteo ; © rtbf.be.


Plus de presse en Wallonie-Bruxelles…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

DIGITAL BENIN ouvre un nouveau chapitre dans la saga des restitutions

Temps de lecture : 5 minutes >

[MONDAFRIQUE.COM, 13 novembre 2022] Le lancement du projet numérique Digital Benin – le premier catalogue complet de plus de 5 240 bronzes béninois connus à travers le monde, mis en ligne cette semaine – aurait été pris jusqu’il y a peu comme la preuve que la restitution était inutile.

Lorsqu’il a été imaginé il y a environ cinq ans par Barbara Plankensteiner au musée MARKK de Hambourg, en réponse à des demandes de chercheurs nigérians, et même lorsque le projet a démarré en 2020 grâce à un financement sans précédent de 1,2 million d’euros de la Fondation Ernst von Siemens, il aurait semblé fantaisiste que le gouvernement allemand s’engage bientôt à restituer au Nigeria tous les bronzes du Bénin conservés dans ses musées.

Il l’a fait en avril 2021, et un accord avec le Nigeria pour le transfert légal de la propriété a été signé en juillet de cette année. Digital Benin pourrait bien avoir été de loin le projet le plus ambitieux, mais néanmoins le dernier d’une longue série de projets qui ont cherché, avec la perspective de restitutions physiques apparemment politiquement impossible, le compromis de rendre les ressources en ligne plus facilement accessibles à ceux qui se lamentent sur les trésors perdus. Aujourd’hui, alors que le paysage de la restitution a irrévocablement changé depuis le discours de Ouagadougou d’Emmanuel Macron en 2017, ce projet est un au revoir salutaire à une époque de surdité par rapport aux demandes  des peuples africains.

Une réalisation remarquable

Par un curieux coup du sort, Digital Benin devrait être une consolation pour ceux qui, en Occident, continuent de décrier la perspective de céder la propriété des bronzes. Il s’agit d’une réalisation remarquable ; les ressources proposées offrent un engagement plus profond, plus riche et plus gratifiant avec l’histoire et la signification de ces artefacts que tout ce que peut offrir un musée occidental. Le catalogue peut être filtré par catégorie en anglais et en edo (le royaume du Bénin se trouve dans l’actuel État d’Edo au Nigeria), ainsi que par provenance et par institution. Une section distincte est consacrée à la provenance, où il apparaît immédiatement que le mode d’acquisition le plus courant est, de loin, l’expédition punitive britannique de 1897, au cours de laquelle Benin City a été mise à sac et l’Oba (roi) déposé. Cette provenance est partagée par 1 427, soit environ un tiers, de tous les objets béninois compilés ici. Parmi les autres noms figurant sur cette liste, on trouve des marchands, des diplomates, des officiers coloniaux, des ethnographes et des dignitaires de la cour du Bénin. Chacun d’entre eux est accompagné d’informations biographiques qui permettent aux utilisateurs du site de retracer les itinéraires complexes par lesquels les objets ont fini par être dispersés dans le Nord. Il existe deux cartes interactives, l’une donnant un aperçu des sites importants de l’ancien royaume du Bénin et l’autre indiquant l’emplacement de tous les bronzes du Bénin connus dans les musées du monde entier. (Cinq institutions détenant des œuvres béninoises se trouvent dans l’hémisphère sud – trois en Australie et deux au Nigeria. Les 126 autres se trouvent dans le nord).

© Digital Benin Project
Une vision équilibrée entre les sources anglaises et Edo

Des efforts précédents, notamment par Kathryn Wysocki Gunsch dans The Benin Plaques : A 16th Century Imperial Monument (2017) et Dan Hicks dans The Brutish Museums (2020), ont été faits pour reconstituer un catalogue des bronzes. Ni l’un ni l’autre n’est aussi complet, ni ne se vante d’une telle richesse de matériaux supplémentaires que celui-ci. Mais ce qui distingue vraiment Digital Benin, c’est l’équilibre qu’il a réussi à trouver entre les matériaux anglais et ceux d’Edo. Il y a une page consacrée aux témoignages oraux de sources Edo, et une autre intitulée “”Eyo Oto” – une expression utilisée par les Edo lorsque les fondations d’un nouveau bâtiment sont posées. Les chercheurs font preuve d’une certaine modestie en qualifiant ce projet de “recherche fondamentale sur la dénomination des objets historiques dans leur contexte Edo”.

Chaque plaque de bronze que vous voyez ici était une page de l’histoire de Benin city

L’une des causes de regret les plus souvent citées par les historiens d’Edo est qu’avec la mise à sac de Bénin, une grande partie de la mémoire culturelle du royaume, inhérente à la position relative des plaques et autres sculptures dans le palais de l’Oba datant du XVe siècle, a été perdue – les volumes d’une histoire auparavant cohérente étant éparpillés comme dans la bibliothèque de Babel de Jorge Luis Borges. Lors d’un événement de lancement mercredi soir, le responsable de la recherche du projet, Osaisonor Godfrey Ekhator-Obogie, a déclaré : “Chaque plaque de bronze que vous voyez ici était une page de l’histoire du Bénin”. Le plus grand héritage de Digital Benin dépendra de sa capacité à aider les Edo à entamer sérieusement le processus laborieux de reconstitution de ces pages, en préparation de l’arrivée tant attendue des objets physiques eux-mêmes. Plus ces efforts avancent – plus la perspective d’un musée à Benin City capable de restaurer la cohésion de l’un des plus grands ensembles artistiques du monde se rapproche – plus la position du président du British Museum, George Osborne, qui s’est rétracté cette semaine en déclarant que le musée refusera d’être pris “dans le maelström du moment [de la restitution]”, apparaîtra comme une pétulance face au progrès.

Un modèle pour les marbres du Parthénon ?
© dl-additive

Il a été suggéré que le projet pourrait servir de modèle pour négocier le sort d’autres objets contestés – par exemple, les marbres du Parthénon. Avec 5 millions d’euros, cinq ans et le personnel adéquat, Anne Luther, l’experte en humanités numériques à la tête de Digital Benin, a déclaré au Financial Times qu’elle pourrait suivre “tous les objets dans toutes les institutions”. On peut comprendre que ce type de projet puisse jeter de l’huile sur le feu des arguments en faveur de la restitution de certains objets, tels que les trésors Maqdala d’Éthiopie ou l’or pillé par les Britanniques aux Asante de l’actuel Ghana, mais le contexte est essentiel, surtout dans un environnement où le refus de restituer les bronzes du Bénin est souvent justifié par le sophisme de la “pente glissante”. Le cas du Parthénon a bien plus de chances d’être réglé par l’avènement des répliques en 3D que par ce type de plateforme de partage des connaissances.

Pour sa part, Barbara Plankensteiner a souligné que Digital Benin est un “processus parallèle” à la restitution. “Nous l’appelons une plateforme de connaissances parce qu’elle va créer de nouvelles connaissances”, a-t-elle déclaré. La plateforme est avant tout un triomphe de la collaboration sur la confrontation, et en tant que telle, elle indique un changement de paradigme. Alors que le “musée universel” du 20e siècle tentait d’abriter l’histoire du monde dans un seul bâtiment, peut-être que Digital Benin jette les bases d’un nouveau type de musée universel – un musée qui apporte les perspectives et l’expertise du monde entier pour élucider le patrimoine mondial comme jamais auparavant.

d’après MONDAFRIQUE.COM


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercialisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations : © picture alliance / photothek ; © dl-additive | A visiter : digitalbenin.org


Plus de sculpture en Wallonie et à Bruxelles…

Ada Lovelace, la première codeuse de l’histoire

Temps de lecture : 2 minutes >

“Comtesse de Lovelace, elle naît Ada Byron, d’une relation scandaleuse entre le poète Lord Byron et une aristocrate érudite. À 12 ans, elle écrit déjà un traité dédié aux ailes des volatiles. Sa mère, férue de mathématiques, surnommée “princesse des parallélogrammes” par Byron, veut contrecarrer la fascination d’Ada pour son père absent et son inclination pour la passion amoureuse en focalisant son attention sur les sciences dures. Ses tuteurs, parmi les plus brillants scientifiques, l’éduquent dans la rigueur et l’exigence. À 16 ans, Ada rencontre Mary Somerville, éminente astronome du XIXe siècle, qui l’encourage et l’aide à progresser en mathématiques. Ada veut déjà développer une “science poétique“, germe d’une future intelligence artificielle.

“Mon travail mathématique implique une imagination  considérable.” Ada Lovelace

À 17 ans, Ada rencontre dans un salon mondain le mathématicien Charles Babbage, inventeur de la calculatrice mécanique. Il écrira à son propos : “Cette enchanteresse des nombres a jeté son sort magique autour de la plus abstraite des sciences et l’a saisie avec une force que peu d’intellects masculins – dans notre pays au moins – auraient pu exercer.”

Pendant 20 ans, ils amélioreront constamment ensemble “la machine analytique“, l’ancêtre de l’ordinateur moderne, avec 100 ans d’avance.

“Son rôle est de nous aider à effectuer ce que nous savons déjà dominer” écrira-t-elle. Ada pressent tout l’impact que pourra avoir l’informatique sur la société. Elle veut faire des calculateurs des “partenaires de l’imagination” en programmant musique, poésie ou peinture.

Selon Nicolas Witkowski, physicien et auteur de l’essai d’histoire des sciences au féminin Trop belles pour le Nobel (Le Seuil), interviewé dans l’émission “La Marche des sciences”, consacrée à Ada Lovelace en 2016 : “Ce qu’elle cherche, c’est plus une métaphysique qu’une science ou une technique. Une façon de vivre. À un moment, elle propose d’utiliser son propre corps comme laboratoire moléculaire. Non seulement elle anticipe l’informatique et l’ordinateur, mais elle anticipe les neurosciences”. 

Le 1er programme informatique

À 27 ans, Ada traduit l’article d’un ingénieur italien consacré aux machines à calculer. Dans ses longues notes de traduction, elle esquisse ce qui permettrait à une machine d’agir seule. Elle décrit l’enchaînement d’instructions qu’il faut donner pour réaliser une suite mathématique, jusqu’à la position des rouages.

Selon elle, la machine pourrait manipuler des nombres mais aussi des lettres et des symboles, au-delà du calcul numérique. La machine “tisse des motifs algébriques comme le métier de Jacquard tisse des fleurs et des feuilles”. La première programmation informatique est née. Comme les autres femmes scientifique de son temps, elle signe son article de ses seules initiales.

Alternant phases d’exaltation et de dépression, Ada s’adonne aux paris hippiques pour financer ses recherches et celles de Babbage. Malgré ses efforts pour concevoir un algorithme servant ses paris, elle dilapide son argent. À 36 ans, elle meurt d’un cancer de l’utérus. Son ami Charles Dickens lit un texte à son enterrement.

Négligences et postérité

Il faudra attendre 1930 pour qu’Alan Turing formalise à son tour un calculateur universel manipulant des symboles. Ada est restée longtemps oubliée, négligée, malgré une reconnaissance progressive et inattendue. En 1979, le département de la Défense américain appelle de son nom un langage de programmation “Ada”, de même, le CNRS nomme en son hommage un de ses supercalculateurs.” [d’après FRANCECULTURE.FR]

  • image en tête de l’article : Ada Lovelace © sciencesetavenir.fr

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation par wallonica.org  | contributeur : Philippe Vienne | crédits illustrations : © sciencesetavenir.fr


D’autres dispositifs ?

MARBEN : la méthode ICARE (1997-1999)

Temps de lecture : 3 minutes >

La fin des années 1990 a été un âge d’or pour les intégrateurs informatiques, alors dénommés SSII (pour “Société de Services et d’Ingénierie en Informatique” – à prononcer “esse-esse-deux-zi”). L’arrivée de l’an 2000 et ses frayeurs millénaristes, l’imposition de l’EURO et les myriades de geeks qui cherchaient alors un job, sont autant de facteurs extérieurs qui ont affolé les directeurs informatiques des entreprises d’alors, les petites comme les multinationales. L’Union européenne, déjà dispendieuse, n’était pas non plus le moindre des clients pour ces tribus de consultants, regroupés en entreprises spécialisées, souvent pilotées par des groupes internationaux plus importants…

La réalité était souvent assez crue : ces unités techniques et commerciales installées dans les grandes villes d’administration (Bruxelles, Luxembourg, Strasbourg…), en relation généralement intime avec leurs clients, vivaient du courtage de talents… informatiques. Le responsable IT d’une organisation (le client) décidait à table (sic) avec le commercial d’une SSII (le fournisseur) de combien de PC support il aurait besoin pour les 6 mois à venir, de combien de DBA Oracle et de combien d’administrateurs système. La signature se faisait au pousse-café, en pérorant sur le nouveau logo-fantaisie de JAVA ou sur le dernier company meeting de chez BORLAND (avec leur boss costumé en Darth Vador, je vous prie !). Le lendemain, il revenait au directeur du recrutement de l’entreprise gagnante de luncher avec l’Account Manager de son partenaire dans l’intérim pour discuter des marges à réaliser sur la location (traite ?) des talents vendus. On appelait cela du body-shopping.

Tout le monde était très malin, gagnait beaucoup d’argent et jouait l’influence avant tout. Parallèlement, il était important pour ces “boîtes de consultance” d’avoir l’air un peu plus malin que les autres ; alors, on publiait des études, des livres blancs, des brochures incontournables… aujourd’hui oubliées et disparues. Nous avons retrouvé une de ces publications dont l’intérêt pour nous n’est pas tant de vanter les mérites d’une entreprise aujourd’hui disparue au sein d’un grand groupe international, mais plutôt de relever combien, sous couvert de créer un standard méthodologique, le texte en question propose une bonne introduction au marché de l’informatique aux novices que nous sommes. Si les informaticiens d’aujourd’hui, selon leur âge, reconnaîtront les acteurs et les concepts ou s’amuseront de certaines notions désuètes, le commun des mortels se verra initié à des termes-clefs comme : help desk, externalisation, régie, parcs multi-sites, Outsourcing, SLA pour Service Level Agreement et principe d’extension

Quelques extraits pour une mise en bouche du texte qui est intégralement disponible (PDF avec reconnaissance de caractères) dans notre documenta :

“Qui peut prétendre atteindre un objectif qu’il n’a pas défini?

Qualité et niveau du service. Nous avons vu quelles étaient les évolutions maîtresses des métiers de l’informatique. Une des plus importantes est le besoin exprimé par la majorité des acteurs informatiques d’obtenir :

    • une visibilité accrue sur leur parc informatique et son évolution face aux offres technologiques ;
    • les moyens d’offrir aux utilisateurs un support de qualité adapté à leurs besoins réels.

Il est difficile de répondre à ces attentes : le parc informatique évolue parfois – même au sein d’entreprises très “disciplinées” – de manière indépendante des choix stratégiques (il est si simple d’acquérir un PC), ce qui implique des interventions peu populaires auprès des utilisateurs pour restaurer un niveau de  service respectable. La méthode ICARE se base sur des principes simples, qui s’attaquent directement aux dysfonctionnements que nous avons évoqués au chapitre précédent.”

“C’est sur la base de ce Service Level Agreement (SLA) que sont déterminées les ressources humaines et matérielles qui seront mises en oeuvre pour atteindre les objectifs fixés. Il est courant d’entendre “que pouvons-nous faire avec les moyens actuels ?“. Partir sur une telle base de réflexion n’offre que peu de perspectives de succès. Dans un Service Level Agreement se trouvent notamment les éléments suivants :

    • le champ d’action du Service Level Agreement, c’est-à-dire la définition des activités concernées ;
    • la définition des groupes de travail en charge de ces activités ;
    • les responsabilités de chaque groupe de travail, ainsi que la répartition des tâches ;
    • les objets techniques concernés par chaque activité (par exemple les logiciels supportés, non supportés, ou interdits) ;
    • la liste complète des services assurés ;
    • les conditions d’accès au service.”

  • L’illustration de l’article date de 1972 (nous avons triché) et montre une équipe de consultants en pleine discussion “cool“… © capgemini

L’intégralité du texte est disponible dans notre documenta, en PDF avec reconnaissance de caractères :


Plus de technique ?

VIROUL : Alan Turing, un génie sacrifié (CHiCC, 2020)

Temps de lecture : 5 minutes >
Alan Turing © k-actus.net

Alan TURING est de ces génies tardivement reconnus. Son travail scientifique, aujourd’hui considéré comme majeur, s’est développé sur une quinzaine d’années, de 1936 à 1952 environ.

Alan Mathison Turing est né le 23 juin 1912 à Londres. En 1931, il a 19 ans, il intègre le King’s College de l’Université de Cambridge où il trouve un milieu favorable pour étudier les mathématiques. Il va s’y épanouir, car personne là-bas ne raille son homosexualité, son apparence décalée. Chacun, dit-on là-bas, doit être ce qu’il est.

Seules les mathématiques pures et appliquées procurent à Alan un sentiment d’épanouissement. Il pénètre avec passion dans le monde solitaire et virtuel qui va devenir le sien. Il sera diplômé en 1933.

En 1936, Alan Turing débarque à New York à l’Université de Princeton où se côtoient John von Neumann et Albert Einstein, tous les grands noms de la science et notamment ceux qui ont fui le nazisme.

Turing démontre que certains problèmes mathématiques ne peuvent être résolus. Pour cela, il postule l’existence théorique d’une machine programmable, capable d’effectuer vite toutes sortes de calculs.

Cette machine est composée d’un “ruban” supposé infini, chaque case contenant un symbole parmi un “alphabet fini”, d’une “tête de lecture/écriture” ; d’un “registre d’états” ; d’une “liste d’instructions”.

L’ordinateur – théorique – est né ! Même si elle reste purement abstraite, cette “machine de Turing”, passée sous ce nom à la postérité, est un saut crucial vers les fondements de l’informatique.

Enigma M4 at The Alan Turing Institute © Clare Kendall.

En 1939, Alan Turing, revenu enseigner à Cambridge, s’engage dans l’armée britannique où il travaille à Bletchley Park au déchiffrement des messages de la marine allemande. Pour ses communications radio, le IIIe Reich utilise un engin cryptographique sophistiqué baptisé Enigma.

Poursuivant les travaux des Polonais qui avaient déjà découvert le mécanisme de la machine infernale, Alan Turing et les autres mathématiciens construisent donc un appareil destiné à passer en revue extrêmement rapidement les différents paramètres possibles d’Enigma.

Tous les renseignements issus des codebreakers étaient frappés du sceau “ultra”, plus confidentiel encore que “top secret”, un niveau de protection créé spécialement pour Bletchley. Tous ceux qui y travaillaient étaient soumis à l’Official Secret Act, un texte drastique qui leur interdisait toute allusion à leur activité, et ce, en théorie, jusqu’à leur mort.

En janvier 1943, Turing quitte l’Angleterre et rejoint les laboratoires de télécommunication Bell dans le New Jersey où le savant Claude Shannon travaille au codage de la parole. Turing propose quelques mois plus tard un prototype de machine à voix artificielle, ayant pour nom de code Delilah.

Après la guerre, Alan Turing travaille au National Physical Laboratory et conçoit un prototype de calculateur électronique, l’ACE (Automatic Computing Engine), qui prend du retard dans sa réalisation.

Aussi il rejoint l’Université de Manchester qui avait construit en 1948 le premier ordinateur programmable opérationnel, le Mark 1. Turing participe à la programmation et se passionne pour l’intelligence artificielle.

En 1950, Alan Turing publie, dans Mind, son article “Computing Machinery and Intelligence”. Dans cet article, il défend des positions “révolutionnaires”. Il se propose d’examiner la question : Les machines peuvent-elles penser ? Il élabore un test qui valide l’intelligence d’une machine, le “test de Turing”. Selon lui, si une machine dialogue avec un interrogateur (qui ne la voit pas) et arrive à lui faire croire qu’elle est un être humain, nous devrions dire d’elle qu’elle pense. Dans cette mesure, à la question a priori “Les machines peuvent-elles penser ?”, Turing substitue la question empirique : “Une machine peut-elle gagner au jeu de l’imitation ?”. Le prix Loebner, créé en 1990, est une compétition annuelle récompensant le programme considéré comme le plus proche de réussir le test de Turing.

En 1952, il propose un modèle mathématique de morphogenèse. Il fait paraître un article, “The Chemical Basis of Morphogenesis” (Philosophical Transactions of the Royal Society, août 1952), où il propose trois modèles de formes (Turing patterns). Les structures spatiales formées par le mécanisme physico-chimique très simple qu’il a suggéré s’appellent depuis des  “structures de Turing”.

Il faudra attendre quarante ans après Turing pour obtenir la première mise en évidence expérimentale d’une structure de Turing. Ce mécanisme, très simple, de formation de motifs est devenu un modèle emblématique, invoqué pour expliquer de nombreuses structures naturelles, en particulier vivantes.

Il est conscient du manque de preuves expérimentales. Son but est davantage de proposer un mécanisme plausible, et de montrer tout ce qu’il permet déjà d’expliquer, malgré sa simplicité. Les exemples donnés par Turing sont les motifs tachetés comme la robe du guépard, l’hydre et la phyllotaxie des feuilles en rosette.

Élu membre de la Royal Society, Turing éprouve de graves difficultés quand la révélation de son homosexualité provoque un scandale en 1952. C’est un crime pour la justice britannique. Le procès est médiatisé. Hugh Alexander fait de son confrère un brillant portrait, mais il est empêché de citer ses titres de guerre par le Secret Act”.

Alan Turing © diacritik.com

Alan Turing, qui n’a jamais réellement caché son homosexualité, a longtemps couru à un niveau olympique, pratiquant très régulièrement la course à pied pour calmer ses pulsions sexuelles. Pour éviter l’enfermement, il est contraint d’accepter la castration chimique, mais sa carrière est brisée.

Il meurt à 42 ans. L’autopsie conclut à un suicide par empoisonnement au cyanure. Il n’existe pas de certitude à cet égard, la pomme n’ayant pas été analysée.

La figure d’Alan Turing a mis du temps à émerger dans l’inconscient collectif. Le rôle de Bletchley Park et de ses employés qui décodaient plus de 3.000 messages nazis par jour n’a été rendu public que tardivement, dans les années 70, lorsque les dossiers ont été déclassifiés. Il faudra attendre 2013 pour que Turing sorte enfin des oubliettes de l’Histoire et soit réhabilité par la reine Elisabeth II.

La loi qui a brisé la carrière de Turing, après avoir envoyé Oscar Wilde en prison, ne fut abrogée en Angleterre qu’en 1967. C’est en 1972 que la loi de dépénalisation de l’homosexualité est promulguée en Belgique. L’OMS déclarera avoir retiré l’homosexualité de la Classification internationale des maladies le 17 mai 1990.

Le Britannique Alan Turing (1912-1954), père de l’informatique, co-inventeur de l’ordinateur, visionnaire de l’intelligence artificielle, a eu droit à tous ces signes posthumes, comme autant de regrets de n’avoir compris de son vivant à quel point il était important. Décerné chaque année (1966), un prix qui porte son nom est considéré comme le Nobel de l’informatique.

Des palmarès, comme celui du magazine Time en 1999, l’ont classé parmi les 100 personnages-clés du XXe siècle. Il a été choisi pour illustrer le verso des futurs billets de 50 livres à partir de la fin de l’année 2021.

Claude VIROUL


La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte de Claude VIROUL a fait l’objet d’une conférence organisée en mars 2020 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

WILLEMS : Réflexions à propos des Data Centers

Temps de lecture : 8 minutes >
2019, l’odyssée de l’espace ?
Data Center Kesako ?

Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).

Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.

Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.

Parc actuel

Il existe aujourd’hui environ 4.000 Data  Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :

  • quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
  • un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
  • un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
  • un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises

Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.

Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).

Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).

Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.

Les enjeux sont géostratégiques (principe de territorialité des données )

Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.

Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.

Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :

Notons l’exemple d’une entreprise française qui a vu ses données délivrées à la NSA, après une décision de la cour américaine.

Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).

Les enjeux sont économiques

L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).

Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…

On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.

L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :

  • (à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
  • (à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
  • (à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
  • jusqu’à la consolidation en vue de mener des projections stratégiques.

Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.

Les enjeux sont écologiques

Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…

Les centres de traitement de données sont de gros consommateurs d’énergie. A eux seuls, ils représenteraient 18% de la consommation électrique mondiale.

En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).

Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.

A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.

Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).

En conclusion

Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :

Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :

  • la territorialité des données ;
  • l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
  • la protection contre le « Cloud Act ».

Mais ils conduisent également à des opportunités de développement :

  • intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
  • développement économique par intérêts mutuels.

Mais d’autres enjeux restent cachés :

  • Qui va financer ces infrastructures ?
  • Qui sera propriétaire des données ?
  • Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?

Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?

Un mix des 2 ?

Claude WILLEMS (2019)


Disposez de plus de dispositifs…