AI Slop : ce phénomène créé par l’intelligence artificielle nous amène-t-il vers un “internet zombie” ?

Temps de lecture : 4 minutes >

[RTBF.BE, 21 février 2025] L’intelligence artificielle envahit de plus en plus notre monde et brouille les frontières entre réel et imaginaire. Un phénomène relativement nouveau inonde internet : l’AI Slop. Pour le moment sans contrôle, il menace notre confort numérique. Explications dans Matin Première. 

L’AI Slop se manifeste sur de nombreux sites que vous consultez peut-être tous les jours comme Pinterest. Cette plateforme d’inspiration fait défiler sous vos yeux des images selon vos centres d’intérêt – cuisine, mode, dessin, photo, coiffure, déco – et vous épinglez celles qui vous plaisent dans des tableaux dédiés qui ne sont qu’à vous, qui sont publics ou privés, sortes de vision boards de votre vie rêvée : que ce soient des idées de vêtements “vintage pour l’hiver”, ou des idées pour décorer vos toilettes avec du papier-peint. Bref, Pinterest c’est une petite bulle tout à fait superficielle et confortable dans laquelle se lover quand le monde va mal. Mais cette bulle ne protège plus sur Pinterest : la plateforme est en train de muter sous nos yeux. Les photos de déco se ressemblent de plus en plus, les modèles maquillage ou coiffure ont la peau et la beauté trop lisse. Même les recettes : les assiettes remplies de pâtes sont désormais irréelles.

Internet gangréné par les images produites par l’IA

En effet, Pinterest est gangrené par les images générées par l’IA. 70% des contenus sur la plateforme sont faux aujourd’hui. C’est la directrice créative d’une agence de pub qui l’affirme dans une enquête menée par le Figaro. Elle le sait car au sein de son agence elle-même, on fournit de plus en plus d’images produites par IA. C’est tellement moins cher et plus facile que d’organiser une séance photo avec des comédiens.

Des milliers d’utilisateurs se plaignent du même problème sur plusieurs forums Reddit. Une dame parle même des modèles de crochet qui sont maintenant générés par IA. Et donc impossibles à reproduire dans la vraie vie. Les internautes sont en colère, demandent à la plateforme d’instaurer un outil de filtre pour signaler et éviter ces fausses images. Peine perdue semble-t-il pour le moment.

Mais c’est quoi exactement l’AI Slop ?

‘AI’ c’est pour ‘Artificial Intelligence’. ‘Slop’ en anglais désigne la bouillie industrielle que l’on donne aux cochons… L’AI Slop c’est donc l’expression pour nommer cette bouillie d’IA que l’on nous sert sur tous les supports numériques.

© radiofrance.fr

On l’a dit, Pinterest n’est pas le seul site concerné : vous trouverez des vidéos sur YouTube ou TikTok générées par l’IA, souvent pleine d’erreurs et doublée d’une fausse voix, vous tomberez sur de faux sites de recettes, avec des images fake et des instructions où il manque des ingrédients ou qui ne veulent rien dire, on parle même de livres générés par IA, auto-édités puis vendus sur Amazon.

Bref, l’AI Slop, c’est une masse numérique jetable, sans aucune valeur ajoutée, qui est produite à grande échelle avec, derrière, l’intention de faire du profit. L’objectif de ce foisonnement d’images fausses, c’est de nous faire regarder des vidéos ou de nous rediriger vers des sites ‘zéro contenu qualitatif’ mais sur lesquels nous sommes exposés à de la publicité.

Des enjeux financiers pour des créateurs d’images à partir d’IA en Asie

Puisqu’il faut faire du clic, ces faux contenus vont suivre les logiques algorithmiques. Il faut que ça provoque de l’engagement. Les célébrités, les cryptomonnaies, les enfants, les animaux, sont des sujets qui fonctionnent bien. Et d’où viennent ces contenus ? Le site 404 Media a par exemple remonté le fil jusqu’à des internautes en Inde ou d’en d’autres pays d’Asie qui produisent ces images pour se voir rétribuer par le programme Performance Bonus de Facebook. Ils reçoivent quelques dizaines de dollars par image ayant percé et cela peut grimper quand celle-ci devient virale. Et peu importe si l’image et les informations sont fausses.

Le Figaro explique par exemple que le 31 octobre dernier, des milliers de personnes ont afflué dans les rues de Dublin pour une parade d’Halloween… c’était faux. C’est un site créé par IA et sourcé au Pakistan qui avait perçu que c’était un thème qui générait du trafic. Même chose pour un soi-disant feu d’artifice à Birmingham pour le Nouvel An.

Une perte de confiance et un internet à deux vitesses

Face à cet afflux d’images incontrôlées et incontrôlables, il faudra voir si les plateformes vont réagir, imposer un filtre, trier ces images et ces infos. Ce n’est pas le cas aujourd’hui. Il faut dire que les internautes postent de moins en moins sur les réseaux et cet afflux d’images artificielles vient donc compenser pour l’instant.

Car les effets pourraient être dévastateurs pour des plateformes abondamment utilisées. Si le slop continue d’enfler, on va d’abord perdre confiance, se méfier de tout et se lasser. Une artiste interrogée par le Figaro explique notamment que pour elle, Pinterest n’est déjà plus un vrai moteur de recherche, fiable, essentiel.

Sur le long terme, deux options s’offrent à nous, engendrant une refonte structurelle d’internet :

      • On naviguerait sur un internet zombie, envahi de contenus irréels dont la masse exponentielle sera alimentée par des IA qui échangeront entre elles et auront leur propre compte sur les RS. On pourrait imaginer alors un internet à deux vitesses, cet internet zombie low cost pour les pauvres, et des espaces de contenus de qualité mais qui nécessitent le temps, les compétences et l’argent pour être trouvés. Autant dire réservé à une classe mieux armée socioéconomiquement ;
      • On connaîtrait un sursaut, un grand ‘non’ généralisé à ces contenus, et des plateformes qui instaurent des filtres. Un retour vers les contenus de référence, comme les médias traditionnels ou les contenus labellisés humains. Une nouvelle ère des blogs et des sites persos, sans algorithmes.

La saturation du slop serait-elle peut-être le sursaut dont on a besoin pour repenser nos usages numériques ?

Marie Vancutsem


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : © pplware.sapo.pt ; © radiofrance.fr.


Plus de presse en Wallonie…

Le développement de l’énergie solaire a-t-il été torpillé en 1882 ?

Temps de lecture : 7 minutes >

[THECONVERSATION.COM, 30 janvier 2025À la fin du XIXe siècle, le Français Augustin Mouchot (1825-1912) inventait un ingénieux concentrateur solaire. Mais la bureaucratie technique de l’époque, chargée de l’évaluer, en a livré une appréciation biaisée en la comparant au charbon qui alimentait les machines à vapeur – condamnant, au passage, l’appareil et ses multiples applications.

En matière d’énergie solaire, plusieurs moyens ont permis, au XXe siècle, de stopper l’innovation et de garantir le monopole des énergies fossiles et de leurs savoirs. Par exemple : la menace pure et simple, le rachat de brevets, la montée au capital ou encore la fermeture d’activité. L’expertise tendancieuse – sinon mensongère – a pu constituer un autre levier, ainsi que le montre le cas de l’évaluation officielle des appareils solaires d’Augustin Mouchot et de son associé Abel Pifre, à la fin du XIXe siècle.

Absent des manuels scolaires et délaissé des commémorations nationales pour le bicentenaire de sa naissance en 2025, le professeur de mathématiques appliquées et de physique Augustin Mouchot (1825-1912) est le pionnier français méconnu de l’énergie solaire moderne. Il a défendu et démontré les atouts de l’énergie solaire thermique et thermodynamique, particulièrement pour les pays de la zone intertropicale. Et cela, dès son ouvrage de synthèse et de prospective en 1869, puis avec un premier moteur à vapeur solaire de retentissement international, présenté à l’Exposition universelle de 1878 à Paris. Mais ce dernier a également rencontré après une mission de trois ans en Algérie et des financements publics importants, les incompréhensions auxquelles les énergies énergies renouvelables ont été confrontées depuis cette période. Ce qui n’a pas été sans lui valoir des adversaires…

Une commission d’étude transsaharienne de la chaleur solaire

La Commission des appareils solaires est créée le 19 février 1880 dans le cadre des travaux préparatoires du chemin de fer transsaharien. Elle doit tester les concentrateurs solaires à vapeur développés depuis près de 15 années par Augustin Mouchot – et depuis 1878 par Abel Pifre – dans la perspective du pompage de l’eau indispensable à la recharge des locomotives et au développement de gares-dépôts de combustible.

L’assassinant du colonel Flatters et de son escorte lors de la seconde reconnaissance du tracé, le 16 février 1881, un an et deux mois avant la remise du rapport de la commission, mettra fin au projet. La commission rassemble alors deux ingénieurs, un colonel et deux professeurs aux facultés de médecine et des sciences de Montpellier. L’appareil solaire testé, doté d’un réflecteur de trois mètres de diamètre, est construit par la société d’Abel Pifre, officiellement constituée en janvier 1881 et première entreprise au monde à commercialiser des cuiseurs, distillateurs et moteurs solaires. Les essais ont lieu en 1881 au fort de Montpellier sous la supervision du professeur de physique André Crova (1833-1907), qui rédigera le rapport final.

Docteur en physique électrochimique, avec 74 publications touchant à l’optique, à l’électricité, aux ‘radiations calorifiques’ – dont celles du Soleil –, c’est un pionnier du calcul de la ‘constante solaire’, quantité d’énergie solaire reçue par la Terre hors atmosphère sur une surface d’un mètre carré exposée perpendiculairement au soleil.

Les étranges calculs du ‘rendement industriel’

La note manuscrite d’André Crova, discutée durant la séance du 3 avril 1882 de l’Académie des sciences, est la version courte du rapport qu’il publie dans les mois suivants, qui comporte quarante-cinq pages et une illustration. Son diagnostic déborde du projet transsaharien et met en regard l’énergie solaire avec la grande énergie fossile, alors concurrente, que représente le charbon.

On s’est préoccupé dans ces dernières années de tentatives faites en vue d’utiliser pratiquement l’énergie des radiations solaires. Ces radiations sont en effet la cause presque unique de tous les phénomènes atmosphériques, de tout travail moteur, et de la vie sous toutes ses formes, à la surface de notre globe. Mais ces forces motrices, irrégulières et sujettes même à faire défaut à un moment donné, sont maintenant partout remplacées par celle de la vapeur, qui, toute coûteuse qu’elle est, a du moins pour elle la constance et la régularité, qui sont une des premières conditions que l’industrie demande à un moteur.

André Crova inaugure ainsi le discours des experts dont l’influence va se renforcer au fil de l’ère thermo-industrielle. Spécialiste d’un domaine étroit – la mesure des radiations solaires –, il est mandaté pour l’évaluation d’une technologie de conversion énergétique – les récepteurs solaires thermodynamiques Mouchot-Pifre –, dans le cadre d’une ligne de transport à l’intérieur du Sahara. Au final, il délivre un avis non pas sur le fond, mais sur sur les formes d’énergie qui devraient être privilégiées dans le cadre de la modernité. Ce glissement fait de son rapport la première grande condamnation officielle de l’utilisation du rayonnement solaire pour produire de l’énergie.

Car la commission ne s’arrête pas sur les applications pratiques de la machine à vapeur solaire. Citons par exemple :

      • 189 jours de fonctionnement sur l’année en 1881 à la latitude de Montpellier et 14 litres d’eau distillée (c’est-à-dire, vaporisée) par jour de fonctionnement en moyenne ;
      • la possibilité d’y ajouter une pompe ou un moteur rotatif ;
      • celle de procéder à la distillation d’alcools, de plantes ou à la pasteurisation de l’eau ou des aliments ;
      • celle de procéder à la cuisson de la nourriture humaine ou pour les animaux ;
      • celle de procéder à la calcination et au chauffage de matériaux (chaux, graisses, briques, poteries, pâte à papier) ;
      • la possibilité d’en faire une pile thermoélectrique ;
      • la possibilité de produire de la glace avec l’ammoniac et une machine des frères Carré, (comme Mouchot le fit en 1878) ;
      • la possibilité éventuelle de procéder de faire tourner une machine à coudre ou d’imprimer des journaux avec.

Mais non, le travail d’André Crova se limite à la mesure d’un ‘rendement industriel de l’appareil‘, à partir du ‘nombre de calories emmagasinées par la chaudière‘.

Le principe est le suivant :

      • La chaudière placée au centre du réflecteur solaire vaporise de l’eau à partir de laquelle, une fois la vapeur refroidie dans un serpentin, il est possible, ‘au moyen de la formule de Regnault’, de calculer ‘le nombre de calories utilisées par l’appareil’ ;
      • Simultanément un ‘actinomètre’ évalue le rayonnement solaire d’heure en heure, corrigé par la température, l’hygrométrie de l’air et la hauteur du soleil (c’est-à-dire, la transparence et l’épaisseur atmosphériques), afin de calculer les ‘calories incidentes’ ;
      • En divisant le premier chiffre par le second, on obtient un rapport, que l’on appelle ‘rendement économique de l’appareil’. En 1881 à Montpellier, il a été évalué à 0,491 calorie par mètre carré, avec un maximum à 0,854.

En un mot, à l’évaluation de la puissance effective, de la fonctionnalité et de la praticité des appareils solaires s’est substituée, au prix d’une somme d’approximations considérables, la simple évaluation d’un rendement théorique : celui du nombre de calories captées par rapport aux calories disponibles. Le tour de passe-passe accompli autorise le physicien rapporteur André Crova à conclure sur des hypothèses économiques, et non à se prononcer sur l’intérêt technoscientifique du principe et du fonctionnement du moteur solaire.

Four solaire de Mouchot et Pifre, conservé au CNAM à Paris © Rama

La condamnation du solaire

C’est donc sur un mode conditionnel que la condamnation de l’énergie solaire est exprimée en 1882. Il est intéressant de noter que les termes en sont restés presque inchangés jusqu’à nos jours, y compris pour les autres types de conversion d’énergie tels que le photovoltaïque – solaire vers électrique – ou l’éolien – mécanique vers électrique. Déjà en 1882, la régularité économique et la disponibilité des combustibles fossiles dans les pays développés sont les principaux arguments avancés par André Crova.

En France et dans les climats tempérés, l’énergie de la radiation solaire est trop affaiblie au niveau du sol […] pour que l’on puisse espérer pouvoir emprunter dans des conditions économiques et régulières une partie de l’énergie solaire pour l’appliquer aux besoins de l’industrie. Telle est mon opinion personnelle, qui résulte des expériences que nous avons faites pendant la durée de l’année 1881. […] Remarquons d’ailleurs que, dans les conditions dont nous parlons, le prix du travail moteur ou de la chaleur équivalente a une importance relativement faible, vu la facilité de transport du combustible. […] Mais dans les pays où le soleil […] envoie des radiations plus intenses, la conclusion serait-elle identique ? La réponse à cette question exige la connaissance de trop de points spéciaux pour que nous puissions la donner ici.

Le professeur d’université André Crova, spécialiste de la mesure de la chaleur solaire, exécute avec les mots d’un expert industriel les appareils Mouchot-Pifre. Il admet pourtant des limites à son travail. En effet, lorsque

le vent souffle avec force dans la direction de l’orifice de l’actinomètre […] les observations sont impossibles […], tandis que la distillation (c’est-à-dire la production de vapeur, ndlr) se produit même dans les circonstances les plus défavorables, pourvu que le soleil brille.

Autrement dit, l’appareil, plus efficient que son ‘mesureur’, fonctionne même les jours où l’on ne peut effectuer de mesures. Dans son mémoire à l’Académie des sciences, le physicien admet aussi qu’en l’absence d’isolation de la chaudière, la température extérieure influence davantage la distillation de l’eau que le soleil. Pire, puisque l’actinomètre ne laisse pas passer les mêmes longueurs d’onde que le manchon en verre de la chaudière. Comme l’écrit André Crova,

par les plus fortes intensités, les radiations obscures (rayonnement infrarouge, ndlr), non transmissibles par le verre, sont arrêtées par le manchon, et le rendement diminue, quoique la quantité de chaleur utilisée augmente.

Ainsi, du fait du choix d’un tel rendement comme valeur d’évaluation, les appareils solaires ‘fonctionneraient’ moins bien dans les périodes précises où justement ils chauffent le plus. On croit rêver. La notion de rendement pour une source primaire d’énergie gratuite et inépuisable révèle ici sa limite : nul besoin d’être physicien pour comprendre que plus le soleil brille, plus l’énergie solaire est abondante, quand bien même la qualité de la conversion/captation du rayonnement baisse avec l’augmentation de l’intensité de ce rayonnement.

‘De l’eau froide sur le soleil de M. Mouchot’

Mais le coup de grâce tient dans l’image que retient la presse, c’est-à-dire la mise en équivalence du rendement maximum du mètre carré solaire selon les calculs précédents et de la quantité de charbon correspondant. Celui-ci représente :

à peu près la chaleur produite par 240 grammes de charbon, en admettant que la moitié de la chaleur qu’il produit en brûlant soit utilisée à vaporiser l’eau.

Une poignée de carbone polluant contre une heure de soleil sur un mètre carré de métal brillant ? Sans gaz à effet de serre, éternellement et gratuitement, mais avec des intermittences ? On peut se demander ce qu’il serait advenu du monde si André Crova n’avait pas déversé sans vergogne ‘de l’eau froide sur le soleil de M. Mouchot’, ainsi que relèvera immédiatement le journaliste scientifique de l’époque Louis Figuier. Malgré les démentis, deux ans plus tard l’entreprise d’Abel Pifre disparait, et avec elle les projets et brevets solaires d’Augustin Mouchot.

Changer de regard sur l’énergie solaire ?

L’histoire d’Augustin Mouchot n’est pas un cas isolé. L’économiste Sugandha Srivastav soulignait, au sujet d’un autre innovateur solaire – américain celui-ci – arrêté dans sa course au début du XXe siècle, que

s’il est douloureux de réfléchir à ce grand “et si” alors que le climat s’effondre sous nos yeux, cela peut nous apporter quelque chose d’utile : savoir que tirer de l’énergie du soleil n’a rien d’une idée radicale, ni même nouvelle. C’est une idée aussi vieille que les entreprises de combustibles fossiles elles-mêmes.

Aurions-nous aujourd’hui, 143 plus tard, la même sévérité sur le potentiel des ressources solaires et les mêmes certitudes à propos des énergies fossiles que la commission du ministère des travaux publics de Montpellier ? C’est la question qu’il nous faut poser, de façon urgente, à tous les André Crova de notre temps.

Frédéric Caille, ENS (Lyon, FR)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : © Rama ; © DP.


Plus de presse en Wallonie…

TRADUCTION : Néologie traductive – Vade Mecum pour traducteurs (1995)

Temps de lecture : 28 minutes >

La traduction (humaine) est un métier exigeant et un domaine technique qui reste vivant face aux technologies soutenues par l’intelligence artificielle (un oxymore !). Nous partageons avec vous la transcription partielle d’une plaquette réalisée en 1995 par le Centre de terminologie de Bruxelles (CTB, Bruxelles). Elle avait été réalisée avec le soutien du Service de la langue française de la Direction générale de la Culture et de la Communication.

N.B. Le document transcrit ici est assez technique : si vous n’avez pas d’affinités particulières avec le domaine linguistique, visitez plutôt notre BIBLIOTECA et choisissez un livre selon votre bon plaisir…


TABLE DES MATIERES

PRESENTATION

Ce vademecum est un élément d’une initiative appelée Néologie traductive, réalisée avec le soutien du Service de la langue française de la Direction générale de la Culture et de la Communication. Il s’adresse aux traducteurs, dont l’activité quotidienne est une source importante de néologismes. Cette action a trois objectifs :

    1. l’assistance en matière de néographie,
    2. le recensement et la diffusion des néologismes créés ou rencontrés par les traducteurs, et
    3. l’étude de la pratique néographique des traducteurs.

Ces objectifs sont poursuivis par les initiatives suivantes :

      • formation d’un réseau de traducteurs qui désirent signaler, par  l’intermédiaire du CTB, les néologismes créés par eux-mêmes ou rencontrés au cours de leur travail ;
      • distribution de ce vademecum rédigé à l’intention des traducteurs ;
      • assistance directe, par téléphone, à la création néologique ; rappel des matrices lexicogéniques de telle ou telle discipline, propositions de néologismes, recherche dans les banques de terminologie et autres sources ;
      • collecte et échange, par domaine de spécialité, des néologismes créés par les traducteurs qui participent à l’action ;
      • étude philologique, terminologique et socio-culturelle des néologismes ainsi récoltés.

Cette initiative s’intègre également dans un projet du RINT (Réseau International de Néologie et de Terminologie), qui a l’intention de mettre sur pied un réseau francophone d’échange de néologismes.

INTRODUCTION

Dans les différents domaines de la vie sociale, les usagers créent leurs termes au fur et à mesure de leurs besoins. Le lexique s’enrichit ainsi continuellement, notamment pour dénommer ou désigner de nouvelles réalités. Le traducteur sera donc souvent confronté à des problèmes terminologiques qu’il devra résoudre, le plus souvent par lui-même. Il rencontrera des termes dans la langue-source (LS) pour lesquels il n’existe pas encore d’équivalent dans la langue-cible (LC). Si l’on définit la néologie comme l’ensemble des techniques de formation de nouveaux termes, il s’occupera donc, si nécessaire, de néologie.

Néologie primaire et néologie traductive

On peut distinguer deux types de néologie : celle où la formation d’un nouveau terme, dans une langue précise, accompagne la formation d’un nouveau concept et celle où le terme existe déjà dans une langue et où un nouveau terme est créé dans une autre langue. La situation typique dans laquelle se déroule le premier processus est la situation de travail (le laboratoire de recherche, la fabrication de nouveaux produits, etc.). La situation typique de la deuxième forme de néologie est la traduction. Appelons la première forme néologie primaire et la deuxième néologie traductive.

La néologie traductive peut être le fait, sporadique ou plus ou moins systématique, d’instances chargées de terminologie. Ces instances proposent des équivalents pour des termes qui souvent circulent déjà dans la langue d’arrivée sous forme d’emprunts, de calques ou de termes jugés mal formés.

Cependant, la forme la plus ancienne et la plus naturelle de néologie traductive, c’est-à-dire la formation et l’introduction de nouveaux termes qui ont déjà un précédent linguistique, est la traduction, activité quotidienne des traducteurs de textes techniques et scientifiques. Ils sont les premiers à être confrontés aux nouveaux termes en LS et aux nouveaux concepts, pour lesquels lem métier les contraint à proposer un équivalent dans la LC.

Nous appelons donc “néologie” la création d’un nouveau terme par un traducteur et, pour la facilité de notre propos, “néologisme” un nouveau terme, proposé dans une traduction, tout en sachant qu’un néologisme n’existe réellement que si le terme entre dans tm certain usage, qui ne se réduit pas à une communication unique entre l’auteur du terme créé et ceux qui prennent connaissance du nouveau terme.

Les principes de la néologie traductive

La néologie traductive obéit en premier lieu aux principes mêmes de la traduction.

Un premier principe peut être formulé ainsi : on ne traduit pas une langue dans une autre langue (Ll>L2), mais une traduction rend un message exprimé dans la langue-source. Ceci a des conséquences pour la néologie traductive.

Le traducteur ne cherche pas systématiquement des équivalents pour tous les termes du texte à traduire (il ne traduit jamais mot à mot) ; il ne crée donc pas systématiquement des équivalents pour tous les termes qu’il rencontre et pour lesquels il n’existe pas d’équivalent dans la langue-cible. Il crée de nouveaux termes s’ils sont utiles pour la transmission correcte du message. Sa première obligation n’est pas l’équivalence des tennes, mais l’équivalence du message.

Dans le cas de la traduction par équivalence des termes, qui joue un rôle plus important dans la traduction spécialisée que dans la traduction de textes plus littéraires, le traducteur ne cherche pas d’emblée à traduire le terme. Il identifie la notion exprimée par le terme du texte de départ et réexprime ensuite la notion dans le texte traduit. La question qu’il se posera est donc celle-ci : quel est le terme dans la langue-cible dont le sens correspond exactement à la notion exprimée par le terme dans la langue-source ? L’adéquation, c’est-à-dire la qualité qu’a un terme de bien convenir à la notion qu’il exprime, dans le contexte précis du texte à traduire, est donc l’exigence principale.

Le traducteur aura la même attitude lorsque, dans le cas d’équivalents manquants, il doit combler les lacunes et proposer de nouveaux termes. Avant de passer par le prisme du système de la langue, le néologisme passe par le prisme du système notionnel, ce qui est d’ailleurs la meilleure façon de s’affranchir du terme utilisé dans la langue-source.

En s’attachant avant tout au référent, le traducteur sait qu’une réalité peut souvent être considérée et dénommée selon plusieurs facettes ou points de vue. Cette attitude lui permettra de créer de bons équivalents, des termes qui donnent une image aussi nette que possible du référent. La connaissance de l’univers notionnel du domaine, grâce à laquelle le traducteur appartient à la même conummauté de pensée que l’auteur et le lecteur, lui permettra de reconnaître plus facilement la fonction du néologisme dans la LS.

Un deuxième principe, d’ordre terminologique cette fois, valable pour toute traduction, est le respect des traditions pour la formation des termes dans le domaine de spécialité considéré. Chaque science, chaque discipline, chaque technique se définit par une terminologie particulière, structurée et conditionnée par la spécificité de son objet, de son point de vue et de ses finalités. Chaque discipline ne possède pas seulement son système notionnel propre, mais également ses matrices terminogéniques, qui lui font choisir de préférence certaines lois de construction des termes. Un nouveau terme n’est pas un objet isolé mais un élément d’un système plus ou moins structuré. Le traducteur professionnel expérimenté distingue ce qui est linguistique de ce qui est terminologique. Il sait qu’en terminologie, il y a peu d’équivalents établis. Les équivalents présentés dans les dictionnaires ne sont en fait que des possibilités auxquelles le traducteur est libre ou non de donner vie. On pourrait dire, paradoxalement, que le seul véritable terminologue est le traducteur.

Le troisième principe, enfin, relève du respect de la langue-cible. Dans ses créations de termes, le traducteur sera conservateur et suivra les voies tracées par la langue.

Les termes français se rattachent généralement à des éléments préexistants de la langue, permettant d’en saisir, ne fût-ce que superficiellement, la signification. Les termes sont souvent motivés : les raisons du choix de leur forme sont transparentes et au moins une partie des termes est immédiatement intelligible.

Les nouveaux termes doivent, à leur tour, offrir la possibilité d’engendrer des dérivés dans leur catégorie lexicale ou dans d’autres catégories lexicales. Ils doivent pouvoir s’intégrer dans des formations syntagmatiques futures.

Les différents procédés de formation des termes présentés dans ce vademecum permettent de créer des termes qui s’intègrent naturellement dans la langue.

Le vocabulaire de spécialité est formé sur la base des mêmes principes que les mots de la langue commune. Il est rare que des mots entièrement neufs voient le jour. Les nouveaux mots, et dans une proportion encore plus grande, les nouveaux termes, sont, généralement, des assemblages d’éléments existants.

Ainsi, ce guide répertorie-t-il les différents procédés de combinaison de matériaux lexicaux permettant la constitution de nouvelles unités lexicales. Ces procédés sont au nombre de neuf : la dérivation, la confixation, la composition, la formation syntagmatique, l’emprunt, l’abrègement, la néologie de sens, la création ex nihilo et l’éponymie.

1. DERIVATION

Les termes peuvent être dérivés d’autres termes par adjonction d’affixes, par conversion grammaticale ou, plus rarement, par suppression d’affixes.

1.1 Affixation

L’affixation consiste en l’agglutination d’éléments lexicaux, dont un au moins n’est pas susceptible d’emploi indépendant, en une forme unique. Les éléments d’un terme dérivé sont la racine et les affixes. La racine est la base à partir de laquelle sont dérivées les formes pourvues d’affixes (égal– pour le terme égalité, detect– pour le terme détecteur). Les affixes sont les éléments adjoints au radical. Ils sont appelés préfixes s’ils précèdent le radical (ex. renommer) et suffixes s’ils le suivent (ex. changement).

Voici quelques préfixes: a- (moral> amoral) ; an-, (ovulatoire > anovulatoire) ; dé- (calquage > décalquage) ; co- (efficient > coefficient) ; dis- (capacité > discapacité) ; é- (changer > échanger) ; in- (égalité > inégalité) ; mé-  content > mécontent), avec la variante mes- (entente > mésentente) ; pré- (établir > préétablir) ; re- (combiner > recombiner).

Un même préfixe peut avoir des significations différentes. Par exemple, le préfixe in- a un sens différent dans les termes insubmersible (qui ne peut pas être submergé) et infiltrer (pénétrer peu à peu). Les préfixes ne changent pas la catégorie lexicale du radical, contrairement aux suffixes.

On peut grouper les suffixes suivant les transformations lexicales qu’ils font subir aux mots auxquels ils s’attachent.

      1. Suffixes qui transforment les verbes en noms :
        Ils peuvent marquer l’action ou son résultat. Les principaux suffixes de cette catégorie sont les suivants : -ion (oxyder > oxydation) ; -age (empoter > empotage) ; -ment (dénombrer > dénombrement) ; -ure (couper > coupure) ; -is (semer > semis) ; -(a)nce (résonner > résonance) ; -ing (camper > camping) ; -at (alcool > alcoolat) ; -aison (incliner > inclinaison) ; -erie (pêcher > pêcherie). Ils peuvent désigner l’agent, humain ou non animé : -eur/-euse (employer > employeur/employeuse) ; -(at)eurl-atr)ice (calculer > calculateur/calculatrice) ; -oir (semer > semoir). Ce dernier suffixe peut désigner également un lieu ou un objet (présenter > présentoir) -oire (nager > nageoire).
      2. Suffixes qui transforment les adjectifs en noms :
        En voici quelques-uns : -eur (gros > grosseur) ; -ie (malade > maladie) ; -esse (gros > grossesse) ; -itude (exact > exactitude) ; -ise (franc > franchise) ; -té (sonore > sonorité) ; -(a)nce (résistant > résistance) ; -isme (bilingue > bilinguisme) ; -cité (critique > criticité).
      3. Suffixes qui transforment les noms ou les adjectifs en verbes :
        Le suffixe le plus utilisé est -er/-iser (gaz > gazer ; fertile > fertiliser). Cependant certains verbes créés par analogie ou non adoptent un autre suffixe (alunir, suivant l’exemple d’atterrir; blanc > blanchir, théâtral > théâtraliser). Une transformation du nom ou de l’adjectif en un verbe s’accompagne souvent de l’ajout d’un préfixe (froid > refroidir, mer > amerrir).
      4. Suffixes qui transforment des noms en adjectifs :
        -é (accident > accidenté) ; -u (feuille > feuillu) ; -(a)ble (carrosse > carrossable) ; -aire, forme savante du suffixe -ier (cession > cessionnaire) ; -el (institution > institutionnel) ; -uel (texte > textuel) ; -eux (granit > graniteux) ; -ien, utilisé pour créer des termes par antonomase (Freud > freudien) ; -if, utilisé surtout avec des noms en -tion (information > informatif) ; -in (cheval > chevalin) ; -ier (betterave -> betteravier) ; -ique, qui s’emploie surtout avec des noms qui finissent en -ie, ou en -tion (écologie > écologique) ; -iste (anarchie > anarchiste) ; -ais, sert à former des adjectifs toponymiques (Ecosse > écossais) ; -ois, qui crée aussi des toponymiques (Dole > dolois) ; de même que -ain (Amérique > américain) ; -an (Perse > persan) ; -éen (Méditerranée > méditerranéen).
      5. Suffixes qui transforment des verbes en adjectifs :
        On trouve dans cette catégorie les suffixes -(a)ble (programmer > programmable) ; ce suffixe présente la variante -ible (nuir > nuisible) ; -eur (détecter > détecteur).
      6. Suffixe qui transforme des verbes en adverbes :
        Le suffixe -ment (isoler > isolément).
      7. Suffixes qui ne changent pas la catégorie lexicale du terme source :
        Un certain nombre de suffixes ne changent pas la catégorie lexicale du radical : -(ijer, utilisé surtout pour dénommer des métiers (plomb > plombier), mais aussi pour former d’autres types de termes (chèque > chéquier) ; -ière (café > cafetière) ; -aire (disque > disquaire) ; -erie (chancelier > chancellerie) ; -iste, sert à désigner des “acteurs” (document > documentaliste) ; -ien, sert à dénommer des métiers, des activités (chirurgie > chirurgien) ; -ade (colonne > colonnade ) ; -at (professeur > professorat) ; -ure ( cheveu > chevelure) ; -aine (cent > centaine) ; -ance (induction > inductance) ; -ée (cactus > cactée), -eté (citoyen > citoyenneté), etc.

Un autre groupe important est celui des suffixes qui servent à changer le genre du nom, généralement du masculin au féminin. Dans le cas des noms de métiers, ils sont actuellement très productifs.

Les autres suffixes qui s’unissent à des adjectifs et à des verbes sans changer leur catégorie lexicale (augmentatifs, diminutifs, etc.) ont plutôt une valeur connotative, ce qui fait qu’ils ne sont pas productifs dans les langues de spécialité (LSP).

Un terme peut avoir plusieurs préfixes et/ou suffixes à la fois (ex. prédébourrement). Dans le cas des termes préfixés et suffixés on parle de dérivation parasynthétique.

1.2 Conversion grammaticale

La conversion grammaticale ou dérivation impropre (aussi appelée hypostase) est le processus par lequel une fonne peut passer d’une catégorie grammaticale à une autre sans modification formelle. Le terme ainsi créé est donc homonymique par rapport au terme d’origine, mais il acquiert des nuances sémantiques différentes de celui-ci.

Les différents types de conversion grammaticale sont :

      1. Passage d’un adjectif à un substantif :
        L’adjectif substantivé garde le genre du terme de base du syntagme (ex. en informatique, on dit un périphérique pour un élément périphérique). Il s’agit en fait d’une ellipse du noyau du syntagme (dans ce cas-ci élément) qui reste sous-entendu.
      2. Passage d’un substantif à un adjectif :
        Dans certains mots de type N+N, le noyau du syntagme est modifié par un autre nom qui agit comme adjectif (ex. dans le terme navire-hôpital, on peut considérer le nom hôpital comme un adjectif qualificatif du mot navire). Certains substantifs se transforment parfois en adjectifs à travers des procédés métaphoriques (un atout maître). Dans les créations récentes on peut citer les termes ARN satellite ou cellule hôte.
      3. Passage d’un verbe à un substantif :
        Ce type de dérivation consiste en la substantivation d’un infinitif. Elle permet de traduire le procès sous la forme la plus abstraite, sans détermination de l’agent du procès. On établit une opposition entre l’infinitif substantivé et la forme nominale, le premier terme étant réservé à la forme abstraite du procès et le deuxième à la forme plus concrète (le penser/ la pensée ; le parler/ la parole).
      4. Passage d’un verbe à un adjectif :
        Un participe présent est utilisé comme adjectif. Il s’agit d’une alternative à la dérivation, qui peut produire également le changement de catégorie grammaticale. En fait, -ant est devenu un véritable suffixe, qui peut servir à fabriquer des adjectifs ou des substantifs sans la médiation d’un verbe. Les adjectifs verbaux en -ant peuvent se substantiver.
      5. Passage d’un adjectif à un adverbe :
        L’adjectif perd sa faculté de variation en genre et en nombre et devient un adverbe (ex. parler net, filer doux…). Ce procédé est très utilisé dans le langage de la publicité mais peu dans la création néologique en terminologie.
      6. Changements verbaux :
        Un verbe peut acquérir une constrnction pronominale (s’accidenter) ; il peut devenir transitif ou intransitif (démarrer ; il a été démissionné) ; il peut prendre la catégorie de verbe auxiliaire (voir), etc. Ce phénomène est peu fréquent.
      7. Passage d’un nom propre à un nom commun :
        Ce type de changement affecte surtout les noms déposés qui, par le principe de la synecdoque (relation partie/tout), finissent par dénommer tous les objets d’une même catégorie : l’exemple le plus célèbre est celui du mot bic utilisé pour désigner tous les stylos à bille. Ce procédé est aussi très courant dans le jargon de certaines sciences et techniques : le terme aspirine, par exemple, est fréquemment employé pour tout médicament à base d’acide acétylsalicylique. Il arrive également qu’un nom déposé finisse par supplanter un terme plus complexe : téflon utlisé au lieu de polytétrafluoroéthylène et fréon au lieu de dichlorodifluorométhane.
1.3 Suppression d’affixes (Dérivation régressive)

La dérivation régressive consiste en la création d’une unité lexicale par réduction à la racine par la suppression d’affixes. Il s’agit d’un procédé peu utilisé. On le trouve dans le terme terminologue qui procède du terme terminologie.

Pour qu’il y ait une dérivation de ce type, il faut que le terme affixé ait été créé avant le terme non affixé. (ex. le terme évaluation n’a pas été créé par dérivation régressive à partir du terme réévaluation ; le second a été créé par dérivation à partir du premier).

La suppression d’affixes de catégorie grammaticale se produit dans le cas du passage d’un verbe à un nom (ajouter-> ajout ; apporter-> apport, etc.) Ce processus est apparenté à la dérivation impropre.

Conseil :

La dérivation est un procédé très productif dans les LSP. Les termes dérivés sont à la fois brefs, précis et constituent une hiérarchie motivée. Utilisez l’affixation pour la restriction du sens d’un mot. Il est plus facile de dériver un terme à partir d’un substantif que d’un adjectif ou un verbe.

Attention :

Les différentes langues ne connaissent pas les mêmes suffixes et il arrive que les mêmes suffixes ne désignent pas la même notion. ( ex. Mycosis est le terme générique employé en anglais pour dénommer toutes les affections parasitaires provoquées par des champignons, tandis que mycose en français désigne les maladies à excroissances ou tumeurs fongueuses de la peau).

Les terminaisons adjectivales doivent souvent être traduites différemment. Exemple: Le suffixe anglais -al peut être traduit en français par une dizaine de formes différentes :

      • -ai-aire > embryonal / embryonnaire
      • -al(e) > renal / rénal ; cervical / cervical(e)
      • -ienïne) > retinal / rétinien
      • -ifère > seminal / séminifère
      • -atif -ative > germinal / germinatif
      • -e > mediastinal / médiastine
      • -éïe) > sacral / sacré
      • -éal > subungual / sous-unguéal
      • -inïe) > palatal / palatin
      • -eux, -euse > scarlatinal / scarlatineux
      • -ue > vagal / vague
      • -onnier > mental/ mentonnier
      • -ulaire > appendical / appendiculaire
      • -ique >limbal / limbique

On dit artère coronaire mais maladie coronarienne ; calcul urinaire mais abcès urineux. Donnez votre préférence à des affixes plus longs (-iser au lieu de -er).

2. CONFIXATION

La confixation consiste en la composition de termes à partir de radicaux liés (appelés confixes ou formants), constitués de racines grecques ou latines liées n’ayant pas à proprement parler le statut de mot. Ces formants se soudent pour donner, avec ou sans affixes, des mots confixés (hydrogène, gyroscope, biosphère, agronomie). La confixation est un processus productif, comme en témoigne la liste des termes normalisés : hectographie, hexachlorobenzène, hostogramme, homopolymère, etc.

2.1 Caractéristiques

Voici quelques caractéristiques des mots confixés :

      • Le formant qui détermine doit précéder le formant déterminé : dans le terme épigraphie, le formant modificateur épi– est placé devant le formant régissant –graphie.
      • On ne peut généralement pas renverser l’ordre des éléments de composition quand il existe un rapport de détermination entre les éléments (philatéliste, bibliophile, philologue-logophile).
      • Un terme peut être composé de plusieurs fonnants à la fois (ex. lévoangiocardiogramme).
      • Un même formant peut être antérieur, postérieur ou être placé au milieu du terme (anthropologie, philanthropie, misanthrope).
      • Les formants antérieurs se terminent par une voyelle si le confixe postérieur commence par une consonne. Autrement, on élide la voyelle du premier (amphithéâtre, mais amphotère).
      • La voyelle de liaison est généralement o dans le cas des formants d’origine grecque (électromotricité) et i dans le cas des formants d’origine latine (fébrifuge).
      • On ne met pas de voyelle de liaison quand le premier élément est une préposition dans la langue d’origine (permutation).
      • Un formant peut avoir des variantes graphiques autres que celle de la voyelle de liaison (neurone, mais névralgie). Ils peuvent présenter, par exemple une alternance vocalique, c’est-à-dire une variation de voyelle (capacité, récupérer, municipalité).
      • Pour une même notion, on trouve parfois en concurrence un formant latin et une formant grec (anthropomorphe, hominidé).
      • De même, il peut y avoir plusieurs fonnants pour dénommer un même concept ( ex. vagin se dit en grec kolpos, elutron et koléos qui ont donné respectivement en français colpocèle, élytrotomie et koléoptose).
      • Un terme peut présenter deux fois le même formant (mélomèle).
2.2 Combinaisons hybrides

Les terminologues et les comités de normalisation préfèrent recourir à des confixes homogènes et refusent en général les combinaisons hybrides du type latin + grec (ex. sérologie, altimètre, ovoïdal, spectroscope), grec + latin (hexadécimal, hydrocarbure, automation, aéroducteur) ou classique + moderne (bicyclette, hydronef, aéronavigable).

Conseil :

La confixation est un procédé très productif dans la plupart des langues occidentales. Elle contribue aussi à l’unification internationale de la terminologie. Les termes formés par confixation sont courts et faciles à mémoriser. Si la signification du formant est connue, ce qui est souvent le cas, les termes sont motivés. La majorité des néologismes en médecine et en
biologie sont des confixes.

Attention :

Les formants grecs sont souvent assortis de suffixes latins : polytechnique, pétrification, désoxyribonucléique, ou vice-versa, un formant latin peut être suivi d’autres formants grecs : alvéolite, chimiothérapie, lacrymogène, cellulite. On trouve également des combinaisons avec des composants modernes : visiophonie, extensomètre, télécopie, kleptomanie, syntoniseur, électrochoc, radiodiffusion.

Certains formants ont des variantes, qui ne sont pas toujours équivalentes :

      • CEREBRO :
        cérébro- cérébro-spinal, hémisphères cérébraux ;
        céphalo- céphalo-rachidien ; céphalopodes
        encéphalo- encéphalographie
      • CHEMO :
        chémo- chémosensibilité
        chimio- chimiothérapie
      • NEURO :
        neur( o )- neuroleptique
        névr( o )- névroptères
      • OOPHORO :
        oophor(o)- oophoropexie
        ovari( o )- ovariopathie
      • PROCTO :
        procto- proctologie
        recto- rectoscopie

Les formants n’ont pas toujours la même forme :

      1. Changements orthographiques : apocope, addition ou suppression d’une voyelle ou d’une consonne d’appui.
        Exemple :
        cupri- / cupro
        olé(i)- / olé( o )-
        phreno- / phrénico
        zygomato- / zygomatico
      2. Permutation des éléments quand l’ordre déterminant-déterminé ne correspond pas avec celui de la langue source (si l’on veut éviter un calque non-nécessaire) :
        Exemple :
        nasolacryntal / lacrymonasal
        cardioneural / neuro-cardiaque
        tibiofibular / péronéo-tibial
        vesicouterine / utéro-vésical
      3. Modulation d’un élément :
        Exemple :
        brachial / huméral
        pharyngo / glosso
        femoral / crural

Un même préfixe peut être traduit différemment et engendrer des doublets :

circum- > circon- / péri
contra- > contra-/ contro- / contre
dis- > dis-/ dés-/ ex
hyper- > hyper- /ana-/ oxy- / poly- /super-/ sur
hypo- > hypo- / infra- / sous- / sub- / a
intra- > intra- / endo- / inter-

Les préfixes ou suffixes sont sujets à des changements phonétiques / orthographiques pour des raisons d’euphonie. Ainsi, la voyelle o disparaît parfois devant une autre voyelle : megaloencephalon > mégalencéphalie. On peut insérer des lettres d’appui pour faciliter la prononciation : méga(l)opsie.

Certains préfixes subissent une apocope ou une contraction : meg(a)- par(a)-

3. COMPOSITION

La composition consiste en l’union de deux ou plusieurs mots constitutifs qui conservent leur forme complète pour donner une unité lexicale neuve (donnée-image, sous-armé, eau-de-vie, hautbois…). Le mot composé peut être soudé (alcoolépilepsie) ou bien lié par un trait d’union entre les constituants (bulbo-cavemeux).

Une voyelle de liaison, généralement le o a pour fonction d’unir les composantes de l’adjectif composé qui se présentent normalement en relation de coordination (technico-industriel, euro-américain, socio-culturel). Les termes ainsi construits constituent un cas intermédiaire entre confixation et composition.

3.1 Structure

La structure d’un terme composé est normalement celle d’un élément déterminé par un ou plusieurs éléments déterminants (dans le terme bloc-cylindres, par exemple, le mot bloc est déterminé par le mot cylindres). La relation entre les éléments (notamment dans le cas des substantifs) peut être également une relation de coordination (déclencheur-limiteur, contacteur-disjoncteur). Les substantifs s’accordent alors en nombre et sont souvent joints par un trait d’union. Le premier élément peut être considéré comme prédominant, puisqu’il donne son genre à l’ensemble, mais cette prédominance est très réduite du point de vue sémantique, notamment dans le cas de la désignation d’une réalité “hybride” (par exemple, le terme bar-hôtel, qui n’est vraiment ni un bar ni un hôtel).

Une construction syntaxique peut recouvrir différents rapports notionnels. Ressort-soupape pourrait signifier aussi bien ressort pour soupape que ressort avec soupape. De même, tm même rapport notionnel peut s’exprimer sous des formes syntaxiques différentes.

L’ordre déterminé + déterminant est propre au français bien qu’on puisse trouver également l’ordre inverse notamment dans des formations d’origine étrangère (doparéaction, radium-thérapie, lysat-vaccin), dans les confixes et les calques.

Le groupe déterminé + déterminant est créé par substitution d’un trait d’union ou d’une voyelle de liaison au joncteur.

Le groupe déterminant + déterminé, quoique non naturel au français, connaît un certain succès à cause de l’influence de l’anglais. Le déterminant a une valeur quasi adjectivale. Ainsi, le terme auto-école, peut être interprété comme une école “qui a rapport à l’automobile”.

3.2 Combinaisons courantes

Les combinaisons les plus courantes sont :

      • N + N (transmission-radio, bloc-cylindres, wagon-citerne). Ce type de formation établit des rapports soit de coordination (ex. président-directeur), soit de subordination (image-radar) ;
      • V + N (pose-tube, essuie-glace, lance-torpilles). Le nom a souvent la fonction de complément direct. Ce type de composition peut être utilisé comme adjectif (ex. une galerie paraneiges) ou comme substantif (ex. un cache-radiateur) ;
      • Adj + Adj (sourd-muet, gris-bleu, aigre-doux). Ces composés sont produits par ellipse du joncteur ;
      • Adj + N (gros-porteur, haut-parleur) ; (l’adjectif s’accorde en genre et en nombre avec le terme de base) ;
      • N + Prép + N (rez-de-chaussée, main-d’oeuvre). Ce type de formation est à mi-chemin entre la composition et la formation syntagmatique, car ces unités peuvent être considérées comme un syntagme soudé.
3.3 Variantes

Il existe un type de formation intermédiaire entre la dérivation et la composition : la formation à l’aide de morphèmes grammaticaux autonomes antérieurs tels qu’après, demi, non et sous dont la forme et la fonction les situent entre mot et préfixe (sous-ensemble).

Il existe également un type de formation intermédiaire entre la confixation et la composition. On peut réunir en un faux composé un confixe (lié) et un mot (libre). ex. téléguidage, télépéage. Ce type de formation est assez courant.

Conseil :

Les termes composés sont en général assez brefs (souvent deux mots), motivés et sans précision excessive.

Attention :

Respectez la syntaxe du français : le nom déterminé vient avant le complément ou l’adjectif déterminant :

image-ratio (ratio image)
image-satellite (satellite picture)
chèque-voyage (traveller’s check)
couvre-bec (mouthpiece cap)

Utilisez le trait d’union (couper-coller, presse-papier, audio-prothèse, aide-ouïe intra-auriculaire).

4. FORMATION SYNTAGMATIQUE

Un syntagme est un groupe d’éléments formant une unité de sens dans une organisation hiérarchisée. Ce nouveau terme a des propriétés dénominatives différentes de celles des éléments qui le composent.

Le degré de lexicalisation d’un syntagme se situe dans un continuum dont les deux pôles sont la lexicalisation complète et le syntagme libre. Le terme-syntagme a un répertoire restreint de mots faibles (conjonctions, articles, pronoms, verbes auxiliaires). Son étendue est plus limitée que celle des syntagmes libres. A cet égard un syntagme lexicalisé ne peut pas franchir un certain seuil s’il veut rester fonctionnel dans la communication. De même, il doit pouvoir s’intégrer sans difficulté dans des textes spécialisés.

Les critères de lexicalisation sont : l’existence d’une définition spécialisée, la position dans le système terminologique donné, la maniabilité, la récurrence et la cohésion syntaxique. Il n’est, par exemple, pas possible d’étendre le complément en ajoutant un nouvel élément sans briser le sens du syntagme original (gaz très inerte n’aurait pas le même sens que gaz inerte).

4.1 Structure

La structure des termes-syntagmes est toujours la même : le noyau, qui peut être un substantif, un verbe, un adjectif ou un adverbe, est modifié par un ou plusieurs éléments (le complément) : de(s) nom(s), adjectif(s) ou un ou plusieurs syntagmes prépositionnels ou nominaux.

4.2 Combinaisons courantes

Les formules les plus productives sont les suivantes :

      • N + Adj, appelé syntagme épythétique (hélice carénée, chaine pyrotechnique, charge utile) ;
      • N + N, appelé aussi syntagme asyndétique (plan média, point zéro, fréquence vidéo) ;
      • N + Prép + N (chambre de combustion, arrêt d’urgence, barre de contrôle, fermeture à glissière) ;
      • N + Adj + Adj (couverture fertile interne, séquences répétées directes, munition chimique binaire) ;
      • N + Adj + Prép + N (épaisseur réduite d’ozone, distance proximale au sol, plasmide hybride de résistance).

Il y a une nette prépondérance des termes-syntagmes nominaux.

Dans les syntagmes verbaux, le verbe est normalement suivi d’un objet direct ou d’un complément circonstanciel, l’un et l’autre pourvus d’un article (fondre au noir).

En français, on construit surtout des syntagmes épithétiques et des syntagmes avec joncteur, aussi appelés synapses, du type réacteur à eau lourde.

A l’intérieur d’un terme-syntagme, on peut établir des rapports hiérarchiques de type syntaxique. Par exemple, dans un syntagme nominal subordinatif, le noyau est constitué d’un nom modifié par un adjectif, un syntagme prépositionnel, un syntagme nominal ou une combinaison des précédents. Ainsi, dans le terme réacteur à neutrons rapides, le noyau réacteur se voit modifié par le syntagme prépositionnel à neutrons rapides.

L’extrême flexibilité paradigmatique fait du syntagme nominal un excellent
instrument en terminologie. Un grand nombre de néologismes est construit de cette manière (cellule à haute pression à enclumes de diamants, angioplastie transluminale, archéologie sociale, polymérisation par transfert de groupe).

Conseil :

Procédé très productif en sciences et en techniques. Les termes-syntagmes sont faciles à comprendre.

Attention :

Les termes-syntagmes ne doivent pas être trop longs. Utilisez éventuellement l’abrègement.

Les termes-syntagmes de la langue-source peuvent souvent être traduits comme tels, mais tenez compte des règles grammaticales de la langue d’arrivée :

coal-fired fumace > chaudière à charbon
air-operated ejector > éjecteur à air
pressure type terminais > bornes à pression

Ou bien cherchez des termes équivalents dans la langue d’arrivée :

growth of germs > prolifération microbienne
retaining wall > mur de soutènement
crossing sweeper > balayeur de rues

5. EMPRUNT

Il y a emprunt quand une langue A utilise et finit par intégrer une unité linguistique qui existait précédemment dans une langue B et que A ne possédait pas ; l’unité empruntée est elle-même appelée emprunt. Le terme peut être emprunté avec ou sans adaptation phonique ou graphique. On distingue l’emprunt direct, l’emprunt intégré et le calque.

5.1 Emprunt direct

L’emprunt direct consiste en l’introduction d’un mot d’une autre langue sans modification. Un terme emprunté ne garde pas toujours sa signification originelle. Drugstore, par exemple, ne recouvre pas les mêmes réalités aux Etats-Unis et en France.

L’emprunt peut avoir des synonymes : cabine de pilotage / cockpit ; liste de vérification / check-list ; aérofrein / spoiler ; volet de bord d’attaque / slat.

Dans le cas de termes-syntagmes ou de mots composés, il peut exister des emprunts partiels (ex. bande-vidéo).

5.2 Emprunt intégré

L’intégration d’un emprunt se fait par adaptation lexico-morphologique, graphique ou phonique complète ou partielle (le radical du terme ne change généralement pas tandis que les affixes sont adaptés (containeur, listage). Le suffixe anglais -ing est très souvent substitué par le suffixe -age, (dopage, doping), -er est substitué par -eur (hydrocraker > hydrocraqueur).

5.3 Calque

Le calque est un type d’emprunt particulier : ce n’est pas le terme de la langue-source qui est conservé, mais bien sa signification qui est transférée, sous forme traduite et à l’aide de mots existants, dans la langue-cible (ex. steam engine, machine à vapeur).

Conseil :

L’emprunt se justifie quand le terme est précis dans la langue-source, quand il est court, quand il est en usage dans une communauté internationale. Le fait qu’il soit facile à prononcer est un atout. Quand il s’agit d’une terminologie spécialisée, l’intégration graphique n’est pas nécessaire.

Attention :

Vous pouvez expliquer ou paraphraser un emprunt. Tout dépend de votre public-cible. Il convient d’éviter l’abus des calques, tel que, par exemple, thérapie occupationnelle pour traduire occupational therapy, alors qu’il existe en français le mot confixé ergothérapie.

6. ABREGEMENT

L’abrègement consiste en la suppression d’un certain nombre d’éléments (quelques lettres, des syllabes, quelques mots…) d’un terme. Le procédé est fort répandu dans les sciences et les techniques. Il existe trois types essentiels d’abrègement : la troncation, l’acronymie et la siglaison.

6.1 Troncation

La troncation consiste en la formation de nouveaux termes par la réduction à une syllabe de plus de deux phonèmes d’un mot source. Il existe trois types de troncation: l’aphérèse, la syncope et l’apocope.

L’aphérèse est la suppression de la partie initiale d’un mot (autobus -> bus). Ce procédé est rare dans les langues de spécialité. La syncope est la suppression d’une ou plusieurs lettres de la partie médiane d’un mot. Elle se rapporte le plus souvent à des mots composés contenant plusieurs radicaux qui font que le mot est trop long. (alcoolomètre >alcoomètre). L’apocope est la suppression de la partie finale d’un mot. C’est une méthode souvent utilisée pour abréger les unités de mesure (ex. radiation -> rad, kilo(gramme)). Les apocopes étant employées au pluriel reçoivent la terminaison correspondante, ce qui démontre leur fonctionnement autonome.

6.2 Acronymie

L’acronymie consiste en la formation de termes à partir de plusieurs autres termes, dont on utilise des éléments (transpondeur > transmetteur +répondeur). Les éléments peuvent être :

      1. une apocope et une aphérèse : gravicélération (gravitation + accélération), aldol (aldéhyde+ alcool) ;
      2. deux apocopes : modem (modulateur + démodulateur), aldéhyde (alcool + dehydrogenatum) ;
      3. deux aphérèses : nylon (vinyl + coton) ;
      4. une apocope : publipostage (publicité + postage), musicassette (musique + cassette) ;
      5. une aphérèse : bureautique (bureau + informatique), vidéophone (vidéo + téléphone) ;
      6. une apocope et une syncope : amatol (ammonium nitrate + trinitoluène).
6.3 Siglaison

La siglaison consiste en la création d’un nouveau terme à partir de certaines lettres d’un terme de base (souvent un syntagme). Les sigles peuvent faire partie d’un syntagme lexical (ADN hyperhélicoïdal). Les sigles sont souvent polysémiques. Par exemple, dans le domaine de l’environnement, le sigle TOMS peut se référer à Total Ozone Monitoring Spectrometer, Total Ozone Monitoring System, Total Ozone Mapping Spectrometer et Total Ozone Mapping System.

Si on consulte un dictionnaire de sigles, on s’aperçoit rapidement qu’il n’y a pas de règles de formation précises en ce qui concerne la siglaison :

      • On peut prendre seulement les mots forts du syntagme (Organisation des Nations Unies -> ONU) ou les mots forts et les mots faibles (Société à Responsabilité Limitée-> SARL) ;
      • On peut prendre seulement la première lettre des mots qui composent le syntagme (Habitation à Loyer Modéré-> HLM) ou quelques lettres (Association Française de Normalisation -> AFNOR) ou les syllabes initiales de chaque mot (Belgique-Nederland-Luxembourg -> BENELUX).
      • Les nouveaux termes peuvent se référer à des termes syntagmes (Aliments végétaux imitant la viande -> AVIV) ou à des termes composés (magnétohydrodynamique -> MHD, électrosplanchnographie -> ESG).
      • Souvent, les termes à plusieurs composants se trouvent réduits en des sigles qui ne représentent pas la totalité de leurs composants (Action dynamique spécifique des aliments -> ADS).

Les sigles peuvent paraître dans le texte avec ou sans points. L’absence de ponctuation peut être indicative du degré de lexicalisation. Le genre des tennes créés par siglaison est, en général, celui de la base générique du syntagme principal sous-jacent (on dit une LSP parce que la base générique est langue). Un grand nombre de sigles, symbolisant des concepts spécialisés, sont commandés par l’ordre syntaxique anglo-américain. Les sigles qui se prononcent comme s’il s’agissait d’un mot sont bien intégrés dans le système phonique. Ce phénomène favorise la création de dérivés et, par conséquent, la lexicalisation.

Conseil :

La brièveté est, cela va de soi, l’atout principal de ces termes. Les sigles peuvent se combiner avec des termes-syntagmes : ADN polymérase, ARN nucléaire de grande taille.

Certains sigles internationaux ne sont pas traduits :

ASCII (American Standard Code for Information Interchange)
DOS (Disk Operating System)
SONAR (Sound NAvigation Ranging)

Traduisez de préférence un sigle par un sigle (quitte à l’expliquer), mais respectez la syntaxe de la langue d’arrivée. Ne dépassez pas 5 lettres. Le terme produit doit pouvoir être prononcé facilement.

7. NEOLOGIE DE SENS

La néologie de sens consiste à employer un signifiant existant déjà dans la langue considérée et à lui conférer un contenu qu’il n’avait pas jusqu’alors. La relation établie entre le terme existant et le terme nouveau est normalement de type métaphorique, qu’il s’agisse d’un trope proprement dit ou d’un emprunt de sens.

7.1 Tropes

Ce procédé de formation consiste à donner un nouveau sens à un terme existant à travers l’établissement de rapports d’analogie : on fait abstraction de certains traits significatifs du terme existant et on les “transporte“, en ajoutant les nouveaux traits qui fourniront un nouveau signifié tout en neutralisant les traits qui ne conviennent pas à la nouvelle dénomination. La métaphorisation peut être appliquée à un terme simple ou à un terme-syntagme.

La différence entre la métaphore et la métonymie réside dans le fait qu’il s’agit d’un rapport de contiguïté dans le cas de la métonymie ou la synecdoque et qu’un rapport de similitude dans le cas de la métaphore. Le terme famille de gènes, par exemple, qui désigne l'”ensemble de gènes ayant de grandes ressemblances fonctionnelles et structurelles,” a été créé par métaphore à partir du mot famille dont un des traits sémantiques est celui de la ressemblance entre les personnes qui la forment. C’est un rapport de similitude. Dans le cas du terme antenne appliqué à une émission de radio, on a un rapport de contiguïté avec l’appareil qui sert à diffuser les ondes. On
parle de métonymie quand on établit des relations de type :

      • cause-effet (le mot émission désigne l’action de diffuser à distance et le résultat de cette action),
      • contenant-contenu (le terme aérosol peut désigner le liquide projeté sous pression, le jet lui-même, l’appareil servant à produire ce jet encore le liquide présent dans le récipient diffuseur),
      • activité-résultat (le terme terminologie peut faire référence aussi bien à l’activité de recherche et d’étude du vocabulaire scientifique et technique qu’aux produits résultant de cette activité : les dictionnaires spécialisés ou les bases de données terminologiques),
      • abstrait-concret (le terme tribune désigne à la fois le lieu physique où l’on exprime des idées et un genre d’émission où le public peut exprimer ses vues par téléphone).

Ce processus de création est lié à un autre trope: la synecdoque, qui consiste à établir un rapport partie/tout (ou relation d’inclusion) entre le néologisme et le mot de base.

7.2 Emprunt de sens

L’emprunt de sens est un calque sémantique: le sens du mot dans la langue A est repris dans le mot de la langue B. Un néologisme créé par métaphore, métonymie ou synecdoque peut être traduit en utilisant le même processus.

7.3 Changement de sens

Il arrive aussi qu’un mot reçoive une signification entièrement nouvelle lors du passage d’une LSP à une autre ou lors du passage de la langue commune à une LSP. Le passage d’un terme d’une LSP à une autre LSP se produit fréquemment dans le cas de domaines apparentés. Il s’agit généralement d’une modification partielle du sens premier et non pas d’un changement complet. Le vocabulaire des mathématiques a, par exemple, prêté de nombreux termes aux informaticiens : aléatoire, algorithme, interpolation, matrice… Dans tous ces cas, le terme conserve dans sa nouvelle acception des traits sémantiques de son champ lexical d’origine et en acquiert d’autres de celui où il entre.

Quand les domaines ne sont pas apparentés, la signification du terme peut changer entièrement. Le mot divergence est employé en mathématiques ou en physique pour décrire une situation où deux lignes ou deux rayons vont en s’écartant. La divergence nucléaire est l’établissement de la réaction en chaîne dans un réacteur. Le passage d’un mot de la langue commune à une LSP se produit surtout à travers les tropes. Le mot prend alors un sens plus restreint. Ainsi le mot autonome a plusieurs significations mais en informatique, il signifie “matériel fonctionnant de façon indépendante“.

Conseil :

Procédé productif en LSP. Les termes sont souvent motivés. Les métaphores, qui prédominent par rapport aux autres tropes, introduisent parfois un élément ludique et sont de ce fait accueillies favorablement.

Attention :

L’emprunt de sens ou le calque sémantique est condamné par certains, bien que les linguistes nous assurent qu’il ne porte pas atteinte à la langue. Pour les tropes: utilisez la même métaphore ou cherchez une métaphore analogue.

8. CREATION EX NIHILO

La création ex nihilo consiste en la combinaison libre d’unités phonétiques choisies de façon arbitraire. Toute combinaison de phonèmes est théoriquement susceptible d’acquérir une signification. Le terme babar, qui dénomme dans le vocabulaire de la technique nucléaire un moniteur, a été créé ainsi. Dans l’industrie certains noms de marques déposées ont été créés de cette façon.

Une variante de ce type de formation est la création ludique. Le terme anglais cotarnine (ou cotarnin) est l’anagramme de narcotine (la cotarnine étant obterme par oxydation de la narcotine) ; l’acide contenu dans la noix de galle est connu sous le nom d’acide ellagique (adjectif ayant été formé sur la base de l’inversion).

Une autre variante est celle des termes formés par onomatopée (le bang des avions à réaction, qui dénomme la percussion du mur du son, ou de l’emprunt anglais big bang, qui dénomme l’explosion qui donna lieu à l’univers connu).

Conseil :

Procédé rare en traduction. Importez directement les néologismes ainsi créés et ajoutez une explication, si nécessaire.

9. EPONYMIE

L’éponymie est la création néologique qui consiste à dénommer un nouveau concept par un nom propre, un éponyme (le nom d’un inventeur, un toponyme, etc.) En chimie, un certain nombre d’éléments portent le nom de dieux classiques (plutonium, neptunium, uranium…) ou bien font référence à des personnes ou à des institutions connues (l’élément 99 est aussi connu sous le nom d’einsteinium, en souvenir d’Einstein, et l’élément 98 est appelé également californium en hommage à l’Université de Californie où en avait fait la découverte).

L’éponyme est parfois utilisé pour remplacer une expression descriptive d’une longueur incommode. On dit plus facilement maladie de Pick-Herxheimer que pachydermie plicaturée avec pachypériostose de la face et des extrémités.  L’éponyme est parfois en concurrence synonymique avec un autre terme. Ainsi, l’espace de Kauth-Thotnas est aussi appelé espace indiciel, l’indice de Tucker est également connu sous le nom d’indice de végétation, etc. Les éponymes varient d’un pays à l’autre : les auteurs anglais appellent syndrome de Homer le syndrome Claude Bernard-Homer des Français, mais dénomment syndrome de Claude Bernard le syndrome d’excitation du même sympathique appelé en France syndrome de Pourfour du Petit. Les éponymes peuvent être polysémiques. Le terme syndrome d’Albright dénomme soit une tubulopathie congénitale (l’acidose tubulaire chronique idiopathique avec hypercalciurie et hypocitraurie) soit une dysplasie fibreuse des os avec pigmentation cutanée et puberté précoce.

Les noms propres sont parfois employés comme adjectifs. (agathonique, kafkaïen, cartésien…) ou pour dénommer les membres d’une école de pensée ou d’un mouvement politique (épicurien, kantien, gaulliste…). Ce type de création néologique est aussi appelé antonomase. Un nom propre peut également s’unir à un formant savant (ex. chlorobrightisme, nom formé à partir de l’éponyme Bright ou curiethérapie, formé à partir du nom propre Curie).

Conseil :

Ce n’est pas aux traducteurs d’inventer des éponymes. Demandez conseil aux spécialistes du domaine. Ils vous donneront, en l’absence d’un éponyme correspondant, un synonyme.

Attention :

Un même éponyme peut parfois désigner des notions différentes : syndrome d’Albright dénomme soit une tubulopathie congénitale, l’acidose tubulaire chronique idiopathique avec hypercalciurie et hypocitraturie, soit une dysplasie fibreuse des os avec pigmentation cutanée et puberté précoce. Même si l’éponyme semble identique dans deux langues, il peut correspondre à des concepts tout à fait différents.


Quelques affixes et radicaux

a-, an- : non, sans
ab-, abs- : de, hors
ad-: vers
aéro-: air
agro-, agri- : champ
amb- : les deux
anté- : avant
anti- : contre
apo- : loin de, à partir de
haro- : poids
bary- : lourd
bathy- : profond
bi-, bis: deux fois
bio-: vie
calci-, calcio: chaux
calori- : chaleur
centi- : cent
circon-, circum- : autour de
co-, con- : avec
cryo- : froid, glace
cyclo- : cercle
déci-: dix
di- : deux fois
dia- : à travers
dis-: éloigné
dynamo- : force
épi- : sur
ex-: hors de
exa-: six
exo-, ex- : au dehors
géo-: terre
giga- : géant
gonio- : angle
gyro- : cercle
hecto- : cent
hém(at)o- : sang
hepta- : sept
holo- : entier
homéo- : semblable
homo- : le même
hydro-: eau
hygro- : humide
hyper- : au-dessus
hypo- : dessous
hypso- : hauteur
in-: dans
infra- : au-dessous
inter- : entre
intra-: à l’intérieur
isc-: égal
kilo-: mille
macro- : grand
maxi-: maximum
méga- : grand
méro- : partie
méta- : au-delà
micro- : petit
milli-: mille
mini-: minimum
mono-: seul
moto- : moteur
multi- : nombreux
nano- : nain, petit
octo-, octa-, oct- : huit
ornni-: tout
ortho- : droit
pan-, panto- : tout
para- : à côté de
para- : protégeant
penta- : cinq
per- : à travers
péri- : autour de, au dessus
pétro- : pierre
phono- : voix , son
photo- : lumière
pico- : un millième de
milliardième de
pluri- : plusieurs
poly- : nombreux
post- : après
pro- : pour, en avant de
proto-, prot- : premier
pseudo- : menteur
pyro-: feu
quadri-, quadr- : quatre
radio- : rayon
rétro- : en arrière
servo- : qui sert
sidér-, sidéro- : fer
stéréo- : compact, solide
sub-: sous
super- : sur, au-dessus
supra- : au-dessus, au-delà
syn-, sy-, sym- : avec
techno- : art
télé- : loin, à distance
téra- : monstre
tetra, tétr- : quatre
thermo- : chaud
topo-: lieu
trans- : par-delà
tri- : trois
ultra- : au-delà
uni-, un-: un
-chrome : couleur
-chrone : temps
– cide: tuer
-cole : cultiver
-colore : couleur
-culteur : cultivateur
-ergie : travail
-fère : qui porte
-fuge : fuire
-gène : produire
-gone : angle, côté
-gramme : écriture
-graphie : écrire
-ide(s) : apparence, forme
-logie : discours, théorie
-rnétr: mesure
-morphe : forme
-nôme: nom
-nome: loi
-ode : chemin
-oïde : apparence, forme
-onyme: nom
-phile : ami, aimer
-phobe : craindre
-phone : voix, parler
-scope : observer
-sphère : sphère
-stat : fixer
-techn : art, savoir-faire
-thèque : ranger


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : Réseau de néologie traductive – Centre de terminologie de Bruxelles (RINT) | contributeur : Patrick Thonart | crédits illustrations : © DP.


Traduire plus en Wallonie…

UPANO, cité oubliée d’Amazonie

Temps de lecture : 9 minutes >

[WEBZINE.VOYAGE, 2024] La forêt amazonienne, souvent vue comme un sanctuaire de biodiversité, cache sous son manteau vert un secret historique de taille : une vaste cité perdue en Amazonie, sur les rives de l’Upano, datant de 2500 ans. Cette découverte dans le piémont andain, révélée par une équipe de chercheurs dirigée par l’archéologue Stephen Rostain, ouvre un nouveau chapitre fascinant dans l’histoire précolombienne de l’Amazonie. Elle offre également un aperçu fascinant de la complexité et de la sophistication des sociétés qui y ont prospéré. A partir de recherches démarrées en 1996, un gigantesque réseau urbain avec jardins, d’une population comparable à la ville de Londres à l’époque romaine, a été mis à jour grâce au système de télédétection LIDAR.

Découverte et LIDAR

La révélation géographique de cette cité perdue est le fruit de l’application du LIDAR (Light Detection and Ranging, détection et estimation de la distance par laser en français). C’est une technologie de télédétection par laser qui permet de scanner et de cartographier des surfaces à travers des obstacles visuels tels que la dense forêt de l’Amazonie. Cette méthode, particulièrement innovante dans le domaine de l’archéologie, a permis aux chercheurs de scruter au-delà de la végétation et d’obtenir une image détaillée du sol forestier, révélant ainsi les contours cachés d’une civilisation disparue.

Les données obtenues grâce au LIDAR ont dévoilé une complexité architecturale et urbaine inattendue, démontrant que les terres que nous considérions comme sauvages étaient en réalité le siège d’une activité humaine intense et structurée.

En superposant ces nouvelles informations avec les découvertes archéologiques existantes, les chercheurs ont pu reconstituer une étendue impressionnante de 300 km², révélant une image inédite de la cité perdue de l’Upano et du site de Kunguints.

Cette reconstitution numérique a permis de visualiser non seulement les structures individuelles, mais aussi leur agencement au sein d’un réseau urbain structuré avec de nombreux jardins. Ce travail minutieux d’analyse a ouvert la voie à de nouvelles hypothèses sur la vie, la culture et l’organisation de cette société ancienne, jetant un regard inédit sur une période de l’histoire humaine jusqu’alors enveloppée de mystère.

L’étude détaillée des données récoltées a révélé un plan urbain étonnamment sophistiqué. Les chercheurs ont identifié des routes et des structures organisées selon un schéma qui rappelle celui de grandes métropoles modernes.

Cette découverte suggère une société précolombienne organisée avec des compétences en construction et une compréhension approfondie de l’urbanisme. Les routes, tracées de manière parallèle et perpendiculaire, évoquent les artères d’une ville planifiée, loin de l’image traditionnelle d’une société amazonienne primitive. Ces voies de communication formaient une véritable toile d’araignée, reliant différentes parties de la cité antique et facilitant ainsi le déplacement et l’échange entre ses habitants.

Au cœur de cette organisation urbaine se trouvaient des places carrées, des plateformes et de grands monticules. Ces places, souvent entourées de plateformes périphériques, formaient le centre de la vie communautaire. Certaines supportent des structures résidentielles, tandis que d’autres avaient probablement des fonctions cérémonielles.

Les chemins partant de ces plateformes menaient vers d’autres zones de la cité ou descendaient vers les rivières, indiquant une interaction étroite entre les différentes parties de l’urbanisme et l’environnement naturel. Quant aux grands monticules, qui peuvent atteindre jusqu’à dix mètres de hauteur, ils sont vraisemblablement des sites de cérémonies ou des points de repère importants dans le paysage urbain.

Une caractéristique remarquable de cette civilisation révélée par les données LIDAR est le concept de cités-jardins. Les espaces interstitiels entre les quelque 6000 plateformes en terres identifiées étaient utilisés pour l’agriculture, avec des systèmes de drainage ingénieux rappelant des rigoles.

Cette harmonie entre urbanisme et agriculture dénote une compréhension avancée de l’écologie et une capacité à modeler l’environnement selon les besoins humains. Ces jardins, en plus de fournir de la nourriture, jouent probablement un rôle important dans les aspects sociaux et religieux de la société.

La complexité des structures et de l’agencement urbain implique l’existence d’une organisation sociale bien établie. La nécessité de terrassiers pour la construction, d’ingénieurs pour la planification des routes, et de paysans pour l’agriculture suggère une répartition des rôles et des spécialisations professionnelles.

Cette structuration sociétale indique également la présence d’une autorité centrale, peut-être sous la forme de prêtres ou de dirigeants, orchestrant et supervisant ces vastes projets. Les chercheurs restent prudents dans leurs interprétations mettent en évident une société complexe avec des hiérarchies et des fonctions diverses.

Une nouvelle histoire de l’Amazonie

La découverte de cette cité perdue change fondamentalement notre perception de l’Amazonie. A contre-courant de l’image d’une terre vierge, seulement peuplée de chasseurs-cueilleurs, l’Amazonie se dévoile comme le berceau d’une civilisation avancée, avec des agglomérations sophistiquées et une interaction prospère avec l’environnement. Cette révélation souligne également la diversité ethnique et humaine de l’Amazonie, une région qui a abrité des sociétés complexes, bien loin de l’image stéréotypée souvent véhiculée.

La proximité des sociétés urbaines avec des groupes de chasseurs-cueilleurs met en lumière un panorama social et culturel diversifié en Amazonie précolombienne. Cette coexistence indique une région où différentes formes de sociétés et de cultures se côtoient et interagissent, remettant aussi en question l’idée d’une évolution linéaire et uniforme des sociétés humaines.

Les mystères d’une civilisation disparue

La disparition de cette civilisation soulève des questions captivantes. Parmi les théories de l’effondrement, la possible méga-éruption du volcan Sangay comme cause potentielle, bien que les analyses récentes indiquent une variété de dates pour les couches de cendres trouvées, affaiblissant cette hypothèse.

Une autre explication possible est l’effondrement interne de la société, à l’image de ce qui est arrivé à des civilisations comme Rome ou l’Égypte. Cette piste soulève des interrogations sur la durabilité des sociétés urbaines en fonction de leur impact sur l’environnement.

Cette découverte marque seulement le début d’une vaste entreprise de recherche. L’ampleur des structures et l’importance des données montrent que de nombreuses découvertes restent à faire. Stephen Rostain lui-même admet que la portée du phénomène a dépassé ses attentes initiales, ouvrant la voie à une exploration prolongée de cette civilisation et à une meilleure compréhension de son impact historique et culturel.

Plusieurs questions restent sans réponse : Quelles étaient les causes précises de l’effondrement de cette cité perdue ? Quel était le niveau exact de leur technologie et de leur connaissance ? Comment ont-ils influencé ou été influencés par d’autres civilisations contemporaines ?

La révélation de cette mégalopole antique sous la canopée amazonienne n’est pas seulement une prouesse archéologique; elle représente une fenêtre ouverte sur un passé oublié, offrant un nouveau récit sur les civilisations précolombiennes.

Ce voyage dans le temps nous confronte à la réalité d’une Amazonie complexe, peuplée de sociétés avancées et ingénieuses, loin des clichés habituels. Cette histoire éclaire d’un jour nouveau la relation entre l’homme et son environnement, et nous rappelle l’importance de préserver ce patrimoine historique et culturel inestimable.


Apprendre à traduire : à l’ère de l’IA, faut-il encore faire des exercices de thème et de version ?

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 4 décembre 2024] “Si les outils de traduction font des miracles, pourquoi s’exercer à transposer des textes d’une langue à une autre ?”, se demandent les étudiants. Loin d’être anodin, cet apprentissage permet de se sensibiliser réellement aux subtilités et au fonctionnement de la langue qu’on apprend.

DeepL fait des miracles, pourquoi devrais-je alors apprendre à traduire ?“, s’interroge un étudiant dans un cours de version. Les cours de thème (traduire un texte du français vers la langue étudiée) et de version (traduire un texte d’une langue étudiée en français) occupent une place importante au sein de la formation universitaire française, en licence de langues jusque dans les épreuves des concours du second cycle. Au lycée déjà, les élèves découvrent les subtilités inhérentes au fait de passer d’une langue à une autre et, dans le cadre des enseignements de langues et cultures de l’Antiquité, ils s’exercent régulièrement à la traduction.

Dans un contexte général où la traduction neuronale, alimentée par l’intelligence artificielle, rivalise de plus en plus avec la traduction humaine, l’intérêt de cet apprentissage peut susciter une remise en question.

Des objectifs de cours à clarifier

Sans aborder les débats historiques qui jalonnent l’évolution de la traduction en tant que pédagogie et de la traductologie en tant que discipline, on notera que de nombreuses recherches ont souligné le “statut étrange de la traduction à l’université, souvent fondé sur une mauvaise appréhension de son intérêt“, selon les mots de l’universitaire Fayza El Qasem.

Bien que les enseignants établissent des objectifs pédagogiques précis aux cours de thème et de version, de nombreux étudiants peinent encore à en percevoir les finalités. Il n’échappe à personne que la phrase “Attention, n’utilisez surtout pas de traducteur automatique !” a longtemps fait partie des consignes transmises aux étudiants, sous prétexte que la qualité de la traduction y est déplorable. Seuls les dictionnaires étaient autorisés.

© Shutterstock

Aujourd’hui, les enseignants des cours de thème et de version peuvent-ils encore éviter les traducteurs automatiques malgré leur amélioration évidente ?

On rappellera que les compétences visées dans les cours de thème et de version vont de la compréhension d’un texte et du fonctionnement des langues à travers les analyses linguistiques (grammaire, vocabulaire, procédés de traduction) jusqu’à la traduction d’un paragraphe, comme moyen d’évaluation des acquis en langues. L’extrait à traduire est généralement issu du registre littéraire ou journalistique et ne s’ouvre que rarement à la traduction dite pragmatique (textes quotidiens, professionnels).

Au cours des dernières années, les critiques n’ont pas manqué. Des études récentes ont insisté sur l’intérêt croissant d’intégrer des outils technologiques dans l’enseignement de la traduction.

Au-delà de la traduction, comprendre et analyser les subtilités linguistiques
Les cours de thème et de version constituent cependant de véritables laboratoires linguistiques. On y pratique l’analyse approfondie d’un texte source en invitant les apprenants à décortiquer les structures linguistiques et extralinguistiques que les logiciels de traduction peinent encore à saisir. En thème ou en version, il ne s’agit pas simplement de traduire des segments isolés, mais d’en saisir le sens global, de repérer les figures de style ou encore, la tonalité, etc.

Chaque niveau d’analyse permet une traduction “acceptable”, certes, mais favorise surtout une manipulation fine de la langue, transposable à d’autres contextes. Tel est le cas de la traduction des ambiguïtés syntaxiques ou des jeux de mots, de l’humour ou encore des néologismes.

Les travaux de la linguiste Natalie Kübler et de ses collègues en langue de spécialité montrent davantage “les limites de ces systèmes de [traduction automatique][…] notamment dans le traitement des syntagmes nominaux complexes, aussi bien au niveau du syntagme lui-même (variations possibles dans la juxtaposition des constituants, identification des constituants coordonnés…) comme au niveau du texte (instabilité des choix de traduction, identification adéquate du domaine de spécialité…)“.

La traduction automatique, aussi performante qu’elle soit, reste cependant imparfaite malgré ses progrès. Si elle se montre efficace lors de traductions simples et littérales, elle peine souvent à capter les nuances contextuelles essentielles. C’est ainsi que la traduction d’expressions idiomatiques (par exemple “les carottes sont cuites”, “les dindons de la farce”), des modes d’emploi ou de certaines publicités, produit parfois des rendus éloignés du sens original, jusqu’à produire de faux sens.

© Shutterstock

Les cours de thème et de version peuvent être l’occasion de sensibiliser et d’accompagner les étudiants vers une utilisation raisonnée de la traduction automatique. Il s’agit aussi d’un espace pour s’entraîner à repérer et à corriger les écueils précédemment cités, tout en renforçant la compréhension des systèmes linguistiques des langues étudiées. À long terme, cette capacité d’analyse revêt une importance fondamentale dans leur futur contexte professionnel. Communicants, journalistes, traducteurs ou enseignants de langues, ces étudiants seront souvent amenés à naviguer entre diverses sources d’information, parfois entachées de deepfakes pour justifier les échecs éventuels que les traducteurs automatiques génèrent.

Renforcer la compréhension interculturelle

Outre le renforcement des éléments linguistiques que permettent d’étayer les cours de thème et de version, la prise en compte des spécificités culturelles constitue un élément d’apprentissage à part entière, notamment parce que la traduction est, entre autres, un moyen de médiation entre deux cultures.

D’ailleurs lorsque le traductologue canadien Jean Delisle parle de la dimension culturelle de la traduction, il recourt à la métaphore de l’”hydre à cent-mille têtes” pour en souligner la nature multiple et dynamique.

La capacité à détecter et à comprendre les différences culturelles aide ainsi à prévenir les malentendus qui peuvent si facilement surgir en langue étrangère et qui sont parfois déjà présents dans la langue source. L’extrait humoristique de Juste Leblanc avec les confusions entre l’adverbe “juste” et le prénom “Juste”, dans le film Le Dîner de cons, l’illustre.

Finalement, en nous éloignant du caractère parfois artificiel des pratiques adoptées dans l’enseignement du thème et de la version et en tenant en compte de l’évolution socio-économique de la société jointe à l’utilisation de l’intelligence artificielle, ces cours pourraient (re)gagner l’intérêt initial du parcours d’apprentissage des langues. Actualisés, ils seraient à même d’offrir aux étudiants une compréhension plus claire des exigences des métiers liés aux langues, métiers qui requièrent aujourd’hui des compétences humaines spécifiques, complémentaires mais distinctes de celles des machines.

La question qui se pose aujourd’hui n’est plus “Pourquoi enseigner le thème et la version à l’heure de l’IA ?“, mais plutôt “Comment ?” “Laisser exister la relation avec les systèmes d’IA, là où partout on ne parle souvent que de leurs usages, c’est aussi laisser place à la dimension indéterminée de leur intelligence inhumaine”, comme on peut le lire dans l’ouvrage d’Apolline Guillot, Miguel Benasayag et Gilles Dowek intitulé L’IA est-elle une chance ?

Anissa Hamza-Jamann, Université de Lorraine


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, Le Caravage, Saint-Jérôme écrivant (1606) © Galerie Borghese (Rome) ; © Shutterstock | N.B. Jérôme est le Patron des traducteurs.


Plus de presse en Wallonie…

Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

Quand la découverte d’un trésor nous met sur les traces d’un voleur…

Temps de lecture : 9 minutes >

[ARTIPS.FR, 15 novembre 2024] Qu’est-ce qui se cache là-dessous ?  Belgique. En 2019, l’archéologue Marleen Martens est appelée sur un nouveau dossier. Un particulier français vient de déclarer une découverte sur son terrain belge : en creusant, il serait tombé sur de vieilles pièces. Selon la loi du pays, il devrait en être le propriétaire, Marleen n’a qu’à faire quelques vérifications. Mais une fois sur place, l’archéologue trouve la situation plutôt louche.

En effet, on lui présente deux seaux remplis de… 14 154 pièces romaines. Parmi elles, se trouvent des “Antoniniens”, du nom d’un empereur du 3e siècle. À cette époque troublée, les Romains enterraient leurs trésors pour éviter les vols. Mais Marleen est sceptique devant leur nombre considérable. Y aurait-il anguille sous roche ?

Commence alors une enquête de longue haleine entre autorités belges et douanes françaises. Très vite, le couperet tombe : ces pièces proviennent en fait de plusieurs régions de France. Si le pilleur, adepte du détecteur de métaux, a menti, c’est que la loi française considère que ces vestiges archéologiques appartiennent à tout le monde : personne ne peut se les approprier ! Le pilleur espérait profiter de la loi belge pour “blanchir” ses découvertes illégales.

Et ce n’est pas tout… Les enquêteurs découvrent chez lui plus de 13 000 objets précieux : bracelets de la préhistoire, fibules (épingles de métal) romaines, boucles de ceinture médiévales ou encore monnaies gauloises. On retrouve même un rare dodécaèdre romain, un mystérieux objet à 12 faces, dont on ignore l’usage.

Mais ces trouvailles sont loin d’être une bonne nouvelle pour les archéologues. Les œuvres ont été arrachées à leur contexte initial : il est désormais impossible de connaître leur passé et de fouiller de manière scientifique le lieu de leur découverte. De précieuses informations sur notre histoire commune ont ainsi disparu. Le pillage archéologique, s’il enrichit quelques-uns illégalement, appauvrit donc nos connaissances. Voilà pourquoi il est important d’avoir des experts vigilants comme Marleen Martens ! Comme le souligne l’Institut national [français] de recherches archéologiques préventives (INRAP) : “Le pillage revient à déchirer des pages de notre histoire.

d’après Adeline Pavie, artips.fr


Le Dodécaèdre Romain, un Mystère de l’Antiquité

[CHRONIQUESARCHEO.COM, 20 February 2024] Le dodécaèdre romain représente l’un des mystères les plus fascinants de l’antiquité. Ces objets, dispersés à travers les anciennes terres de l’Empire romain, continuent de susciter l’étonnement et la curiosité parmi les historiens, les archéologues et les passionnés d’histoire. Malgré de nombreuses recherches et théories, la fonction exacte et l’origine de ces artefacts en bronze ou en pierre demeurent un sujet de débat. Avec leurs douze faces pentagonales percées de trous de dimensions variées, les dodécaèdres romains sont un témoignage intrigant de l’ingéniosité et des mystères de la civilisation romaine. Cet article vise à explorer les différentes facettes de ces objets insolites, de leur découverte à leurs hypothétiques fonctions, tout en mettant en lumière leur importance culturelle et archéologique. En nous plongeant dans l’univers des dodécaèdres romains, nous espérons non seulement en apprendre davantage sur ces objets mystérieux mais aussi sur les peuples qui les ont créés et utilisés.

Découverte et Description

Les dodécaèdres romains ont été découverts pour la première fois dans les régions autrefois occupées par l’Empire romain, s’étendant de l’Angleterre à la Hongrie et du nord de l’Italie à la Syrie. Ces artefacts datent généralement du IIe au IVe siècle après J.-C., une période où l’Empire romain était à son apogée. Leur répartition géographique vaste et parfois disparate soulève des questions sur leur utilisation et leur signification au sein de la société romaine.

Dodécaèdre romain en bronze découvert à Leopoldwal (Tongres, BE) en 1939 © Musée gallo-romain de Tongres

Physiquement, le dodécaèdre romain est un objet en trois dimensions composé de douze faces pentagonales. Chacune de ces faces est percée d’un trou rond ou carré de diamètre variable, allant de quelques millimètres à plusieurs centimètres. Les dodécaèdres sont généralement fabriqués en bronze, bien que quelques exemples en pierre aient également été trouvés. Leurs tailles varient, mais la plupart mesurent entre 4 et 11 centimètres de diamètre. De petites boules sont souvent présentes aux sommets, ajoutant à leur aspect énigmatique.

Ces objets, malgré leur apparence uniforme, présentent des variations subtiles qui suggèrent une fabrication méticuleuse et possiblement des fonctions spécifiques. Les archéologues ont recensé plus d’une centaine de ces dodécaèdres, mais aucun contexte archéologique précis n’a permis de déterminer leur usage avec certitude. Leur découverte dans des lieux variés, tels que des sites résidentiels, des tombes ou près de voies romaines, ajoute à la complexité de leur étude.

La précision de leur conception et la diversité des lieux de découverte posent un défi captivant pour les chercheurs. Chaque dodécaèdre romain découvert apporte de nouvelles données mais aussi de nouvelles énigmes sur la vie et les croyances des Romains. Cette section a pour but de dresser un portrait détaillé de ces objets, en se basant sur les découvertes archéologiques actuelles, pour poser les fondations nécessaires à la compréhension de leur potentiel mystère.

Théories sur l’utilisation des dodécaèdres romains

La fonction exacte des dodécaèdres romains reste un sujet de débat parmi les chercheurs, plusieurs théories ayant été proposées pour expliquer leur utilité et leur signification au sein de la société romaine. Ces hypothèses varient grandement, reflétant la complexité et l’énigmatique nature de ces objets.

Une des théories les plus populaires suggère que les dodécaèdres pourraient avoir été utilisés comme des instruments de mesure astronomique ou géométrique. Les trous de tailles variées, alignés de manière précise, pourraient permettre de mesurer les angles des étoiles ou du soleil à différents moments de l’année, servant ainsi de calendrier ou d’outil pour déterminer les saisons agricoles. Cette hypothèse est appuyée par la précision géométrique de leur conception, mais manque de preuves concrètes pour étayer son argumentation.

Une autre théorie avance que ces artefacts avaient une fonction religieuse ou spirituelle. Certains pensent que les dodécaèdres auraient pu être utilisés dans le cadre de pratiques religieuses, peut-être en relation avec un culte de la nature ou des divinités spécifiques. Cette idée est renforcée par la découverte de dodécaèdres dans des tombes ou des lieux considérés comme sacrés, bien que cette utilisation reste spéculative.

Il a également été suggéré que les dodécaèdres pouvaient être des objets du quotidien, utilisés comme des dés à jouer, des poids pour des filets de pêche ou même des bougeoirs. Cependant, la sophistication et l’apparente uniformité de leur conception semblent contredire l’idée d’une utilisation purement utilitaire ou ludique.

Enfin, certains chercheurs ont proposé que les dodécaèdres étaient des objets d’enseignement ou de démonstration mathématique, utilisés pour éduquer ou montrer les principes géométriques. Bien que séduisante, cette théorie, comme les autres, manque de preuves directes liant les dodécaèdres à des pratiques éducatives spécifiques de l’époque.

Bien que diverses théories aient été avancées pour expliquer l’utilisation des dodécaèdres romains, aucune n’a pu être définitivement prouvée. Le mystère de leur véritable fonction continue de fasciner et de défier les chercheurs, symbolisant la richesse et la complexité de l’histoire romaine.

Importance culturelle et archéologique

L’étude des dodécaèdres romains dépasse la simple curiosité pour leur fonction mystérieuse ; elle offre une fenêtre précieuse sur la civilisation romaine, révélant des aspects de leur quotidien, de leurs croyances et de leur savoir-faire technique. Ces artefacts, par leur présence à travers l’Europe, témoignent de l’étendue et de l’influence de l’Empire romain, ainsi que de la diversité des cultures qu’il englobait.

Sur le plan culturel, les dodécaèdres peuvent être perçus comme le reflet de la complexité et de la sophistication de la société romaine. Leur conception précise et leur diffusion dans différentes provinces de l’Empire suggèrent une importance qui dépasse la simple utilité. Que ce soit comme objets de mesure, instruments religieux, ou symboles éducatifs, ils illustrent la capacité de cette civilisation à créer des objets chargés de signification et d’esthétisme.

Archéologiquement, chaque découverte de dodécaèdre apporte son lot de connaissances sur les sites romains et leur contexte. Leur analyse contribue à mieux comprendre les échanges commerciaux, les interactions culturelles et les mouvements de populations au sein de l’Empire. Par exemple, la répartition géographique des dodécaèdres pourrait indiquer des voies commerciales ou des centres de production spécifiques, offrant des indices sur l’organisation économique et sociale de l’époque.

En outre, les dodécaèdres romains soulignent l’importance de l’archéologie pour déchiffrer le passé. Ils rappellent que de nombreux aspects de civilisations anciennes restent à découvrir et à comprendre. Leur mystère incite à une démarche scientifique rigoureuse, mêlant l’analyse matérielle à l’étude historique, pour tenter de percer les secrets de l’histoire humaine.

Bien au-delà de leur fonction originelle encore inconnue, les dodécaèdres romains sont un symbole de l’ingéniosité et de la diversité culturelle de l’Antiquité. Ils représentent un défi constant pour la recherche historique et archéologique, offrant des pistes de réflexion sur les connaissances, les croyances et les pratiques des peuples de l’Empire romain.

Le Dodécaèdre Romain dans la Culture Populaire

Le mystère entourant le dodécaèdre romain a transcendé les cercles académiques pour captiver l’imagination du grand public. Cette fascination se reflète dans diverses expressions de la culture populaire, où le dodécaèdre est parfois présenté comme un artefact ancien doté de pouvoirs mystérieux ou comme un symbole de connaissances perdues.

Dans la littérature, les dodécaèdres romains ont inspiré des auteurs de science-fiction et de fantasy, qui les ont intégrés dans leurs récits comme des éléments clés de l’intrigue, souvent associés à des civilisations anciennes avancées ou à des technologies oubliées. Ces œuvres contribuent à perpétuer le mystère et l’émerveillement autour de ces objets, en les plaçant au cœur de mystères à résoudre ou de quêtes héroïques.

Au cinéma et à la télévision, le dodécaèdre a également fait des apparitions, servant de catalyseur pour des aventures archéologiques ou comme objet mystique doté de pouvoirs inexpliqués. Ces représentations, bien qu’éloignées des théories scientifiques, témoignent de l’attrait universel des dodécaèdres et de leur potentiel à inspirer des histoires captivantes.

Sur internet, les forums et les blogs dédiés à l’histoire et à l’archéologie regorgent de discussions et de spéculations sur les dodécaèdres romains. Des passionnés du monde entier partagent leurs théories, leurs découvertes et leurs créations artistiques inspirées par ces artefacts, contribuant à un corpus grandissant de réflexions et d’interprétations qui enrichit le débat autour de leur signification.

Enfin, les dodécaèdres romains sont également présents dans le domaine de l’éducation et de la vulgarisation scientifique, où ils sont utilisés pour éveiller la curiosité des étudiants et du public sur l’histoire et l’archéologie. Par le biais d’expositions, de conférences et de publications, ces objets mystérieux servent de point de départ pour explorer la complexité de l’histoire humaine et l’importance de la recherche scientifique.

Dali a placé La Cène dans un dodécaèdre régulier, symbole de l’Univers pour Platon. Le dodécaèdre possède 12 faces et il y a 12 apôtres…

À travers ces multiples représentations, le dodécaèdre romain continue de fasciner et d’inspirer, témoignant de la capacité des mystères du passé à éveiller l’imagination et à encourager la découverte. Leur présence dans la culture populaire est un vibrant rappel de l’intérêt indéfectible de l’humanité pour son héritage et les énigmes de l’histoire.

Découvertes Récentes de Dodécaèdre Romain

Les recherches et les fouilles archéologiques continuent de mettre au jour de nouveaux exemplaires de dodécaèdres romains, enrichissant notre compréhension de ces objets mystérieux et de leur distribution à travers l’ancien Empire romain. Chaque nouvelle découverte apporte son lot de données, offrant de précieuses informations sur les matériaux utilisés, les techniques de fabrication et les contextes de leur utilisation.

Récemment, un dodécaèdre en parfait état a été trouvé dans le nord de la France, dans une région riche en vestiges de l’époque romaine. Cette découverte a été particulièrement remarquable en raison de la préservation exceptionnelle de l’objet et de la possibilité d’y détecter des traces d’usure, suggérant son utilisation réelle dans la vie quotidienne romaine. L’analyse des matériaux a révélé des alliages spécifiques qui pourraient indiquer une production locale ou régionale, offrant des indices sur les réseaux économiques de l’époque.

Une autre découverte notable s’est produite en Suisse, où un dodécaèdre a été extrait d’un site archéologique associé à un ancien camp militaire romain. Cette trouvaille a suscité un intérêt particulier pour les chercheurs qui étudient l’expansion militaire romaine et son impact sur la diffusion des objets culturels et technologiques. L’emplacement du dodécaèdre dans un contexte militaire pourrait éventuellement éclairer son utilisation potentielle dans des pratiques ou des rituels spécifiques au sein de l’armée romaine.

En Espagne, la découverte d’un petit groupe de dodécaèdres dans une même zone résidentielle antique a lancé des débats sur leur possible fonction sociale ou communautaire. Cette concentration inhabituelle soulève la question de savoir si ces objets pouvaient servir de marqueurs sociaux ou avaient une signification collective pour les habitants de la région.

Ces découvertes récentes, parmi d’autres, continuent d’alimenter la curiosité et le débat scientifique autour des dodécaèdres romains. Elles montrent que, malgré des siècles de recherche, les secrets de l’antiquité romaine ne sont pas entièrement dévoilés, offrant de nouvelles perspectives et défis pour les chercheurs et historiens modernes.

Les dodécaèdres romains demeurent l’un des mystères les plus captivants de l’archéologie antique. Malgré des siècles de découverte et d’étude, la fonction et la signification de ces objets énigmatiques continuent d’échapper à notre compréhension complète. Les différentes théories proposées, qu’elles envisagent une utilisation astronomique, religieuse, quotidienne ou éducative, témoignent de la complexité de la civilisation romaine et de la diversité de ses pratiques et croyances.

Ces artefacts nous rappellent que, malgré les avancées de la science et de l’histoire, il reste encore de nombreuses facettes de nos ancêtres à explorer et à comprendre. Les dodécaèdres romains, par leur mystère persistant, invitent les chercheurs à poursuivre leurs investigations, utilisant à la fois les méthodes traditionnelles et les technologies modernes pour percer les secrets du passé.

La fascination qu’ils suscitent, tant dans le domaine académique que dans la culture populaire, souligne l’importance de l’archéologie dans notre quête de connaissance sur les civilisations anciennes. Alors que de nouvelles découvertes continuent d’être faites, chaque dodécaèdre romain trouvé est un rappel de l’ingéniosité humaine et un puzzle historique de plus à résoudre.

Les dodécaèdres romains ne sont pas seulement des objets d’étude pour les historiens et les archéologues ; ils sont des symboles de notre quête perpétuelle pour comprendre notre passé et, à travers lui, nous-mêmes. Le mystère qui entoure ces artefacts antiques est un puissant moteur de curiosité et de recherche, nous incitant à continuer d’explorer, d’apprendre et de nous émerveiller devant les réalisations de nos ancêtres.

La rédaction du site chroniquesarcheo.com


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : artips.fr ; chroniquesarcheo.com | contributeur : Patrick Thonart | crédits illustrations : © Musée  de la Rhénanie à Bonn ; © Musée gallo-romain de Tongres | N.B. Un lecteur fidèle nous souffle dans l’oreillette les dodécaèdres pourraient également avoir servi de gabarit pour des pièces de monnaie, des pierres précieuses ou semi-précieuses.


Plus de presse en Wallonie ?

GODEAUX : Le tram et le trolleybus de Cointe (CHiCC, 2003)

Temps de lecture : 4 minutes >

À la fin du 19e siècle, Liège possède quatre compagnies de tramways : le Chemin de Fer Américain créé en 1871, Frédéric Nyst et Cie qui exploite l’Est-Ouest en 1880, les RELSE (Liège-Seraing) en 1891 et les Chemins de Fer Vicinaux. Les transports publics se composent encore de diligences et de malles-postes. Cointe, bien qu’entourée de charbonnages, est une oasis de verdure et un lieu de divertissement grâce à ses guinguettes et au pèlerinage célèbre à Saint-Maur. Vu la création du parc de Cointe, pour accéder à ces terrains nouveaux, il s’avère nécessaire de disposer d’un moyen d’accès. Frédéric Nyst propose une liaison nord-sud partant de la gare de Vivegnis et atteignant le plateau, proposition refusée par le conseil communal. Une deuxième proposition vise à prolonger la ligne vers Sclessin et rendrait la ligne viable. Ce projet est également refusé, cette fois par la députation permanente.

Le 20 janvier 1893, une troisième proposition émane de Paul Schmidt, avocat, et elle est acceptée le 3 juillet 1893 pour une durée de 50 ans. Les droits sont immédiatement rétrocédés à une Société du Tramway de Cointe. La ligne, qui fut la première à être électrifiée à Liège, partait du bas de la rue Sainte-Véronique ; elle fut ouverte le 11 août 1895. La pente était de 3 à 5% ce qui est déjà considérable, en courbe constante. Il y avait quatre évitements : un place Sainte-Véronique et trois dans l’avenue de l’Observatoire. La longueur n’était que de 1.500 mètres. Le coût était de 150.000 francs de l’époque !

Il y avait quatre motrices, deux fermées d’une puissance de 25 chevaux construite par la société Electricité et Hydraulique qui deviendra plus tard les ACEC, et deux motrices ouvertes fournies par les Ateliers Germain. Le courant de traction était fourni par la Société Electrique du Pays de Liège. Le dépôt se trouvait à mi-parcours, dans le deuxième virage de l’avenue de l’Observatoire, où se situe maintenant l’arrêt dit “ancien dépôt.” La société était déficitaire mais son but était surtout de valoriser les terrains du parc. Elle intéressait le Liège-Seraing qui la reprit en avril 1905. La proximité de l’exposition laissait augurer un accroissement du trafic. La société souhaitait aussi éviter une prolongation vers Sclessin, ce qui aurait court-circuité la ligne du tram vert par la vallée. Quatre nouvelles motrices de 75 CV (type A) sont fournies par Ragheno. Il faut 15 minutes pour effectuer le trajet. Le prix, au départ de 15 centimes, montera progressivement à 90 centimes à la fin de l’exploitation.

Sauf à la Pentecôte, il n’y avait que deux voitures en ligne. Un projet de liaison du site de l’exposition au plateau par trolleybus AEG fut présenté mais resta sans suite, le matériel n’étant pas fiable. La ligne du tram de Cointe fut alors prolongée par une voie provisoire à travers le parc d’Avroy jusqu’à la rue Raikem où elle retrouvait le trajet de la ligne 9 pour rejoindre le Jardin d’Acclimatation. En 1927, un regroupement des compagnies fait que la ligne de Cointe est cédée aux Tramways Unifiés. En 1929, le trajet est prolongé vers le centre de la ville, place de la République française et ensuite place de la Cathédrale.

Le 31 juillet 1930, apparaissent les premiers trolleybus qui passent par la place des Wallons pour rejoindre l’avenue de l’Observatoire. Ce sont des voitures anglaises Ransomes de 60 CV qui se déplacent à 40 km/h. Le réseau de trolleybus se développant, la société achète de nouveaux trolleybus. L’expérience des véhicules anglais n’ayant pas été concluante, le choix se porte sur la FN : 30 voitures T32, partie électrique CEB et châssis et caisse FN en acier soudé. Le moteur autorise la récupération ce qui permet, en descente, de renvoyer de l’électricité sur la ligne. En 1937, ils seront suivis par 48 nouveaux qui y ressemblent sauf la face avant, et sont plus puissants : 75 CV. Ces véhicules auront des problèmes ; le carter du pont arrière est en aluminium et se brise. Ils devront être remplacés par des carters en acier. Les montants des fenêtres cassaient à hauteur de la ceinture par temps froid. Alors, ces montants ont été renforcés. En 1938, nouvelle commande de 28 trolleys FN dont dix seront livrés avant la guerre et les suivants seront achevés au dépôt Natalis car la FN était, à l’époque, sous séquestre allemand. Les pièces de rechange, et surtout les pneus, deviennent rares et la circulation des trolleybus se raréfie. Le 25 mai 1944, la ligne est interrompue à cause des dégâts causés par les bombardements.

Du 25 mars 1946 au 26 mai 1955, l’exploitation de la ligne est suspendue à plusieurs reprises par suite d’un glissement de terrain survenu avenue de l’Observatoire. Un terminus provisoire est aménagé près de l’ancien dépôt. Dans les voitures, le chauffage est installé, une place pour le percepteur est prévue, une troisième marche facilite l’accès mais ces trolleybus se révèlent inadaptés à la circulation automobile de l’après-guerre. Ils circuleront jusqu’au 16 septembre 1968 et seront remplacés par les autobus.

d’après Jean-Géry GODEAUX

  • Illustration en tête de l’article : ancien dépôt de Cointe (collection Jean Evrard) © histoiresdeliege.wordpress.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Jean-Géry GODEAUX, organisée en mars 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

DE PIERPONT : Un tunnel pour bateaux sous la crête ardennaise ? L’épopée du canal de Meuse et Moselle (CHiCC,2003)

Temps de lecture : 4 minutes >

Guillaume d’Orange-Nassau a reçu le trône des Pays-Bas, de Belgique et la couronne grand-ducale au Luxembourg, trois territoires qui restent différents et le Grand-Duché a un statut particulier : il fait partie de la confédération germanique. Guillaume Ier s’intéresse au développement de son royaume et participe à la constitution de la Société Générale des Pays-Bas. Elle est au départ caissière de l’état, émet des billets de banque, gère un patrimoine foncier et agricole fort important et soutient l’économie nationale. En bon Hollandais, Guillaume Ier développe notre réseau de canaux. Le Grand-Duché a une surface double de celle actuelle : il englobe notre province de Luxembourg actuelle.

Rémi de Puydt, né juste après la Révolution française, est le fils d’un médecin militaire. En 1813, officier des armées napoléoniennes, il est blessé, puis devient receveur des droits et accises au Luxembourg. Après quatre ans d’études d’ingénieur de génie civil à Paris, il s’installe dans le Hainaut où il réalise le canal du Hainaut. De sa rencontre avec Guillaume Ier naît l’idée du canal de Meuse et Moselle, long de 263 km, destiné à relier Liège à Trèves et de faire sortir le Luxembourg de son isolement économique. Un dénivelé de 379 mètres côté mosan et de 305 mètres côté rhénan entraînerait la construction de 205 écluses. Pour franchir la ligne de partage des eaux entre les deux bassins, Rémi de Puydt a l’idée, non pas de creuser une tranchée qui eut été énorme, mais de forer un tunnel (le mot n’existait pas encore, on parlait de ‘galerie souterraine’) à 60 m sous la crête. Il fallait aussi canaliser les rivières, installer des chemins de halage, modifier certains ponts, prévoir des lacs réservoirs pour régulariser le cours en période d’étiage. Le projet prévoyait aussi neuf autres souterrains plus courts pour recouper des méandres de l’Ourthe.

L’empereur romain Claude au 1er siècle après Jésus-Christ avait déjà eu le projet de raccorder la Meuse au Rhin, en passant au nord de Visé. Au 16e siècle, Philippe II d’Espagne, soucieux de créer une frontière naturelle avec les Pays-Bas protestants, reprit l’idée. Quelques siècles plus tard, Frédéric le Grand, célèbre roi de Prusse, revient au projet sans succès. Napoléon rêve aussi d’un canal qui serait passé plus au nord dans les plaines de Hollande, financé par un impôt sur l’eau-de-vie.

Rémi de Puydt parvint à convaincre une série de financiers à la Société Générale et est soutenu par le roi Guillaume Ier. La Société du Luxembourg créée, elle obtient la concession à perpétuité à condition que les travaux soient finis en cinq ans. Nous sommes en 1827. L’évaluation des travaux monte à 100 000 florins, somme considérable, répartie en 2 000 actions de 5 000 florins que l’on peut payer en cinq tranches. Dans l’ensemble de la Hollande, seulement vingt titres sont vendus ! À Bruxelles, cent titres sont acquis essentiellement par les administrateurs. Au Luxembourg, on en vend sept. Guillaume Ier et sa famille souscrivent 500 actions, espérant relancer l’entreprise, mais sans résultat. Malgré tout, les entrepreneurs décident de commencer les travaux par le percement du tunnel. Le chantier est installé près du village de Tavigny [Houffalize]. On attaque la galerie de 2 728 m par les deux extrémités ; la largeur est de 3,5 m et la hauteur de 5,5 m. Le travail avance d’un mètre par jour. 200 à 300 ouvriers sont sur place, ce qui provoque un grand bouleversement social et un choc culturel dans un monde d’agriculteurs.

A part les travaux du souterrain, peu de choses bougent et les finances sont trop faibles. Les travaux à réaliser tout au long du cours de l’Ourthe sont démesurés. Le délai imparti de cinq ans est trop court. En 1829, de Puydt obtient la collaboration d’artificiers de l’armée. Entretemps, la tension contre les Hollandais monte, l’armée néerlandaise est mise en déroute à Bruxelles et se retire. Le gouvernement provisoire proclame l’indépendance. Au Luxembourg, la moitié des communes a pris parti pour la Belgique, l’autre moitié est restée sous le joug des Hollandais et même des Prussiens car, si le territoire est menacé, en vertu des accords de la Confédération germanique, la Prusse vient à la rescousse. Il faudra attendre neuf ans pour que la situation se clarifie.

Rémi de Puydt a été nommé commandant de la garde civique de Mons, puis lieutenant-colonel, commandant en chef des troupes du génie de la jeune armée belge. Beaucoup d’entrepreneurs partent en exil. On continue à creuser le souterrain mais il n’y a plus de liquidités, plus de poudre, la situation politique est de plus en plus compliquée. Guillaume Ier vient de revendre toutes ses parts de la Société Générale, à la Belgique. En août 1831, le gestionnaire des travaux décide d’interrompre le chantier, de façon provisoire espère-t-il. 1130 mètres ont été creusés. En 1839, le traité des 24 articles scelle la situation du Grand-Duché et le territoire est séparé en deux, en suivant la ligne des crêtes. Cela change tout : une frontière coupe désormais le canal et le projet s’enlise complètement. En 1848, le canal de l’Ourthe refait parler de lui. À Londres, trois hommes d’affaires détiennent toutes les actions de la Société du Luxembourg et ils se disent prêts à reprendre les activités. Le canal se limiterait désormais au tronçon entre Liège et La Roche. Entre 1852 et 1857, les travaux reprennent et ce canal a fonctionné jusqu’au milieu du 20e siècle. Puis c’est le chemin de fer qui a progressivement tué cette activité.

Rémi de Puydt sera nommé ingénieur en chef des Ponts et Chaussées, deviendra député pour l’arrondissement de Mons et, enfin, administrateur de l’établissement belge au Guatemala.

Les terrains expropriés sont revendus progressivement. Actuellement, comme la nature a repris ses droits, l’entrée du tunnel devient de moins en moins visible. La galerie s’est effondrée à près de 400 m, les puits ont été rebouchés, le site, classé, est voué à devenir un refuge pour les chauves-souris.

d’après Géry de Pierpont

  • Illustration en tête de l’article : le tunnel de Bernistap © la-truite.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Géry de Pierpont, organisée en février 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

HALLEUX : L’industrie à Liège du temps de John Cockerill (CHiCC, 2003)

Temps de lecture : 4 minutes >

John Cockerill est un peu l’arbre qui cache la forêt. Il la cache par son génie, par le mythe qui s’est créé autour de son personnage et autour de ses œuvres. Et pourtant, il n’était pas le seul, les vieux ouvriers disaient qu’ils travaillaient “amon Dallemagne“, “amon Michiels” ou “amon Orban” [“chez Orban”] selon qu’on parlait de l’une ou l’autre usine. Il y a tout un monde qu’il faut évoquer. Pourquoi, dans les années 1780-1830, notre région liégeoise est-elle devenue un des pôles du développement industriel européen ? Pourquoi à Liège et pas ailleurs ? Certes, il y avait du minerai de fer, on a recensé 300 anciennes petites mines de fer ; il y avait du charbon, mais il y en avait aussi ailleurs. Il faut chercher la réponse du côté des hommes, de leur savoir, de leurs réactions.

C’est ce monde des années 1780 à 1830 que nous vous invitons à découvrir. Il a donc connu cinq régimes : les derniers princes-évêques, la Révolution française, l’Empire français, le régime hollandais et la Belgique léopoldienne. Il faut pénétrer dans les lieux où se réunit ce monde. Trois grandes sociétés liégeoises sont créées dans les mêmes années : la Loge “La parfaite Intelligence, la société libre d’Emulation et la Société littéraire. Les personnes qui se retrouvent dans ces sociétés sont souvent les mêmes. C’est un univers d’intellectuels, d’aristocrates, de bourgeois qui partagent les mêmes intérêts. Il y a des politiques, des inventeurs, des financiers dont l’idéal est celui des Lumières. C’est à la fois le libre examen et le libre échange. Ils désirent appliquer la méthode scientifique dans tous les domaines, dans les matières de sciences, dans les matières d’éducation, de politique, de religion, d’économie c’est-à-dire qu’ils mettent la science au service de la prospérité publique. Ils veulent introduire toute espèce de nouveau procédé, élever le niveau d’instruction des ouvriers qui sont trop souvent, à ce moment, esclaves de la routine.

Au cours des cinq régimes évoqués ci-dessus, on trouve la même politique d’encouragement et de développement. Velbrück était un ami des encyclopédistes, il était franc-maçon et un des aspects de lui moins connu : ami des arts et des manufactures. Ce concept d’émulation se défini à l’époque comme une honnête rivalité pour l’honneur et pour le bien, une compétition dans le pays pour susciter le plus possible de talents. La société l’Emulation pose des questions : comment prémunir les mineurs contre les accidents, trop fréquents ; comment perfectionner les moyens de pompage dans les mines ; comment fabriquer du fer avec du charbon de terre alors qu’on utilisait le charbon de bois.

Les élites anglaises et américaines venaient étudier à Liège au collège des jésuites anglais, supprimé en 1773. Velbrück y voit l’occasion de créer un enseignement supérieur de la physique et des mathématiques de très haut niveau, ouvert cette fois aux élites liégeoises et européennes. Il crée en même temps le grand collège installé dans l’université, l’académie et des écoles de mathématiques et de géométrie pour les artisans. Il s’agit de doter Liège d’un enseignement spécialisé à la fois du point de vue technique, du point de vue général et même du point de vue médical et juridique. Ces idées seront reprises après la parenthèse révolutionnaire. Le régime français crée un conseil d’agriculture et des arts et manufactures, équivalent de la chambre de commerce. Il crée aussi une société des sciences physiques et médicales.

Les inventeurs sont trouvés dans le même milieu de la société d’Emulation. Ils se tiennent au courant de l’actualité scientifique. Spa est le rendez-vous de toutes les élites industrielles. Autour de l’analyse des eaux, se développe un milieu scientifique avec deux frères ennemis, les frères de Limbourg : Jean-Philippe et Robert, un chimiste et un géologue. Dans leur fourneau de Juslenville, ils font des recherches pour utiliser le charbon de terre en le transformant en coke. Jean-Jacques-Daniel Dony prend la concession de la Vieille Montagne et cherche comment produire du zinc métallique à partir du minerai. Les frères Poncelet de Sedan s’intéressent à la cémentation du fer pour faire de l’acier. Jean Gossuin les invite à Liège où ils entrent en contact avec un chimiste pour expérimenter les céments afin de fabriquer des limes. Ils trouvent un client important : la fonderie de canons créée par les préfets en 1803. Napoléon a, en effet, voulu redonner à Liège sa vocation de grande cité armurière en créant la fonderie de canons. Il y a donc eu interaction entre des savants et des chercheurs. La société d’encouragement de Paris couronnera deux liégeois en 1810 : Cockerill pour ses machines à tisser et à filer, et les frères Poncelet pour leur fabrication de limes en acier. Ils vont ensuite arriver à pouvoir fondre l’acier dans leurs creusets et fabriquer de l’acier coulé. Nous sommes dans un monde d’inventeurs doublés de bons investisseurs et de bons financiers.

Voici maintenant le monde des financiers. John Cockerill est le plus mauvais exemple car c’est un génie de la mécanique qui croit que ses machines sont tellement bonnes qu’il pourra toujours en vendre ! Les Orban sont des petits commerçants qui construisent un haut fourneau, produisent des tôles, fabriquent des bateaux en fer. Les Lamarche démarrent par la mécanique et s’associent avec un constructeur britannique pour construire des machines à vapeur. Pour celles-ci, il faut du fer et ils vont acheter des hauts fourneaux, des charbonnages, des fours à coke. Il sont aussi liés à la politique car une des filles Orban a épousé un avocat du nom de Frère qui deviendra l’illustre Frère-Orban.

Le milieu des travailleurs qui possèdent le savoir-faire et qui ont su s’adapter aux techniques nouvelles joue aussi un rôle important. Les Liégeois ont été forts dans la construction des machines à vapeur parce qu’ils étaient spécialisés dans l’industrie armurière. Puisqu’ils savaient forer et polir des canons de fusils, ils pouvaient faire de même pour les cylindres de machine à vapeur.

Le grand développement liégeois résulte d’un milieu complexe qui interagit. Le capital des uns, le savoir-faire traditionnel des autres, l’innovation technologique des savants, l’appui des politiques, constituent la recette de cette première réussite.

d’après Robert HALLEUX

  • Illustration en tête de l’article : John Cockerill à la Maison de la Métallurgie et de l’Industrie à Liège © cyberliegemagazine.com

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Robert HALLEUX, organisée en janvier 2003 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

HALLEUX : La seconde révolution industrielle dans le bassin liégeois 1860-1917 (CHiCC, 2002)

Temps de lecture : 4 minutes >

Le concept de révolution industrielle a été créé au moment de la révolution de 1830 par un littérateur qui remarquait un parallèle entre les événements politiques, c’est-à-dire l’indépendance belge et les grands changements que l’on voyait dans l’industrie. On percevait l’aurore de temps nouveaux, comme l’a écrit un poète : “Oui, l’industrie est noble et sainte, son règne est le règne de Dieu.” Une révolution industrielle, c’est un changement de système technique, c’est-à-dire un ensemble constitué par des matériaux et des méthodes de transformation, et des énergies.

Pendant le moyen-âge nous avons vécu sur un matériau qui était le fer produit avec du charbon de bois et l’énergie hydraulique. Au début du 19e siècle, l’énergie hydraulique atteint ses limites et les forêts se déboisent terriblement. C’est à cette époque que s’introduit, à Liège d’abord, un nouveau système technique. Au charbon de bois, on substitue le coke, du charbon de terre que l’on a cuit pour le débarrasser des matières volatiles. Les premières machines à vapeur créées en Angleterre s’introduisent aussi chez nous. Pourquoi à Liège ? Parce qu’il y avait de la houille et du minerai facile à extraire. Mais surtout une conjonction entre, d’une part un savoir-faire traditionnel et, d’autre part, un dynamisme de la bourgeoisie et d’une aristocratie investisseuse.

Le peintre Léonard Defrance affectionne les représentations des usines, des manufactures et des charbonnages. Le commanditaire de ces tableaux se fait représenter dans son usine avec ses ouvriers et souvent avec un vieillard pensif qui personnifie le passé et un petit enfant qui personnifie l’avenir, Jean-Jacques Daniel Dony invente un procédé de fabrication du zinc, son usine sera reprise par Mosselman qui va fonder la Vieille-Montagne. Nous trouvons un certain nombre d’hommes nouveaux qui ne sont pas des techniciens : les Orban qui sont des merciers, les Lamarche qui sont des marchands de tabac et de denrées coloniales, les Michiels, les Dallemagne, les Beer. Tous ces gens débutent en achetant un fourneau ou un charbonnage. Ils essaient de créer une usine intégrée où on commence par les matériaux extraits du sol, et où on va jusqu’à la fabrication des machines. C’est l’origine des sociétés comme la Société de Sclessin, la Société d’Angleur, la Société de Grivegnée, les deux fabriques d’Ougrée qui vont donner Ougrée-Marihaye et la Société d’Espérance. Ce sont des entreprises familiales montées par des hommes de négoce qui s’approprient les nouvelles techniques. Ils font venir des techniciens anglais qui construisent les nouveaux outils. Le haut-fourneau liégeois conçu pour le charbon de bois ne convient plus pour le coke. Mais très vite, les Anglais seront dépassés par les techniciens locaux.

John Cockerill n’a pas fait d’études. C’est essentiellement un ouvrier formé par son père avec un prodigieux génie entreprenant qui commence par construire des machines à filer et à tisser. De là, il découvre l’opportunité des machines à vapeur puis, partant d’un atelier de construction de ces machines, il construit un haut-fourneau, des fours à coke, achète des houillères et des mines de fer. Il inonde l’Europe de ses produits. C’est un vrai génie mais un piètre gestionnaire. Il connaîtra des revers et ainsi mourra d’une manière triste et mystérieuse en Russie en essayant de rétablir ses affaires.

Certes, ces hommes ont un certain savoir. Aujourd’hui, les ingénieurs ont étudié à l’université. À cette époque, ce sont généralement des ouvriers formés sur le tas qui ont suivi des cours de dessin industriel et qui viennent de toute l’Europe. L’Université de Liège a été fondée en 1817 en même temps que l’usine Cockerill et a eu des écoles spéciales des mines et des arts et manufactures. A cette époque les ingénieurs ne vont pas dans l’industrie, ils font carrière dans les grands corps de l’État : ponts et chaussées, corps des mines, et plus tard au chemin de fer. Les industriels se fient plutôt à leur chef fondeur, leur chef puddleur, leur chef mécanicien qui tous ont de l’or dans les mains.

Le paysage est encore très rural. Petit à petit, les usines s’entourent de maisons, de corons. Par cette imbrication entre les zones d’habitats, nos usines vont se trouver à l’étroit et cela va les handicaper par la suite.

Un système technique est condamné à saturer. Vers 1860, le fer ne répond plus à certaines contraintes notamment pour faire des rails. L’acier apparaît alors. De nouvelles énergies apparaissent. L’électricité, la dynamo inventée par Zénobe Gramme, les moteurs à combustion interne : à gaz inventé par Lenoir. Ensuite à essence, puis le moteur diesel. Ces moteurs légers et plus puissants vont s’imposer sur la route puis dans l’air. L’école industrielle de Liège, créée à l’initiative de la Société libre d’Émulation, date de 1826. Quant à l’école industrielle de Seraing, elle est créée à l’initiative du docteur Kuborn et a le souci d’actualiser sans arrêt ses cours pour suivre le progrès scientifique. Désormais, il faudra de plus en plus de science et une nouvelle génération d’ingénieurs, sortis de l’université et de l’Institut Montéfiore. Ils vont entrer dans l’industrie, ils vont se frayer un chemin jusqu’au conseil d’administration et ils vont souvent s’allier aux filles des grandes dynasties industrielles.

Le minerai de fer de notre bassin ne convient plus pour l’acier et celui de la Lorraine prend le relais. Il faut des capitaux importants pour adapter les usines et les premières fusions ont lieu. Les rapports sociaux changent vers 1886 avec la crise et les luttes ouvrières. Entre 1914 et 1918, toutes les industries liégeoises ont été démantelées par l’occupant dans le but de détruire un concurrent commercial. Paradoxalement, ces destructions ont été une chance car avec le dynamisme qui nous caractérisait et qui caractérisait nos industriels, très vite, ils vont rebâtir avec du matériel ultramoderne.

La situation fut différente en 1945 car les besoins étaient énormes et nos usines ont tourné à plein rendement pendant quelques années. Seulement, l’outil n’a pas été modernisé assez vite et est devenu obsolète.

d’après Robert HALLEUX

  • Illustration en tête de l’article : Léonard Defrance, “Intérieur de fonderie” © Walker Art Gallery

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Robert HALLEUX, organisée en mai 2002 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

Téléphone, mail, notifications… : comment le cerveau réagit-il aux distractions numériques ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 17 avril 2024] Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours.

En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

Pourquoi s’inquiéter des interruptions numériques ?

L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).

Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Mieux comprendre d’où vient le coût cognitif des interruptions numériques

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est motivée par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Notre attention est attirée par les informations simples et attendues

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Les événements imprévus provoquent une rupture de fluence

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions numériques perturbent notre système prédictif

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Des stratégies vers une vie numérique plus saine

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode focus de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Sibylle Turo, chercheuse


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © fr.vecteezy.com.


Plus de presse en Wallonie…

Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 8 juillet 2024] Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les ‘deepfakes’, ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu. Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul deepfake peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un ‘délit de deepfake‘ capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !

Divina Frau-Meigs


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © France 24 ; © Brut.


Plus de presse en Wallonie…

DUMEZIL : Le calendrier était un outil de pouvoir

Temps de lecture : 6 minutes >

[LIBERATION.FR, 29 décembre 2017] Le médiéviste, maître de conférences à l’université de Paris-Nanterre, analyse la lente évolution du découpage des mois et des années en Occident, savant mélange de cultures romaine et catholique.

Caler le rythme de nos jours sur celui des planètes : c’est l’utilité première de notre calendrier. Avec ses 365 jours et ses années bissextiles, il permet de respecter scrupuleusement le temps que met la Terre à tourner autour du Soleil. Transposition de la mécanique des planètes, le calendrier transcrit aussi une partie de notre héritage culturel. Les noms des mois et des jours font écho à l’empire romain, qui célébrait Mars le mardi, Jupiter le jeudi, Jules César en juillet et Auguste en août. Les saints qui patronnent chaque journée, la numérotation des années après Jésus-Christ, ou encore le dimanche chômé sont, quant à eux, les marques d’une appropriation chrétienne.

Si c’est bien le cours des planètes qui règle nos jours et nos nuits, la façon de mesurer le temps est loin d’être immuable. L’historien Bruno DUMEZIL, maître de conférences à l’université Paris-Nanterre, explique comment notre calendrier a pris forme au milieu de mille façons de voir passer le temps.

Notre calendrier est-il vraiment né dans l’Antiquité romaine ?

Beaucoup de choses ont été fixées à cette époque, à tel point que l’on pourrait dire qu’en termes de civilisation, nous sommes encore dans l’Empire romain. Pour être plus précis, notre calendrier est gréco-romain : lorsqu’il a instauré le calendrier julien en 48 avant Jésus-Christ, Jules César a fait appel à des savants d’Alexandrie, issus du monde grec. Le calendrier romain s’est donc inspiré de son ancêtre grec, qui utilisait lui-même des méthodes de calcul égyptiennes.

Les modifications de César ont un intérêt scientifique : en instaurant une année de 365 jours au lieu de 355, et en prévoyant une année bissextile tous les quatre ans, son calendrier se rapproche des 365,25 jours que met la Terre à tourner autour du Soleil. Mais c’est aussi une réforme politique qui lui permet de fixer les jours fériés. Cela avait pour effet d’interrompre les procès et de retarder le début des procédures administratives ou des batailles. C’était un outil de pouvoir.

César invente donc le calendrier politique ?

Non, il existait avant ! Dans la Guerre du Péloponnèse, l’historien Thucydide explique qu’il ne pourra dater les événements relatés qu’en fonction des saisons, chaque cité combattante ayant voulu garder son propre calendrier pour marquer l’opposition avec ses rivales. Cette logique se poursuit à travers le temps : plus tard, au VIe siècle, le roi des Ostrogoths tente de faire adopter son calendrier au roi des Burgondes en lui offrant une horloge.

Il faut donc imaginer qu’à l’ombre du calendrier julien, la fin de l’Antiquité et le début du Moyen Age sont marqués par une diversité de calendriers

Plusieurs calendriers cohabitent, et cela est parfois difficile à gérer. Dans une même ville, la cathédrale et le pouvoir politique n’ont pas le même calendrier. Le rythme du temps varie aussi en fonction des métiers. C’est le cas des métiers judiciaires : les tribunaux ferment pendant les moissons, les vendanges, ou les anniversaires des membres de la famille impériale. Du point de vue religieux, les calendriers chrétien et judaïque cohabitent. Mais, au sein même des communautés chrétiennes, les temps forts de l’année varient en fonction des saints que l’on célèbre. Enfin, n’oublions pas les calendriers agricoles, qui rythment l’année en fonction des saisons et des travaux des champs, et qui ont leurs propres fêtes comme celles de la Saint-Jean.

Face à tout cela, à Rome, l’empereur fait preuve d’un grand pragmatisme. Ainsi, il tolère que les Juifs ne comparaissent pas au tribunal les jours de shabbat. De même, les fêtes païennes sont tolérées. Mais c’est l’intérêt économique qui prime : si des intempéries mettent les moissons en péril, toutes les fêtes sont suspendues pour sauver les récoltes.

Au milieu de tous ces calendriers, c’est donc surtout le catholicisme qui impose ses repères temporels en s’appropriant le calendrier julien. Comment s’enclenche cette évolution ?

Cela commence avec l’empereur Constantin (310-337). Premier à se convertir au catholicisme, il entraîne la cohabitation des temps romain et chrétien dans le calendrier. Au IVe siècle, les empereurs reconnaissent les jours de fête chrétiens et les intègrent au calendrier. L’enjeu était notamment de placer le jour de repos hebdomadaire : cela devait-il être le jeudi, jour de Jupiter, ou le dimanche, jour du Christ ? Rapidement, le dimanche l’emporte dans la loi romaine, mais il faut attendre que l’un des arrière-petits-fils de Clovis impose le changement en 595 pour qu’il s’applique vraiment.

Rome essaie aussi d’imposer son mode de calcul de la date de Pâques, ce qui est difficile car il s’agit d’un événement du calendrier lunaire à intégrer au calendrier solaire. De plus, les contraintes sont nombreuses : elle doit avoir lieu un dimanche, à une période où les jours rallongent, et pas le même jour que la pâque juive. Outre la rivalité avec le calendrier judaïque, il s’agit pour Rome d’imposer son autorité dans le monde chrétien. L’Irlande, convertie au Ve siècle, parvient à conserver un mode de calcul différent jusqu’en 664. Cependant, certains particularismes perdurent. Dans la péninsule Ibérique, le royaume suève de Galice refuse les noms des jours du calendrier chrétien, puisqu’ils font référence à des dieux païens : mardi est le jour de Mars, mercredi celui de Mercure… On décide de numéroter les jours, ce qui explique leur dénomination actuelle en portugais : segunda-feira (lundi), terça-feira (mardi), etc.

Le choix de faire débuter la numérotation des années avec ‘l’incarnation’ (la naissance de Jésus-Christ) est-il aussi le fruit de longues négociations ?

L’idée apparaît chez un clerc grec du VIe siècle, mais il faut attendre le siècle suivant pour qu’un grand historien du monde anglo-saxon, Bède le Vénérable, l’impose en datant tous les événements qu’il relate selon ce principe. Auparavant, la date de la création du monde (début du calendrier juif) a pu être utilisée par les chrétiens. Mais cette date étant très lointaine, elle multiplie les risques d’erreurs de calcul. Au VIe siècle, Grégoire de Tours l’a utilisée pour relater l’histoire de Clovis : certains épisodes de la vie de ce roi sont donc un peu incertains.

Les systèmes de comptage des années sont donc multiples, et les auteurs de l’époque privilégient une datation relative, en prenant pour point de départ l’entrée en fonction d’un empereur, d’un roi ou d’un abbé. Un même document est daté selon plusieurs personnages, au risque de l’erreur : le moine qui chronique la fondation de l’abbaye de Cluny se trompe dans l’une des deux dates qu’il indique. On ignore donc si cette grande abbaye fut fondée en 909 ou en 910.

Le 1er janvier n’est pas un événement religieux. Pourquoi cette date s’est-elle imposée ?

Dans l’Empire romain, ce jour marquait la prise de fonction des consuls et la fête du dieu Janus, où il était d’usage de s’offrir des cadeaux. Au début du Moyen Age, plusieurs évêques expliquent dans leurs sermons qu’il s’agit de rites païens : or, si les gens s’offrent bel et bien des étrennes, la fête a probablement perdu son sens religieux. Certains proposent de changer d’année à Pâques, mais c’est finalement le premier janvier qui reste la date de référence.

Les ruptures au sein du catholicisme – les schismes orthodoxe et protestant – sont-ils importantes pour comprendre la diversité des calendriers ?

La réforme grégorienne du Xe siècle, puis la prise de Constantinople, capitale de l’Empire romain d’Orient, par les Croisés en 1204 entraînent une rupture : les orthodoxes refusent dès lors toute décision venue de Rome. En 1582, ils n’adopteront donc pas le calendrier grégorien mis en place par le pape Grégoire XIII, d’où le décalage des calendriers. De même, lors de la réforme protestante, les luthériens refusent le calendrier grégorien pour marquer leur opposition à Rome. Mais cela n’est que temporaire. Pourtant, ce changement a aussi des fondements scientifiques : le calendrier julien partait du principe que la Terre tourne autour du Soleil en 365,25 jours, alors que ce temps est plus long de quelques minutes. Au fil des années, cela avait créé un décalage de dix jours excédentaires. Grégoire XIII les a donc supprimés en octobre 1582, et il a revu le système des années bissextiles pour éviter que ce décalage se reproduise.

Comment expliquer que notre calendrier grégorien se soit diffusé dans le monde entier ?

Parmi les facteurs d’explication, on peut citer le concile de Trente (1545-1563) qui visait à unifier les pratiques chez les catholiques dans un contexte de guerre de religion, ou la colonisation. Cette diffusion se fait aussi en Europe même : jusqu’au XIXe siècle, les habitants vivaient dans un univers local, sur une trentaine de kilomètres autour de chez eux, où les particularismes locaux du calendrier avaient du sens. Mais à cette période, le monde s’étend et fait naître le besoin d’un temps absolu. Et puis, n’oublions pas l’argument scientifique : ce calendrier est celui qui suit au mieux l’année solaire. C’est sans doute la raison principale.

L’hégémonie de ce calendrier a le mérite de simplifier la datation des événements. Est-ce une facilité pour les historiens ?

Aujourd’hui, l’histoire s’exerce de moins en moins à travers la fascination de la date exacte, comme lorsque nous apprenions que Charles Martel a arrêté les Arabes à Poitiers en 732… ce qui n’est pas si sûr. L’importance est plutôt de situer les événements les uns par rapport aux autres, ce qui donne du sens à la logique de datation relative du Moyen Age. Cela permet à l’historien de mieux saisir le temps vécu par les personnes de l’époque : l’an mil n’avait pas beaucoup de sens, car peu de gens savaient que l’on changeait de millénaire ! En revanche, se trouver dans la quatrième année de tel règne avait une signification. Ainsi, plutôt que de dire que nous passons à 2018, il peut être plus intéressant de penser que nous sommes “dans la première année du règne de Macron.

Une interview de Thibaut Sardier, liberation.fr


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : d’après liberation.fr | contributeur : Patrick Thonart | crédits illustrations : en-tête, calendrier des travaux agricoles correspondant aux 12 mois de l’année (vers 1400).


Plus de presse en Wallonie…

Et si les réseaux sociaux devenaient une chance pour nos démocraties ?

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 11 janvier 2024] Alors que le président libertarien Javier Milei, récemment élu en Argentine, a largement profité des réseaux sociaux lors de sa campagne présidentielle, notamment pour séduire les plus jeunes générations, d’autres personnalités politiques envisagent au contraire de quitter ces mêmes réseaux. En France, c’est la maire de Paris, Anne Hidalgo, qui a initié ce mouvement, déclarant en novembre dernier que X (ex-Twitter) constituait “une arme de destruction massive de nos démocraties.” Force est de constater que depuis de nombreuses années, les réseaux sociaux dominants, dont le modèle d’affaires repose sur l’économie de l’attention favorise structurellement le clash et la polarisation des opinions.

Selon ce modèle économique, il s’agit de “maximiser l’engagement” des utilisateurs afin de vendre leur “temps de cerveau” et leurs données personnelles à des entreprises susceptibles de les cibler avec leurs publicités. Dès lors, tout ce qui compte pour gagner en visibilité sur ce type de réseau, est de trouver la ligne de fracture – chez chaque utilisateur ou dans la société – et d’enfoncer le coin, afin d’obtenir plus de clics et plus de vues, alimentant ainsi le “business de la haine” des géants du numérique, qui tirent profit de cette cacophonie.

Le résultat, tel que décrypté par l’écrivain et politologue italien Giuliano da Empoli, est le suivant : tandis qu’hier la politique était “centripète” – il fallait rallier autour d’un point d’équilibre –, elle est devenue aujourd’hui centrifuge. L’expression d’”ingénieurs du chaos” trouve alors tout son sens : pour conquérir le pouvoir, la politique consiste désormais à exploiter au mieux les dynamiques d’infrastructures, ici de communication, pour éclater la société en tous points.

Faire évoluer le modèle économique et l’architecture des réseaux sociaux

Comment changer la donne ? Il parait difficile d’imaginer l’ensemble des démocrates pratiquer la politique de la terre brûlée et quitter les réseaux sociaux dominants tant que l’espoir est encore à leur régulation. De même, nous ne pouvons uniquement nous en remettre à la bonne volonté de quelques autres réseaux dominants faisant pour l’instant office de refuge, tant que leur modèle demeure fondé sur la captation de l’attention.

Si nous devons poursuivre nos efforts pour “trouver des réponses politiques à la colère”, nous ne pouvons pas non plus nous aveugler sur les velléités autoritaires ou nationalistes exploitant les failles des réseaux sociaux les plus utilisés. Néanmoins, nous pouvons les priver de l’infrastructure qui les fait émerger comme forces politiques de premier plan partout dans le monde. Pour cela, nous devons faire évoluer le modèle économique et l’architecture des réseaux sociaux. Car il faut bien se rendre compte, dans la lignée de la pensée du professeur de droit Lawrence Lessig, que l’architecture numérique est normative : de même que l’architecture de nos rues détermine nos comportements, l’architecture des réseaux sociaux détermine la façon dont nous nous y exprimons et dont nous y interagissons.

© Générationlibre

De manière générale et par définition, le principe des “followers”, qui consiste à suivre des personnalités en particulier, ne favorise pas l’expression de points de vue diversifiés, mais plutôt les comportements mimétiques, la concurrence, la rivalité et in fine la dévalorisation de soi comme des autres.

Plus spécifiquement, X/Twitter et Thread sont construits pour faire se rencontrer absolument tous les sujets, points de vue et personnes d’opinions très diverses sur un flux unique et assurer des interactions directes au vu et au su de tous.

Autre architecture, autre ambiance, il en va autrement si l’on se rassemble autour d’un sujet, que ce soit pour en débattre ou seulement pour échanger. Sans qu’ils soient exempts de très nombreux défauts, TrustCafé, Reddit, Twitch, Discord donnent l’opportunité de créer des salons de discussion thématiques ou de regrouper des communautés en un espace et in fine d’avoir un débat plus approfondi. Mastodon repose quant à lui sur une structure décentralisée, c’est-à-dire que “chaque serveur Mastodon est totalement indépendant, mais capable d’interagir avec les autres pour former un réseau social mondial.” Cela permet d’éviter de cultiver l’animosité sociale. Des communautés irréconciliables n’ont pas à se côtoyer, ce qui permet d’éviter de propager le conflit de manière inopportune.

Reprendre la main sur les algorithmes

C’est pour orienter les réseaux sociaux vers des architectures permettant de créer des espaces de débat, d’apprentissage, d’échanges et de coopération que nous devons agir en premier lieu, avant même de nous intéresser à la modération des contenus qui y circulent. Le règlement européen sur les services numériques le permet en théorie, mais il faudra que la Commission européenne se mobilise en ce sens. Ce qui n’est pas le cas aujourd’hui. Jusqu’à présent, le débat a bien plus porté sur le nombre de modérateurs de tel ou tel réseau ou le nombre de contenus retirés que sur la structure des réseaux sociaux en elle-même. Ce qui risque surtout de nous épuiser pour un résultat très relatif.

Pour nous assurer que les réseaux servent une société démocratique où le débat, la construction collective et l’écoute sont privilégiés, nous devrions nous préoccuper de la manière dont les infrastructures numériques sont conçues, développées et financées. Comme les réseaux sociaux dominants sont structurellement fondés sur l’économie de l’attention, l’enfermement de leurs utilisateurs et l’amplification des contenus polémiques et choquants, nous devrions aussi décider de ne plus laisser aux mains du seul réseau social, c’est-à-dire d’une entreprise privée, le monopole de déterminer le flux algorithmique, soit le choix des contenus apparaissant sur nos fils d’actualités.

Une telle proposition est une exigence minimale pour tendre vers une plus grande réappropriation des réseaux sociaux par les utilisateurs. Elle a d’ailleurs déjà été faite sous diverses formes, que ce soit par des spécialistes du numérique, la Commission nationale consultative des droits de l’homme (CNCDH), des journalistes ou des chercheurs. Ainsi, il s’agit non plus seulement de forcer la plate-forme à accentuer tel ou tel paramètre de leur algorithme mais de contester le fait que la recommandation soit le seul fait de la plate-forme.

Pour justifier ce principe, nous pouvons nous demander si une fois une taille critique et une certaine concentration du marché atteintes, il est bien légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé dans l’espace médiatique numérique. Quand bien même certains d’entre nous souhaiteraient s’abandonner aux algorithmes de TikTok ou de Twitter, pourquoi tout un chacun devrait-il s’y plier ? Est-ce à un acteur unique de déterminer les critères en fonction desquels les contenus apparaissent ou disparaissent de nos écrans ?

Reconnaître les réseaux sociaux comme des espaces publics

La chose doit encore être affirmée : oui les réseaux sociaux dominants sont des espaces publics. Ce ne sont plus seulement des cafés que l’on est libre ou non de fréquenter. L’analogie ne fonctionne plus. Ils ont un impact structurant sur nos sociétés, que l’on y soit ou non.

2011 : les “printemps arabes” © Maxime Johnson

De plus, si tout le monde peut virtuellement s’exprimer sur les réseaux, ceux qui auront le plus de vues sont ceux qui joueront les codes du réseau et sponsoriseront leurs comptes ou publications. Ce qui laisse sur le bas-côté ceux qui ne peuvent pas ou refusent de jouer à ce jeu malsain de la mésestime de soi, des autres et du clash constant.

La prétendue liberté d’expression masque le sévère contrôle qui s’exerce sur la recommandation et la hiérarchie qu’elle recèle : l’apparence d’horizontalité (celle de tous les usagers exprimant leurs opinions ou leurs avis publiquement) masque une extrême verticalité (celle des entreprises décidant des critères de ce qui sera vu ou non).

Pour restaurer les libertés d’expression et de pensée, il nous faut donc décorréler l’intérêt du réseau social à voir promu tel ou tel contenu et l’intérêt social ou personnel à s’informer ou échanger sur tel ou tel sujet.

Œuvrer pour des infrastructures numériques démocratiques

Cela n’est désormais plus une seule affaire d’imagination ou de prospective. Regardons Bluesky (le réseau social alternatif créé par Jack Dorsey, l’un des fondateurs de Twitter) ou Mastodon : les flux algorithmiques y sont à la main des utilisateurs.

Sur Bluesky, les utilisateurs les plus chevronnés, des médias ou autres tiers de confiance peuvent proposer à l’ensemble des utilisateurs des algorithmes de leur cru. Et le choix est particulièrement simple à opérer pour un effet immédiat. Sur Mastodon, le classement chronologique reste la clef d’entrée vers les contenus publiés, mais le principe même du logiciel libre permet à l’administrateur comme à l’utilisateur de développer les fonctionnalités de curation de contenus qu’il souhaite. Cela ne veut pas dire que tout le monde doit savoir coder, mais que nous pouvons avoir le choix entre de nombreux algorithmes, paramètres ou critères de recommandations qui ne sont pas seulement le fait de la plate-forme.

Regardons aussi des projets comme Tournesol : cette plate-forme de recommandation collaborative de contenus permet à de nombreux citoyens de participer en évaluant les contenus en fonction de leur utilité publique (et non en fonction d’intérêts privés ou d’agendas politiques déterminés). Grâce à de telles initiatives, il devient possible de découvrir des vidéos pertinentes et pédagogiques que des réseaux sociaux dominants ou une plate-forme comme YouTube n’auraient probablement pas recommandées.

Toutes ces initiatives nous montrent qu’il est possible d’œuvrer pour des infrastructures numériques démocratiques. Nous ne sommes qu’à un pas politique de les valoriser. Et entendons-nous bien, l’objectif n’est pas de nous anesthésier en empêchant le désaccord. Bien au contraire ! Le but est de vivifier la démocratie et renforcer l’intelligence collective en exploitant tout le potentiel des réseaux sociaux.

Anne Alombert & Jean Cattan


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Mauco Enterprises ; © Générationlibre ; © Maxime Johnson.


Plus de presse en Wallonie…

HUNYADI : Faire confiance à la confiance (2023)

Temps de lecture : 11 minutes >

Il est de certains livres comme des petits vieux sur les bancs : on peut passer à côté en les remarquant à peine, pressé que l’on est d’aller, soi-disant, quelque part. Mais celui qui prend la peine de s’asseoir un instant et d’écouter la conversation, voire de s’y mêler, va peut-être se relever avec des trésors d’humanité dans les oreilles et… matière à méditer sur ce que signifie effectivement “aller quelque part.

EAN 9782749275840

Faire confiance à la confiance, le livre de Mark Hunyadi paru en 2023, fait cet effet-là. Au fil d’une petite centaine de pages, le philosophe louvaniste replace la confiance au cœur de la réflexion sur l’homme et sa société : le résultat est inédit et fondateur. En passant, il rend au péril numérique sa juste place, ce qui ne va pas faire plaisir aux complotistes de tout poil. A lire d’urgence !

Ce que j’ai d’ailleurs fait, au point d’intégrer l’approche de Hunyadi au cœur de ma réflexion sur comment “être à sa place” (l’ouvrage prévu a été rebaptisé, après que la philosophe française Claire Marin ait choisi ce titre pour son dernier livre). Vous retrouverez donc la confiance comme principe directeur dans les pages du livre que j’écris en ligne : Raison garder. Petit manuel de survie des vivants dans un monde idéalisé. Et, en attendant la publication dudit ouvrage, foncez chez votre libraire indépendant ou lisez la conclusion de Faire confiance à la confiance ci-dessous : nous n’avons pas résisté à l’envie de la reproduire intégralement… avec une mise en édition qui, l’espérons-nous, en facilite la compréhension.

Patrick Thonart


Conclusion : préserver la vie de l’esprit

Mark Hunyadi © out.be

Étant fondamentalement rapport au monde, la confiance est ce dans quoi nous séjournons. Mais le concubinage forcé avec le numérique modifie notre habitat : plus sûr, plus fonctionnel, il est aussi à même de satisfaire plus rapidement une gamme plus étendue de désirs, pour le plus grand contentement de ses utilisateurs. Il est donc aussi libidinalement plus satisfaisant, ce qui lui confère une force irrésistible.

J’ai essayé de montrer que ce taux accru de satisfaction allait de pair avec une baisse tendancielle du taux de confiance – au sens où on en avait de moins en moins besoin-, puisque le principe même de cette modification de notre manière d’habiter le monde est la prise en charge de nos désirs et volontés par des processus automatisés capables de les exécuter dans les conditions techniques les plus optimales. Du coup, la sécurité technique se substitue à la confiance naturelle dans le processus de réalisation de nos désirs.

Cela nous rive tous de manière inédite au système. Si la satisfaction de nos désirs devient, grâce au numérique, automatique ou quasi automatique, toute résistance se trouve abolie. Des processus machiniques prennent le relais et assurent l’exécution automatique du désir, rivant l’individu à la puissance sans limites de ce système libidinal. Le numérique, par le confort réel qu’il procure, affaiblit les énergies individuelles potentiellement en révolte contre la réalité en place, alimente donc la conservation du système en dédommageant chacun par un confort accru, érodant par là même les énergies antagonistes. De ce monde, le sens de la transcendance se trouve lui-même exilé, car plus les satisfactions sont immédiates, plus l’aspiration à un monde autre s’ éloigne.

Politiquement, les conséquences de cette évolution sont délétères pour la démocratie. Le problème ne tient pas aux institutions elles-mêmes, et on a envie de dire : hélas. Car le mal est plus profond, plus insidieux que cela. Il touche non pas au fonctionnement des institutions démocratiques (qui, formellement, tiennent le coup), mais, plus fondamentalement, aux valeurs sur lesquelles elles reposent. Au premier rang de celles-ci : la recherche coopérative de la vérité, ou la volonté de trouver un consensus et de s’y tenir. En effet, s’il est bien un acquis fondamental de la modernité démocratique, et ce, en gros, depuis la fin des guerres de religion qui avaient laissé l’Europe exsangue, c’est que les conflits doivent se résoudre symboliquement – c’est-à-dire par la discussion plutôt que par les armes.

Principe exigeant, ‘idéal régulateur’ comme disent les philosophes, mais suffisamment puissant et efficace pour que, par exemple, la construction européenne tout entière s’y adosse. Il est en outre éminemment générateur de confiance, car il permet aux citoyens de s’attendre légitimement à ce que les affaires publiques soient gérées dans le meilleur intérêt de tous.

Seulement voilà : la résolution symbolique des conflits suppose d’être d’accord de s’accorder, c’est-à-dire de coopérer à la recherche de la vérité, avec un petit v. Or, s’est progressivement imposée sous nos yeux, à bas bruit, une conviction d’une tout autre nature, selon laquelle ce qui compte, ce n’est plus tant la recherche de la vérité que l’affirmation de soi. L’identité plutôt que la vérité. Crier haut et fort ce que l’on est, clamer ce que l’on veut, penser ce qu’on pense et le faire savoir, voilà la grande affaire. Polarisation entre communautés irréductibles, fragmentation des revendications, populismes et fake news s’alimentent à ce même primat de l’identité sur la vérité : ne compte que ce qui me renforce dans mes convictions.

Ce qui, au-delà de routes leurs différences, réunit ces symptômes politiques, c’est précisément cette attitude de brutale affirmation de soi qui refuse route transcendance à soi-même : je veux ou je désire quelque chose parce que je suis ce que je suis, point barre. On retrouve ici le traitement naturaliste du désir dont il était question plus haut, mais à l’égard de soi-même : j’adhère à une info non en fonction de sa vérité présumée, mais parce qu’elle me plaît et flatte ce que je pense, sucre pour mon cerveau.

Il n’est pas question de former, de réinterpréter, de réévaluer mes aspirations spontanées en fonction de celles d’autrui, ou en regard d’un intérêt ou d’une valeur supérieurs. Chacun considère son désir ou sa volonté comme un fait brut qui cherche sa satisfaction comme la pierre tombe vers le bas. Comme pour les assaillants du Capitole le 6 janvier 2021, le désir doit faire loi.

J’ai essayé de le montrer, le numérique joue un rôle majeur dans ces évolutions. Car il renforce formidablement cette tendance à l’affirmation de soi, qui est aussi une tendance à la satisfaction de soi. Dans ce monde, on a de moins en moins besoin de confiance, donc de relation constructive à autrui. Dans un monde administré par le numérique, la confiance devient inutile, parce que le système tend toujours davantage à sécuriser la réalisation de nos désirs. Il les prend en charge et les exécute à notre meilleure convenance, éliminant au maximum les risques de déception.

De ce point de vue, le numérique se présente comme un immense système de satisfaction, où tout le monde, du cueilleur de champignons à l’athlète de pointe en passant par le diabétique et le chercheur en philosophie, trouve son compte. C’est une réussite diabolique, en ce sens qu’elle enferme tout un chacun dans sa bulle de satisfaction (à l’origine, diable veut dire : qui sépare). Le numérique n’est pas une fenêtre sur le monde, mais monde lui-même, paramétré par d’autres ; un monde au sein duquel, je l’ai dit, l’individu ne fait que répondre à une offre numérique.

Extrapolée à la limite, cette évolution lourde conduit à une forme de fonctionnalisme généralisé: non pas un fonctionnalisme où le système attribue à chacun sa fonction (comme dans la division du travail, où chacun est assigné à une tâche par son n + 1), mais où chacun attend du système qu’il remplisse la fonction qu’il lui attribue. Renversement, au demeurant, typiquement dans la veine de l’individualisme nominaliste : souverain dans sa volonté, l’individu met à son service un système qui l’exécute. Et le système est ainsi fait qu’il en est désormais techniquement capable. Dans ce monde, chacun devient l’administrateur de son propre bien-être, pour sa plus grande satisfaction. L’exécution du désir et de la volonté est automatisée, prise en charge par les algorithmes. Plus besoin de confiance dans ce monde-là ! La confiance y est remplacée par la sécurité. Les relations naturelles de confiance, et leur incertitude constitutive, se trouvent remplacées par des relations techniques, comme on a pu le voir ici à l’exemple du bitcoin.

Cette évolution marque un vrai tournant anthropologique et sociétal. Elle embarque tout sur son passage, y compris, donc, les valeurs qui sous-tendent la démocratie. Car elle renforce immensément chez l’individu la tendance libidinale à la satisfaction de soi, qui dès lors prévaut sur toute autre considération. Et elle renforce au passage son narcissisme cognitif, qui le pousse à préférer sa vérité à la recherche coopérative de celle-ci. L’individu trouve désormais d’autres communautés de confiance, structurées autour des influenceuses et influenceurs, par exemple, des communautés affectives formées de ceux qui pensent et sentent comme lui. Individuel ou collectif, le cockpit numérique n’en est pas moins un puissant isolant.

Nous ne sommes malheureusement, en l’état actuel des choses, pas équipés pour faire face à ces évolutions et adopter les réponses qu’elles réclament. Ni moralement, ni politiquement. Car le seul cadre dont sont dotées les démocraties constitutionnelles modernes, c’est la défense des droits et libertés individuels. Or, l’emprise du numérique comme le changement climatique sont des phénomènes globaux qui nécessitent des réponses globales. L’éthique individualiste libérale, de part en part nominaliste comme je l’ai rappelé, n’est simplement pas taillée à la mesure de ces problèmes. Au contraire, elle les aggrave, animée qu’elle est du seul souci de préserver à chacun sa sphère de liberté d’action, incapable en conséquence d’agir sur les effets cumulés des libertés individuelles agrégées.

En l’occurrence, l’enjeu éthique fondamental de l’emprise numérique n’est pas l’ensemble des risques qu’elle fait courir à nos vies privées ou à la sécurité de nos données. Ce sont là des problèmes certes importants et qu’il faut résoudre, mais le droit allié à la technique s’y emploie déjà ; et bien que difficile, cette tâche n’est pas insurmontable. En revanche, ce que le numérique fait à l’esprit représente un enjeu autrement plus considérable !

Le fonctionnalisme généralisé, l’automatisation de l’exécution des désirs, le renforcement du narcissisme cognitif, l’isolement mental, et tout cela au nom d’une plus grande satisfaction libidinale : voilà qui menace la vie de l’esprit humain bien davantage que les risques juridiques que fait courir aux individus le commerce de leurs données.

Or, cette menace ne peut être appréhendée dans le cadre de l’éthique individualiste – celle des droits de l’homme – dont nous disposons actuellement. Elle n’est simplement pas à la hauteur des enjeux anthropologiques et sociétaux qui se dessinent. Ainsi, l’Union européenne par exemple, qui se considère facilement exemplaire dans le domaine de la régulation du numérique, produit à grande vitesse un nombre considérable de textes législatifs, à commencer par le RGPD (Règlement général sur la protection des données, entré en vigueur en 2018), mais qui tous, sans exception aucune, ne font qu’entériner le système existant, en l’obligeant simplement à se conformer aux exigences des droits fondamentaux des individus. Une telle obligation est importante, certes, et on se désolerait si on ne s’évertuait à l’honorer. Elle est de plus difficile à implémenter dans la réalité, en raison des caractéristiques techniques du fonctionnement numérique, chacun le sait ; tenter de le faire est donc en soi une tâche héroïque.

Il n’empêche que cette approche par ce que j’appelle l’éthique des droits – l’éthique qui se focalise sur les torts faits aux individus – ne peut qu’ignorer les enjeux éthiques fondamentaux qui concernent la vie de l’esprit en général, c’est-à-dire nos rapports au monde, aux idées, à l’imagination. Car la vie de l’esprit pourrait être entièrement prise en charge par des processus automatiques – elle pourrait donc être intégralement automatisée en ce sens -, tout en respectant scrupuleusement les principes fondamentaux de l’éthique des droits. Chacun pourrait se retrouver à gérer son existence dans son cockpit, sans qu’aucune charte éthique ou texte législatif n’y trouve rien à redire. Le respect de l’ éthique des droits est ainsi compatible avec la déshumanisation de la vie de l’esprit.

La défense des droits individuels ne peut donc être le dernier mot de notre rapport au numérique. Sécuriser les transactions numériques, protéger la vie privée, garantir la liberté d’expression et la non-discrimination, tout important que cela soit, passe à côté des véritables enjeux éthiques du numérique, pour lesquels il n’existe pourtant aucun comité d’éthique. Tous sont en effet prisonniers de l’éthique des droits, qui ruisselle des plus hauts textes normatifs (le préambule des Constitutions, ou la Convention européenne des droits de l’homme) jusqu’aux plus infimes règlements internes d’entreprises.

L’impuissance de l’éthique des droits et de la pensée libérale en général rend indispensable une refonte de l’organigramme de nos sociétés démocratiques chancelantes. Je ne reviens pas ici sur la nécessité de créer une institution capable d’organiser l’ agir collectif à la hauteur où agissent actuellement les grandes puissances privées du numérique. C’est là une nécessité en quelque sorte conceptuelle, car aucun agir individuel, même agrégé, ne parviendra à contenir, infléchir ou réorienter ces évolutions massives. Politiquement donc, ce qui est requis, c’est une institution transnationale dont l’horizon normatif ne saurait se limiter à la défense des droits et libertés individuels, pour la raison simple que l’ensemble des phénomènes que j’ai décrits pourrait se dérouler dans le respect intégral des principes de l’éthique des droits. Ces phénomènes sont plutôt à comprendre comme l’effet systémique engendré par l’éthique des droits elle-même, qui laisse tout faire pour peu qu’il ne soit pas fait de tort aux individus en particulier. D’où la nécessité d’une institution qui secondarise l’éthique des droits, pour permettre de penser à l’horizon global du type d’humanité et de société (donc de vie de l’ esprit) que nous souhaitons. Seule une telle institution réflexive peut nous sortir de l’impuissance dans laquelle nous enferme la petite éthique des droits.

Mais une telle institution serait elle-même impossible si elle ne pouvait pas puiser dans les ressources des acteurs eux-mêmes. Cette institution doit apparaître normativement désirable à leurs yeux. Pour qu’une institution ne flotte pas dans le vide éthéré de ses principes abstraits, elle doit pouvoir s’ancrer dans le sens que les acteurs sont capables de conférer à leur propre expérience.

Ce sont ces ressources de pensée négative dont s’alimente la vie de l’esprit que le système érode jour après jour en s’adressant méthodiquement à ses utilisateurs comme à des êtres libidinaux ; il s’adresse à eux non comme à des êtres rationnels capables de pensée et de jugement, mais comme à des êtres cherchant la satisfaction automatique de leurs désirs et volontés. J’ai évoqué comment cette tendance actuellement à l’œuvre s’inscrivait dans le cadre général d’une substitution de relations techniques aux relations naturelles avec le monde, et ses conséquences de longue portée.

Mais une tendance n’est qu’une tendance, précisément, et elle laisse encore la place à des expériences qui ne s’y plient pas. Le numérique ne pourra pas remplacer ni même médiatiser toutes les relations au monde ; s’éprouver soi-même et éprouver le monde et la force illuminante des idées reste et restera l’apanage des sujets vivants, sauf à devenir des robots. C’est par conséquent dans des îlots d’expériences quotidiennes non encore colonisées par le numérique – expériences de confiance, de face-à-face, d’amour, de communication authentique, de confrontation réelle, mais aussi expériences du corps vivant, du corps dansant, du corps sentant -, c’est dans ces expériences d’épreuve qualitative de soi et du monde que les acteurs peuvent trouver eux-mêmes les ressources de contre-factualité capables d’alimenter leur pensée négative, pensée critique qui témoigne encore qu’un autre monde est possible. L’épreuve qualitative du monde, qui a été méthodiquement occultée par l’émergence du nominalisme, et qui est aujourd’hui systématiquement écartée par l’ontologie implicite du numérique, recèle, pour peu qu’on y porte une juste attention, l’image vivante d’une relation possiblement non aliénée au monde.

La philosophie est la seule science qui puisse appréhender l’expérience humaine comme un tout. C’est donc à elle que revient la tâche, aujourd’hui muée, sous la pression des circonstances, en tâche politique, d’exhiber le sens de ces expériences intramondaines riches en ressources face à l’administration numérique du monde. Ces expériences conservent les traces d’un rapport non nominaliste au monde ; traces inapparentes, comme diluées dans l’océan de l’ esprit nominaliste qui nous gouverne, mais que pour cette raison même la philosophie, en particulier dans ses usages critiques, est en charge de préserver et d’exposer comme autant de pépites où se réfugie l’esprit authentiquement humain.

La sécurité technique ne peut certes pas remplacer toutes les relations naturelles de confiance, sauf à ce que nous devenions des robots – auquel cas nous ne pourrions même plus nous en plaindre. C’est à la philosophie – la seule science qui envisage l’expérience humaine comme un tout – que revient la tâche éminente de montrer qu’un autre monde est possible, un monde où l’esprit humain, plutôt que s’ encapsuler sur lui-même, puisse se confronter à ce qui le dépasse. C’est à la philosophie que revient de montrer que la vérité, la confiance, l’amour, et d’autres expériences semblables, irréductibles à la relation numérique, élèvent l’esprit parce qu’ils le transcendent.

Mark Hunyadi, philosophe


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : HUNYADI Mark, Faire confiance à la confiance (2023) | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © Editions ERES ; © out.be.


Plus de tribunes libres en Wallonie…

DAGUIN, Clara (née en 1987)

Temps de lecture : 9 minutes >

[FR.FASHIONNETWORK.COM, 29 octobre 2023] Cette créatrice franco-américaine, âgée de 36 ans, est née à Levallois-Perret en région parisienne puis a grandi dans la Silicon Valley californienne, qui est considérée comme le berceau de l’innovation technologique. Avec un père ingénieur en électronique, la digitalisation et la dématérialisation deviennent rapidement ses sujets de prédilection.

Diplômée en design graphique du California College of the Arts en 2009, Clara Daguin passe six mois en Inde puis rentre en France, où elle laisse libre cours à sa passion pour la mode. Son master de “Fashion design” de l’École nationale supérieure des arts décoratifs (Ensad) de Paris en poche, elle enchaîne avec un stage chez Margiela.

La styliste en herbe participe ensuite au 31e Festival international de mode et photographie de Hyères, en avril 2016. Avec sa collection de vêtements hybrides à l’allure futuriste, qui s’illuminent en fonction des battements du cœur de la mannequin, elle se hisse parmi les finalistes. Et crée sa marque éponyme dans la foulée.

En utilisant la mode comme un medium, Clara Daguin explore la relation (parfois ambiguë) entre les corps et les nouvelles technologies. Dans son travail artistique, la créatrice de mode basée dans le nord-est de Paris, à deux pas du Centquatre (XIXe arrondissement), crée des tenues poétiques, interactives et résolument expérimentales, sur lesquelles elle attache des circuits électroniques intégrés, des microprocesseurs, des piles, de fins câbles, des LED, des fibres optiques ou encore des capteurs de lumière et de température.

“Depuis 2016, je constate que beaucoup de gens qui se sont lancés dans la fashion tech en sont partis, car c’est vraiment compliqué d’intégrer la technologie dans une collection commerciale, qui puisse se vendre, admet Clara Daguin. Il me faut parfois plusieurs mois pour créer certaines tenues sur-mesure”, ajoute l’entrepreneure qui pilote une équipe de trois personnes et qui recherche “un binôme orienté business”.

​”Certes il y a eu un engouement pour la fashion tech ces dernières années mais c’est difficile d’en vivre. Je prête souvent mes pièces pour des éditos presse et des shootings et je fais également du consulting pour des marques plus établies”, confie la créatrice qui jongle au quotidien entre une créativité sans limite et la réalité commerciale du secteur de la mode.

Dans son “modèle économique pluridisciplinaire”, Clara Daguin propose “la location de pièces couture, plébiscitée par des VIP, qui négocient souvent à la baisse les tarifs” ainsi qu’une petite offre de prêt-à-porter sur son site web (avec notamment des foulards en coton à 45 euros et des bombers oversize aux détails réfléchissants proposés à 750 euros).

Elle compte dans sa clientèle des célébrités internationales comme la musicienne islandaise Björk (pour sa performance à Coachella en avril, elle portait la veste bleu nuit “Sun” brodée de 1.430 ampoules LED réagissant au son), le chanteur nigérian Burna Boy (pour son concert à Paris en mai dernier) ou encore l’artiste monténégrine Vladana Vučinić qui, ​pour la demi-finale de l’Eurovision 2022, avait enfilé une somptueuse robe bardée de LED s’illuminant et rayonnant selon les fluctuations de la musique.

Cette dernière est issue de la flamboyante collection Cosmic Dance, présentée en janvier dernier pendant la semaine de la haute couture à Paris à la maison Baccarat, spécialiste du cristal avec qui elle collabore sur un plan créatif depuis deux ans. Clara Daguin fait rayonner ses pièces combinant broderies artisanales et technologies pointues avec des collaborations cosmiques.

En 2021, la créatrice geek a imaginé cinq robes époustouflantes conçues avec l’incubateur Advanced Technology and Projects (ATAP) de Google et sa technologie “Jacquard” (un tissu intelligent et tactile). Cette collection baptisée “Oracle” a été présentée au musée Grévin à Paris, et elle a ensuite été déclinée numériquement. Ces NFT sont commercialisés au prix de 111,87 euros sur le site de mode virtuelle DressX.

Avec ses collaborations audacieuses, la styliste s’essaie au mass-market. “Je vais dévoiler au printemps une capsule imaginée avec La Redoute”, sourit-elle. Les pièces, commercialisées en édition limitée par l’enseigne nordiste dès le mois de mars prochain, arborent “un côté sportif avec des matières réfléchissantes”. Au programme: une robe, un pantalon et une veste bomber.

Egalement passionnée par la décoration et l’architecture d’intérieur, Clara Daguin travaille sur des œuvres murales et des tapisseries géantes (de 9 mètres sur 5) réagissant aux sons, qui seront exposées à partir de début décembre dans l’église Saint-Eustache à Paris, près du Forum des Halles.


© Clara Daguin

[FRANCETVINFO.FR, 4 mai 2023] En utilisant la lumière tel un matériau, Clara Daguin confronte haute couture et haute technologie pour une mode qui s’inscrit entre le monde physique et le digital. Etonnant.

Clara Daguin, qui est née en France, mais a grandi dans la Silicon Valley en Californie, s’empare de ces deux cultures pour son travail où s’entrelacent savoir-faire et technologie, broderie et électronique, naturel et artificiel. Elle se sert de la mode pour explorer comment la technologie accompagne nos corps – digitalisation, dématérialisation, surveillance – et utilise la lumière tel un matériau. La créatrice, qui a créé sa marque en 2017 à l’issue de sa participation au Festival International de mode, de photographies et d’accessoires d’Hyères, collabore également avec des artistes, des chercheurs et des institutions. En janvier 2023, elle a présenté une robe confectionnée avec 400 pampilles de cristal Baccarat, une collaboration entamée en 2021 lors de l’exposition Harcourt Show.

Rencontre et explications avec la créatrice Clara Daguin.

Franceinfo Culture : pourquoi s’intéresser à la technologie ?

Clara Daguin : J’ai toujours fait de la couture depuis que je suis petite mais je ne la voyais pas comme un moyen d’expression artistique : c’était juste quelque chose que j’aimais faire. Aux Etats-Unis, où j’ai grandi, j’ai suivi un Bachelor de graphisme. J’ai choisi ce domaine car je trouvais intéressant de pouvoir utiliser plein de techniques différentes. Là-bas, la première année, on peut tout expérimenter : j’ai testé la peinture, la photographie, la gravure… J’aimais faire des logos, de l’identité visuelle, des sites internet, des choses interactives et des vidéos.

En 2010, j’ai vécu six mois en Inde : j’ai vu des artisans de mode, des matières incroyables, de la broderie, cela m’a donné envie d’acheter des matériaux et de recommencer un peu à réaliser des choses. Là-bas, j’étais embauchée par une entreprise française d’urbanisme pour créer leur site internet. Quand je suis rentrée vivre à Paris, j’ai continué avec eux mais l’artisanat et ses matériaux m’étaient restés en tête. Je me suis inscrite à un cours de stylisme de mode de la mairie de Paris et j’ai envisagé cela comme un projet artistique, créatif. J’ai, alors, fait des dessins puis une collection.

Vous avez créé votre marque à l’issue de votre participation au Festival international de mode d’Hyères.

Après les cours à la mairie de Paris, j’ai postulé à l’Ecole nationale supérieure des arts décoratifs où j’ai fait un master de design/vêtements. J’avais comme professeur Elisabeth de Senneville qui était une des premières créatrices à utiliser des matières techniques, de la fibre optique… J’adorais son cours. Certains d’entre nous ont ainsi participé à un workshop avec le MIT (Massachusetts Institute of Technology) : il s’agissait de hacker des chaises Ikea avec un microprocesseur et des capteurs pour leur donner une nouvelle utilité. Là, j’ai compris que tout ce que je faisais en graphisme – le côté interactif – pouvait être appliqué à un objet. Cela m’a alors obsédée. Ma collection de diplôme était axée sur les recherches matières avec des tubes en textile pour représenter l’idée de data [données numériques], d’informatique, de technologie. J’avais commencé à intégrer de la vraie fibre optique mais cela ne marchait pas bien, c’était un premier test.

Pour le Festival de Hyères, j’ai retravaillé ma collection en intégrant une fibre optique plus souple et un peu moins de broderie. L’idée de ma collection Body Electric était que la technologie uniformise : sur mes vêtements j’ai réalisé des découpes à différents endroits. Cela permettait de voir ce qui était caché, de révéler une partie lumineuse du corps, de dévoiler un peu le côté cyborg de l’humain.

En 2016, il y avait un foisonnement autour de la Fashion Tech, les gens étaient super intéressés et ils faisaient des choses avec des leds ou des trucs interactifs. J’ai été invitée à voyager pour présenter ma collection et à faire des conférences sur cette technologie. Je me suis dit alors qu’il y avait un réel intérêt pour ce travail et qu’il fallait continuer. En parallèle, je travaillais en free-lance en broderie dans un atelier et pendant les Fashion Weeks pour Alexander McQueen. L’année suivante, j’ai fait une deuxième collection pour le Festival de Hyères ce qui m’a permis de travailler de nouvelles pièces.

Vous êtes un peu touche-à-tout : au salon Première Vision, vous avez réalisé une installation interactive

En 2018, j’ai travaillé avec le salon Première Vision qui m’a proposé de créer une pièce pour le Wearable Lab dans le cadre d’une exposition où des entreprises présentaient des solutions techniques innovantes. J’avais un espace d’exposition de 100 m2 pour présenter Aura Inside, ma pièce sur mesure. En fait, c’était une robe ouverte en deux parties, le devant et le dos, à l’intérieur desquelles le visiteur pouvait se glisser. Un motif s’illuminait quand les gens rentraient dedans. L’exposition s’intitulait Reveal The Invisible.

Ensuite, j’ai participé pendant deux saisons à Designers Appartement [‘incubateur-showroom’ organisé par la Fédération de la Couture et de la mode où la créatrice a présenté une collection de prêt-à-porter féminin, dans laquelle on retrouve les codes de la pièce expérimentale Aura Inside. Après j’ai eu envie d’explorer, de pousser plus loin la technologie et de me recentrer sur l’expérimentation.

Une de vos pièces a demandé 3 000 heures de travail !

En 2019, pendant la semaine de la haute couture, à la Chapelle Expiatoire à Paris, j’ai présenté Atom. Cette seule pièce avait demandé 3 000 heures de travail, en effet. Elle était accompagnée d’une bande-son car elle réagissait aux différents sons. L’idée était que visuellement tout évoque les ondes sonores, avec de la broderie et des perles. Lors du Festival de Hyères, j’avais réalisé des petites broderies tandis que là le vêtement était entièrement brodé. Avec le temps, on évolue tant dans le choix des matériaux utilisés que dans la programmation. De fin 2019 à l’été 2022, j’étais salariée du concept-store de Dover Street Parfums Market et j’ai fait aussi du consulting, après j’ai réalisé une robe pour l’Eurovision.

C’était pour la chanteuse représentant le Montenegro en 2022. Comment est née cette collaboration ?

J’ai fait une robe lumineuse sur mesure. Vladana Vučinić m’a contacté sur Instagram. Elle m’a dit “je veux être la chose la plus lumineuse sur scène.” J’ai alors réalisé des dessins pour cette robe qui s’illumine au niveau du thorax puis derrière le corps en une sorte de halo. Ma robe réagissait aux fluctuations de la mu­sique. La pièce avait été pensée par rapport à la scénographie qui représentait un soleil cinétique.

Certaines de vos robes sont le fruit d’un partenariat avec Google ATAP

En 2021, j’ai mis en scène cinq robes lumineuses interactives en partenariat avec les ingénieurs de Google ATAP (Advanced Technology and Projects). J’avais une carte blanche artistique pour intégrer la connectivité dans mes vêtements grâce à la technologie Jacquard by Google, un fil très fin et conducteur. Leur ingénieur s’occupait de la programmation et m’indiquait pour chaque modèle à quel endroit il fallait connecter le microprocesseur à la broderie.

La performance s’articulait autour d’Oracle : l’histoire d’une diseuse de bonne aventure – interprétée par la mannequin et muse Axelle Doué – qui lisait les lignes de la paume de la main de son interlocutrice de façon numérique. La technologie était brodée sous forme de fil dans les gants portés par Axelle les transformant en capteurs. Ces derniers renvoyaient les informations pour éclairer avec plus ou moins d’intensité l’une des quatre robes – inspirées des élements : eau, feu, terre et eau – de cette performance.

Elles ont même été disponibles dans l’univers virtuel grâce à la plateforme DressX

Quand j’ai fait cette collaboration avec Google, DressX [entreprise qui créée des vêtements digitaux pouvant être portés en filtre grâce à la réalité augmentée] s’est greffée sur cette collaboration et a digitalisé certaines de mes pièces pour sa plateforme. Je trouve cela super intéressant de pouvoir acheter des pièces virtuelles, digitales, adaptées à la morphologie de la personne.

Vous avez débuté en 2021 une collaboration avec Baccarat qui s’est poursuivie cette saison. 

En 2021, j’avais été invitée par Laurence Benaïm à l’exposition Hartcourt Show, une exposition de onze jeunes créateurs de mode réinterprétant l’iconique verre Harcourt. En janvier 2023, pendant la semaine de la haute couture, j’ai présenté Cosmic Dance, ma nouvelle collaboration. Là, j’ai confectionné une robe avec 400 pampilles de cristal Baccarat, lumineuses. Une toute petite Led – glissée de chaque côté de chaque pampille en cristal – illuminait la robe. C’était très upcycling !

Quels sont vos projets ? 

J’ai un projet avec la danseuse Véronika Akopova. Cette chorégraphe fait partie des sélectionnés de la bourse Mondes nouveaux du Ministère de la Culture. Sa pièce  Murmurations sera jouée au château d’Azay-Le-Rideau, en juin prochain avec cinq danseurs ainsi que des drônes-oiseaux, puisque la danseuse évoque leur disparition. Je réalise les costumes avec des matières réfléchissantes dont les motifs reprennent des photos d’oiseaux en mouvement.

Sinon, je prête mes robes pour les shootings photo à des magazines, ce qui fait de la visibilité. Je loue aussi certaines de mes pièces – j’ai une vingtaine de modèles – pour des concerts ou des clips vidéos. Et pour 2024, on va faire une collaboration avec La Redoute.

Vous considérez-vous comme créatrice, artiste ou ingénieure ?

Je me pose la question tous les jours. C’est un peu un mélange, artiste, créatrice et ingénieure mais j’ai toujours besoin d’un ingénieur extérieur pour écrire le code. Je fais aussi un peu de prêt-à-porter, des pièces très basiques comme des casquettes phosphorescentes et des foulards dont les motifs évoquent la lumière… disponibles sur mon site internet. Je suis créatrice de mode avec mes vêtements couture mais je peux aussi faire des objets, des collaborations et des partenariats avec d’autres maisons, me diversifier et dans cet esprit, je me sens alors plus artiste. La led évolue en devenant de plus en plus petite et forte donc cela permet d’explorer plein de choses.


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : fr.fashionetwork.com ; francetvinfo.fr | contributeur : Philippe Vienne | crédits illustrations : © Clara Daguin | visiter le site de Clara Daguin


Plus de scène en Wallonie-Bruxelles…

HALEVY : Du binaire au ternaire…

Temps de lecture : 6 minutes >

[NOETIQUE.EU, février 2011] Sortir du binaire blanc-noir pour entrer dans le ternaire rouge-bleu-jaune et, ainsi, passer du conflit et du compromis gris, aux couleurs et à la complexité infinie des combinaisons, contrastes et harmonies. Toute la pensée occidentale porte ses évaluations sur tout ce qui la concerne en termes de binaires : Bien et Mal, Vrai et Faux, Beau et Laid, Sacré et Profane, pour reprendre les quatre axes classiques (éthique, logique, esthétique, métaphysique).

On le sait depuis toujours mais d’autant plus depuis que la complexité est entrée, en tant que concept-clé, dans le champ des sciences et de la philosophie, cette approche binaire est largement insuffisante pour plusieurs raisons.

D’abord, elle est la plus pauvre puisqu’elle ne conçoit que deux possibles. Elle est aussi le plus infertile puisqu’elle n’ouvre que trois chemins : le conflit (toujours destructeur), le compromis (toujours insatisfaisant) ou la synthèse dialectique (toujours recommencée) qui relance le jeu d’un nouveau couple thèse-antithèse.

Il convient donc d’apprendre à sortir du binaire blanc-noir pour entrer dans le ternaire rouge-bleu-jaune et, ainsi, passer du conflit et du compromis gris, aux couleurs et à la complexité infinie des combinaisons, contrastes et harmonies.

Mais le ternaire n’est jamais le binaire originel plus un troisième pôle ; il exige la déconstruction des deux pôles du binaire et la requalification d’un ternaire original sur le même thème. Cela appelle une méthodologie rigoureuse.

Pour construire cette méthodologie, il suffit de se rappeler que lorsque l’on parle, on parle d’un processus. Toujours. Lorsque je parle d’un carré, je parle de quelque chose qui résulte d’un tracé, d’une construction géométrique : quatre côté égaux (quatre segments de droites de même longueur) et quatre angles droits (quatre poses d’équerre aux extrémité desdits segments).

Procédons donc systématiquement et méthodologiquement …

Primo : quelque soit le jugement évaluatif que l’on porte, on le porte sur un processus qu’il faut, avant toute chose, clairement identifier. Ainsi, lorsque je demande si la choucroute est bonne ou mauvaise, je m’intéresse à la qualité d’un processus culinaire (la choucroute a-t-elle été bien préparée ?) ou gustatif (quel est la nature et l’ampleur du plaisir procuré par la dégustation de cette choucroute ?). Bref, le jugement binaire classique doit être suspendu (au sens sceptique et stoïcien) au profit d’une reformulation processuelle. Dans notre exemple, lorsque je demande si la choucroute est bonne, il convient de distinguer les deux versants (culinaire et gustatif) de la question, et de choisir clairement duquel des deux l’on parle.

© Marie Claire

Secundo : tout processus se déploie porté par trois moteurs que la physique théorique a nommés la propension métrique (ce qui concerne le volume, la taille, les ressources, les territoires, les potentiels, les patrimoines, les matériaux, les réserves, etc …), la propension eidétique (ce qui concerne la forme, l’organisation, la structure, la cohérence et la cohésion, la logique, les règles, les modèles, les normes, et …) et la propension dynamique (ce qui concerne l’activité, le rythme, le mouvement, l’effervescence, la performance, le travail, etc.). A ce stade, il s’agit donc de réactiver le processus d’évaluation au regard de ces trois dimensions fondamentales du processus concerné. Ainsi, notre choucroute, en tant que processus culinaire, devra être vue comme un ensemble d’ingrédients et de matériels cuisine (c’est la dimension métrique), comme une recette particulière c’est-à-dire un ensemble de règles et normes de fabrication (c’est la dimension eidétique) et comme un ensembles d’actes mettant en œuvre un savoir-faire, une expérience, un talent et des temps de cuisson (c’est la dimension dynamique).

Tertio : pour éviter de retomber dans les pièges de la binarisation (il suffirait de plaquer l’évaluation “bon ou mauvais”, “bien ou mal”, sur chacune des trois dimensions), il convient de choisir des critères ou des indicateurs de qualité qui offrent des spectres larges et continus.

Ici encore, la théorie nous aide puisqu’elle précise que chaque propension possède une face externe (sa relation au monde, au “dehors” du processus) et une face interne (sa relation aux constituants, au “dedans” du processus). La propension métrique induit l’excellence de ses ingrédients internes et la frugalité de ses prélèvement externes. La propension eidétique induit l’élégance de ses structures internes et la simplicité de ses rapports à l’extérieur. La propension dynamique induit la fécondité de ses activités internes et la noblesse de ses buts externes.

On a ainsi en main une palette de six critères d’évaluation (dont les description détaillée ne sont pas l’objet de cet article) qui sont un peu l’équivalent, en peinture, des six couleurs de bases, trois étant originelles (rouge, bleu et jaune) et trois étant composées (violet, vert et orange). Dans l’exemple de la choucroute, on pourra évaluer, ainsi, l’excellence des matières premières, la frugalité des achats (gaspillages), l’élégance des présentations (le dressage), la simplicité des apprêts (sans fioritures et sans clinquants), la noblesse du métier (version gargote ou version gastronomie) et la fécondité des tours de main (la subtilité des assaisonnements ou des cuissons).

Quarto : il convient, enfin, d’opérer la synthèse de ces évaluations non pas en portant une sorte de cote globale qui serait une absurde moyenne des évaluations analytiques, mais bien sous la forme de deux constats. Le premier touche à l’harmonie globale des six dimensions du processus, de leur adéquation réciproque (par exemple : faire une choucroute “cantine” avec un dressage tape-à-l’œil ou avec les ingrédients les plus chers). Le second liste les pistes d’amélioration du processus en vue d’une évaluation ultérieure éventuelle.

Cette approche méthodologique est universelle. Elle peut s’appliquer avec fruit pour affronter des évaluations aussi vastes et essentielles que : “notre société est-elle juste ou injuste ?” (c’est tout l’enjeu des débats politiques actuels) ou “cette personne est-elle quelqu’un de bien ?” (question cruciale pour choisir un associé ou un collaborateur, par exemple).

En résumé, les huit questions à se poser sont les suivantes :

      1. Quel est le degré d’excellence des ressources propres ?
      2. Quel est le degré de frugalité des échanges externes ?
      3. Quel est le degré d’élégance des règles internes ?
      4. Quel est le degré de simplicité des postures externes ?
      5. Quel est le degré de fécondité de la dynamique interne ?
      6. Quel est le degré de noblesse des buts poursuivis ?
      7. Cet ensemble est-il cohérent (adéquat et harmonieux) ?
      8. Cette cohérence est-elle perfectible ?
Marc Halevy © leslunettesvertes.com

On comprendra aisément qu’une telle approche méthodologique échappe enfin au simplisme des binaires classiques et accroît le niveau de complexité – donc de richesse et d’adéquation – de toute démarche d’évaluation. Illustrons en appliquant tout ceci à l’idée suivante : “toute proposition logique est vraie ou fausse.” C’est l’axiome classique du tiers-exclu. C’est aussi une position binaire.

Pour déconstruire cette binarité, trois questions surgissent :

      1. Territoire : quel est le champ de la logique ? (critères de frugalité et d’excellence) ;
      2. Modèle : dans quelle structure de logique se place-t-on ? (critères de simplicité et d’élégance) ;
      3. Mouvement : quelle est l’activité logique concernée ? (critères de fécondité et de noblesse).

Le champ de la logique : n’entreraient dans le champ strict de la logique du “vrai” que le petit nombre des propositions vérifiable visant un objet directement observable (frugalité) et que les propositions formulées de manière non ambiguë, chacun de leurs éléments étant univoque (excellence).

La structure de logique : de quelle logique parle-t-on ? aristotélicienne ou non ? Outre leur véritable intérêt théorique, les logiques non aristotéliciennes sont à éviter car elles sont compliquées (simplicité) et lourde (élégance) pour un résultat pratique assez maigre, voire inexistant (la plupart des propositions convergent assez vite vers la valeur “indéterminé”).

L’activité logique : la logique n’a d’intérêt qu’en tant que méthode engendrant (fécondité) des propositions vraies à partir d’autres propositions vraies, avec pour but non de tromper ou de circonvenir, mais d’enrichir (noblesse).

En synthèse, afin de rendre ces six évaluations congruentes, une conclusion s’impose : plutôt que de vérité, il faudrait éclater ce concept en trois et parler de plausibilité (territoire), de probabilité (norme) et de décidabilité (activité).

On pourrait aussi investiguer dans le champ de l’esthétique où règne le binaire du beau et du laid. On arriverait assez vite à rejeter ces deux “valeurs” simplistes et à porter jugement selon six critères : virtuosité (excellence), composition (élégance), profondeur (fécondité), essentialité (frugalité), épurement (simplicité), thème (noblesse).

L’évaluation finale de l’œuvre découlant de la convergence harmonieuse et cohérente de ces six critères. Il n’y a plus ni laid, ni beau.

Marc Halévy, Février 2011


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : noetique.eu | contributeur : Patrick Thonart | crédits illustrations : © Disney ; © Marie Claire ; © leslunettesvertes.com.


Plus de tribunes libres en Wallonie…

Ce que le «2» dit de nous

Temps de lecture : 5 minutes >

[d’après LIBERATION.FR, 1 janvier 2018] “Monarque absolu” de notre logique binaire, il est aussi celui de l’accouplement avec lequel commence la société. Avec lui, vient l’autre. Méditation pour un 2 janvier.

La fête de l’épiphanie, qui commémore la venue du “Messie venu et incarné dans le monde”, a lieu le 6 janvier, c’est les Rois, tout le monde sait cela. On sait moins que, depuis 1802, année de la naissance de Victor Hugo, les deux événements sont indépendants, cette célébration peut se tenir le premier dimanche qui suit le 1er janvier, selon un décret du cardinal Caprara, légat du pape Pie VII. Ainsi, le 2 janvier, le jour d’après, est tout de même premier en quelque chose : c’est le premier jour possible pour la fête des Rois. C’est arrivé en 2011. Hasard de la numérologie, cela se produira de nouveau en… 2022.

En mathématiques, le nombre 2 est chargé de significations et lourd de promesses. Pour un mathématicien, 2 est d’abord le premier (si, si) des nombres premiers. Vous savez ces nombres entiers qui ne sont divisibles par aucun nombre plus petit (sauf le 1). Euclide a montré, il y a deux mille cinq cents ans, qu’ils sont une infinité. L’une des raisons de la fascination pour les nombres premiers est que tout nombre entier est représentable d’une manière unique comme produit de nombres premiers. Ainsi, 12 = 2 × 2 × 3, 2018 = 2 × 1009, et mis à part l’ordre des facteurs, ces décompositions sont intangibles. C’est la raison pour laquelle le nombre 1 a été exclu de la liste : multipliez par 1 autant de fois que vous voudrez, vous ne changerez pas le résultat. C’est la version multiplicative de la tête à Toto.

Ainsi, 2 est premier, ce qui n’est pas son moindre titre de gloire, et c’est même le seul nombre premier pair, ce qui le met souvent à l’écart, mais il paraît qu’il ne s’en offusque pas, dans beaucoup de démonstrations mathématiques.

Le nombre 2 a aussi ses victimes. Le fameux théorème de Pythagore doit son nom au philosophe de Samos qui l’a énoncé au VIe siècle avant notre ère, mais il était connu des Mésopotamiens plus de mille ans auparavant. Dans un triangle rectangle, le carré de l’hypoténuse est égal à la somme des carrés des longueurs des deux autres côtés. Considérons le carré de côté 1. Cet énoncé stipule donc que le carré de la diagonale est égal à 2. Selon une légende vraisemblable, Hippase de Métaponte, un pythagoricien, aurait découvert que cette diagonale ne peut être mesurée avec la même règle que le côté, aussi rapprochées que soient les graduations. Cela ne vous choque peut-être pas outre mesure (c’est l’expression qui convient) mais cette découverte mettait à mal l’entière conception du monde en vigueur dans cette école de pensée : “Toute chose est nombre.” Si le monde était censé être entièrement explicable par les nombres, comment pouvait-on concevoir que cette simple diagonale soit réfractaire à toute mesure raisonnable, c’est-à-dire rationnelle comme l’on dit aujourd’hui ? Porteur de cette terrible nouvelle, le pauvre Hippase aurait été jeté par-dessus bord ou sauvagement poignardé par ses condisciples. Ainsi, le nombre 2, pour innocent qu’il paraisse, aurait engendré le premier martyr de la science.

Pythagore © Le devoir

La résonance du 2, dans le monde des mathématiques, est infinie. L’un des concepts essentiels dans le développement de cette science, et particulièrement à notre époque, est celui de “dualité”. Il s’agit là du deux du miroir, de celui de la symétrie, mais décliné et approfondi par des siècles de réflexion. L’évolution des mathématiques nous a progressivement amenés de l’étude des objets et des notions conçues pour modéliser le réel, vers l’étude des relations entre ces objets. Compter, c’est d’abord énumérer, donc additionner, mais la tentation est grande de pouvoir revenir sur ses pas : on définit alors l’opération duale qui est la soustraction. Sous une forme très générale, on peut dire que la dualité est, en substance, une opération de traduction de concepts, relations ou structures vers d’autres concepts, relations ou structures, effectuée d’une manière “biunivoque” : à chaque élément d’un monde correspond un et un seul élément de l’autre monde. Le plus souvent cette liaison est d’ailleurs subtilement réversible : si, à partir d’un objet A, on a obtenu un objet (dual) B, et que l’on réitère l’opération sur B, on retrouve A. Prendre le dual du dual, vous ramène au point de départ. Ouf.

Le miracle de la dualité est que cette exploitation de la symétrie enrichit considérablement le champ d’étude initial et permet des avancées spectaculaires. Si un système physique, comme une machine ou même un être vivant, évolue uniquement en fonction de son passé immédiat (disons son état dans la seconde précédente), l’étude mathématique pourra se fonder sur un modèle abstrait où un système évolue en fonction de son futur immédiat, autrement dit, l’état dans lequel il sera dans la seconde suivante. Ce modèle imaginaire, dual théorique sans assise physique du système réel, permettra cependant de décrire et de prévoir l’évolution effective du système considéré.

Le nombre 2 est aussi le “monarque absolu” de notre logique, dite du “tiers exclu” : une assertion est “juste” ou “fausse”, une réponse est “oui” ou “non”, le “courant passe” ou “ne passe pas”. D’où son utilisation systématique en informatique, fondée sur une logique dite “binaire” : à partir de circuits électroniques susceptibles de prendre deux états, on peut mettre le monde en équations, transmettre et recueillir des informations, induire des évolutions, et, finalement, jouer à Dieu. Les ordinateurs quantiques du futur opéreront selon une logique comportant un nombre arbitraire, voire infini, d’états. Ce sera alors la première défaite du nombre 2. Mais nous n’en sommes pas là, et la logique binaire, pourtant si sommaire et restrictive, a encore de beaux jours devant elle. Ce n’est qu’avec une certaine réticence que les applications des mathématiques, et plus généralement les raisonnements humains, entrent dans l’univers inquiétant du peut-être.

L’histoire, qui ne s’arrête pas là, a peut-être débuté avec le nombre 2 qui est évidemment notre premier modèle du couple, qu’il soit homogène ou hétérogène, fondé sur la ressemblance ou sur le contraste. Et le couple est d’abord le lieu de la conversation et de la négociation puisqu’il ne peut contenir de majorité. Si deux ne sont pas d’accord, il faut parler. Ainsi, le nombre 2, à partir duquel commence la société, nous suggère, pour vivre ensemble, une voie fondée sur l’accord plus que sur la contrainte. Il contient en germe la notion de partage : 2 est par nature généreux.

De là à imaginer, en ce 2 janvier, que ce jour d’après soit aussi un jour d’attention et de sollicitude envers tous ceux qui frappent à notre porte parce qu’ils fuient la persécution ou la misère, il n’y a qu’un pas. Si le premier est le jour des vœux, pourquoi ne pas faire du deuxième jour de l’année le jour d’eux ? Car eux sont nous, c’est l’évidence.

Gérald TENENBAUM, mathématicien


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : liberation.fr | contributeur : Patrick Thonart | crédits illustrations : © DP ; © Le devoir.


Plus de tribunes libres en Wallonie…

LE BRETON : Avec les smartphones, la conversation en péril ?

Temps de lecture : 7 minutes >

[THECONVERSATION.COM, 20 mars 2024] La conversation relève souvent de la gratuité, de la flânerie, de la rencontre, elle est une parole partagée. Mais que devient-elle à l’ère du smartphone omniprésent ? Jour et nuit, nous communiquons : via WhatsApp, Messenger, Instagram, Slack, TikTok, par mail ou par texto, via des messages vocaux… Et pourtant, nous rappelle David Le Breton, communiquer n’est pas converser. À la fois vigilants, disponibles et déconnectés de nos sensations physiques, nous avons peu à peu désappris l’ennui, la lenteur, les silences et l’attention à l’autre…

Le smartphone a introduit au sein du lien social dans le monde entier un avant et un après de son usage. En une quinzaine d’années, la banalisation de son recours a opéré une transformation inouïe du rapport au monde et aux autres. J’aborderai ici seulement les profondes altérations que connaît la conversation face à l’impact colossal de la communication, notamment quand elle passe par la médiation du téléphone portable.

Communiquer n’est pas converser

J’entends par communication l’interposition de l’écran dans la relation à autrui, la distance, l’absence physique, une attention distraite, flottante… Utilitaire, efficace, elle appelle une réponse immédiate ou des justifications ultérieures car elle exige une disponibilité absolue qui induit par ailleurs le sentiment que tout va trop vite, que l’on a plus de temps à soi. À tout moment une notification, un appel, un message somme l’individu à une réponse sans retard qui maintient une vigilance sans relâche.

À l’inverse, la conversation relève souvent de la gratuité, de la flânerie, de la rencontre, elle est une parole partagée. Il s’agit seulement d’être ensemble en toute conscience et de dialoguer en prenant son temps. Si la communication fait disparaître le corps, la conversation sollicite une mutuelle présence, une attention au visage de l’autre, à ses mimiques et à la tonalité de son regard. Elle compose volontiers avec le silence, la pause, le rythme des uns et des autres. À l’inverse de la communication où toute suspension sollicite un pénible rappel, surtout pour ceux qui sont autour et ne sont pas concernés, d’un : “On a été coupés“, “T’es là ?“, “J’entends plus rien“, “Je te rappelle“. La conversation n’a pas ce souci car le visage de l’autre n’a jamais disparu et il est possible de se taire ensemble en toute amitié, en toute complicité, pour traduire un doute, une méditation, une réflexion. Le silence dans la conversation est une respiration, dans la communication elle est une panne.

© DP

Il y a quelques mois à Taipei, j’étais dans un restaurant populaire. À une table, non loin de la mienne, est venue s’installer une dizaine de personnes de la même famille, des plus jeunes aux plus âgés. Le temps de prendre place, et tous ont sorti leur smartphone, les plus petits avaient deux ou trois ans, jusqu’aux anciens, la soixantaine. Ayant à peine jeté un coup d’œil au menu avant de commander, tous se sont immergés dans la contemplation de leur portable, sans aucune attention les uns envers les autres. Ils n’ont pratiquement pas dit un mot et ils mangeaient leur smartphone à la main. Seule exception parfois, de petites tensions entre deux des enfants qui devaient avoir quatre ou cinq ans. Ils sont restés une bonne heure en échangeant guère plus que quelques phrases, sans vraiment se regarder.

La scène aurait pu se passer à Strasbourg, à Rome ou à New York, dans n’importe quelle ville du monde. Elle est aujourd’hui commune. Il suffit d’entrer au hasard dans un café ou un restaurant pour voir la même situation. Les anciennes rencontres familiales ou amicales disparaissent peu à peu, remplacées par ces nouvelles civilités où l’on est ensemble mais séparés les uns des autres par des écrans, avec parfois quelques mots échangés avant de retrouver la quiétude de son portable, replié sur soi. À quoi bon s’encombrer des autres puisqu’un monde de divertissement est immédiatement accessible où l’on a plus à soutenir l’effort de nourrir la relation aux autres. La conversation devient désuète, inutile, pénible, ennuyeuse, alors que l’écran est une échappée belle qui ne déçoit pas et qui occupe agréablement le temps.

Des villes peuplées de zombies

La disparition massive de la conversation, même avec soi-même, se traduit par le fait que maintenant les villes sont désertes, on n’y rencontre plus personne, les trottoirs regorgent de zombis qui cheminent hypnotisés par leur smartphone. Les yeux baissés, ils ne voient rien de ce qui se passe à leur entour. Si vous cherchez votre chemin, inutile de demander de l’aide, il n’y a personne autour de vous. Les uns sont casqués ou portent des oreillettes, parlent tout seuls, et arborent une attitude indifférente ostentatoire, tous n’ont d’yeux que pour leur écran.

Parfois, la communication s’impose dans l’espace public, infligée à ceux qui n’osent pas protester ou s’en vont ailleurs, envahis par la parole insistante de quelqu’un venu s’asseoir à leur banc ou près de leur table pour entamer une discussion à voix haute. Autre donnée de plus en plus courante, regarder une vidéo criarde sans oreillette ou mettre le haut-parleur pour mieux entendre la voix de son interlocuteur.

Autre forme d’incivilité courante devenue banale, le fait de parler avec quelqu’un qui ne peut s’empêcher de sortir son smartphone de sa poche toutes les trente secondes, dans la peur de manquer une notification ou qui vous laisse tomber après une vibration ou une sonnerie. Échange de bon procédé, chacun occupant une place ou un autre selon les circonstances. La hantise de manquer une information provoque cette fébrilité des adolescents, mais pas seulement, et cette quête éperdue du smartphone dans la poche, à moins qu’il ne reste en permanence à la main. Ce que les Américains appellent le Fear of Missing Out (FOMO) est devenu un stress qui affecte la plupart de nos contemporains. Même posé près de soi sur une table, l’expérience montre que le smartphone exerce un magnétisme difficile à contrer, les regards se posent avec régularité sur lui dans une sorte de nostalgie.

Pour ces usagers, les relations à distance, sans corps, sont moins imprévisibles, moins frustrantes, elles n’engagent que la surface de soi, et en ce sens elles apparaissent souvent préférables aux interactions de la vie réelle. Elles donnent lieu à des relations conformes au désir et fondées sur la seule décision personnelle sans craindre un débordement, car dès lors il suffit d’interrompre la discussion en prétextant un problème de réseau et de couper la communication. Les interactions en face-à-face sont plus aléatoires, plus susceptibles de blesser ou de décevoir. Mais plus on communique moins on se rencontre, plus la conversation disparaît du quotidien. Les écrans donnent le moyen de franchir le miroir du lien social pour se retrouver ailleurs sans plus de contrainte de présence à assumer devant les autres. Ils induisent une communication spectrale, essentiellement avec soi-même, ou avec un minimum d’altérité. Souvent dans le sillage des habitudes prises lors du confinement quand tout autre lien était impossible. Nous multiplions aujourd’hui les réunions, les conférences à distance qui dans mon expérience personnelle n’existaient pas avant l’émergence du Covid.

Un sentiment d’isolement croissant

La société numérique ne se situe pas dans la même dimension que la sociabilité concrète, avec des personnes en présence mutuelle qui se parlent et s’écoutent, attentifs les uns aux autres, en prenant leur temps. Elle morcelle le lien social, détruit les anciennes solidarités au profit de celles, abstraites, le plus souvent anonymes, des réseaux sociaux ou de correspondants physiquement absents.

© Francisco Pancho Graells

Paradoxalement, certains la voient comme une source de reliance alors que jamais l’isolement des individus n’a connu une telle ampleur. Jamais le mal de vivre des adolescents et des personnes âgées n’a atteint un tel niveau. La fréquentation assidue de multiples réseaux sociaux ou l’ostentation de la vie privée sur un réseau social ne créent ni intimité ni lien dans la vie concrète.

La société numérique occupe le temps et donne le moyen de zapper tout ce qui ennuie dans le quotidien, mais elle ne donne pas une raison de vivre. Bien entendu certains y trouvent du lien du fait de leur isolement, mais ce dernier n’est-il pas aussi une incidence du fait que l’on ne se rencontre plus dans la vie réelle ?

Chacun est en permanence derrière son écran, même en marchant en ville, l’expérience individuelle de la conversation ou de l’amitié se raréfie, l’isolement se multiplie en donnant le sentiment paradoxal de la surabondance. Mais il ne reste du lien qu’une simulation. Les cent “amis” des réseaux sociaux ne valent pas un ou deux amis dans la vie quotidienne.

© Weheartit

Le smartphone donne les moyens de ne plus tenir compte des autres. Il contribue à l’émiettement social, et paradoxalement, non sans ironie, il se propose comme le remède à l’isolement, la prothèse nécessaire puisqu’on ne se parle presque plus dans les trains, les transports en commun, les cafés, les restaurants, maints autres lieux propices autrefois aux rencontres, mais qui juxtaposent aujourd’hui des individus isolés, séparés, en contemplation devant leur écran.

De nouvelles formes d’expression émergent qui relèvent désormais de l’évidence pour nombre de contemporains, et pas seulement pour les digital natives. Globalement la connexion prend le pas sur une conversation renvoyée à un anachronisme mais non sans un impact majeur sur la qualité du lien social, et potentiellement sur le fonctionnement de nos démocraties.

David Le Breton, Professeur de sociologie et d’anthropologie
(Université de Strasbourg)


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Shutterstock ; © Weheartit | N.B. David Le Breton est l’auteur de, entre autres : Des visages. Une anthropologie et de Du silence. Essai d’anthropologie. La fin de la conversation : La parole dans une société spectrale est paru en mai 2024.


Plus de tribunes en Wallonie…

L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…

VAN HEULE : Le meuble liégeois (1952)

Temps de lecture : 7 minutes >

Cette notice sur le meuble liégeois devait paraître dans la feuille intitulée ART MOSAN éditée à Liège, à l’occasion de l’exposition de 1951. En dernière minute, l’article de fond ayant dépassé les limites prévues, la notice ci-dessous, déjà imprimée en épreuve, dut être supprimée. Très aimablement, M. G. Thone et M. J. Lejeune m’ont proposé d’en faire un tirage spécial en y ajoutant une série de planches dont les clichés m’ont été prêtés par l’Institut archéologique liégeois. Que tous trouvent ici l’expression de ma reconnaissance.

H. van Heule

Si l’art est né d’une conception spiritualiste, son évolution est due à une suite de courants étrangers, d’échanges, auxquels chaque peuple apporte son génie propre. D’où différenciation dans l’unité. S’il est un art dans lequel les Liégeois ont excellé, c’est bien celui du meuble.

Le meuble est né d’une nécessité, celle de rendre la vie plus commode [sic] et de conserver des objets précieux en les mettant à l’abri des déprédations ou des tentations.

Au début, bancs, sièges pliants, tabourets pour s’asseoir, planches sur tréteaux en guise de table, lits, coffres formés de lourdes planches maintenues à queue d’aronde, c’était rustique. La recherche, l’élégance vinrent ensuite.

Les coffres furent d’ailleurs, avec les lits, les seuls gros meubles jusqu’à la fin du XIVe siècle. À l’occasion, ils servaient même de lit. Sinon, on y entassait vêtements, vaisselle, tapis, et, quand on en possédait, les bijoux. On ne s’encombrait pas, en ce temps-là. De plus, en cas d’alerte ou de déménagement, ce qui était fréquent, le tout demandait un minimum de préparation au départ. Les coffres chargés étaient emportés par l’animal de bât, cheval ou âne, ou posés sur un char.

Au cours des âges, les coffres s’étaient agrémentés de pentures en fer forgé, de solides serrures par surcroît de sécurité. S’ils étaient robustes, ils étaient aussi très pesants. On chercha à les rendre plus maniables. Les coffres furent travaillés à panneaux dès avant le XIVe siècle, travail de menuiserie plus souple, qui leur conférait une certaine élégance grâce au jeu des ombres et des lumières. Bientôt les panneaux s’ornèrent de fines arcatures inspirées par les dessins des fenestrages de nos églises, de serviettes plissées ou parchemins repliés. De menuisier, l’artisan passait ébéniste, sculpteur ; il devenait un artiste.

Quelques beaux coffres gothiques sont conservés dans nos musées liégeois, celui du Musée diocésain date du XIVe siècle ; d’autres, au musée Curtius, appartiennent aux XVe et XVIe siècles.

De la conjugaison du menuisier et de l’ébéniste, les productions allaient devenir aussi heureuses que fécondes. Les types de meubles se multiplièrent afin de s’adapter aux nécessités d’une existence rendue plus facile. L’artiste, protégé, pourra donner libre cours à son imagination : le meuble en série est une invention moderne. Les coffres reposèrent, sur une base les rendant mieux à portée de la main. Du coffre posé sur une base, tout naturellement on passa au dressoir.

Au XVIe siècle, les églises, les monastères, par destination plus sédentaires, disposant de plus d’espace, souvent aussi d’un personnel artisanal très compétent, purent s’offrir le luxe d’imposantes armoires, dont quelques-unes ont réussi à braver les siècles.

Comme pour les coffres, le décor, d’inspiration architecturale au début, empruntera ensuite des motifs puisés dans la nature tout en les stylisant. Témoins, le coffre et l’armoire influencés par le style gothique anglais (gothique Tudor), avec leurs moulures formant des courbes, des contrecourbes : décor en X autour desquels s’enroulent des pampres, conservés au musée Curtius.

Sous le souffle d’un courant venu d’Italie lors du règne d’Erard de la Marck (1505-1538), le style Renaissance, si en honneur dans la péninsule et en France, fait son entrée dans l’art liégeois. Il s’y est tempéré. L’armoire liégeoise du deuxième quart et du milieu du XVIe siècle, tout en gardant une structure encore gothique, s’orne de personnages dans des arcatures, même de motifs puisés au répertoire des céramistes. Les pentures ont un rôle plus discret. Evidemment, tous ces meubles sont devenus rarissimes.

Autre changement d’aspect au XVIIe siècle, le type du meuble brabançon prédomine : lourds bahuts avec corps supérieur en retrait et corniche débordante ; décor en méplats, pastilles en chapelet, pointes de diamants, godrons, mufles de lion retenant un anneau en cuivre. Les pentures ont disparu. Le chêne ciré a la prédilection des Liégeois. Les incrustations d’ébène, recherchées aux Pays-Bas, sont plus rarement employées. Les tables sont à traverses ou entretoises, les sièges aux lignes nettes et rigides, recouverts de cuir ou de tapisserie, agrémentés de clous de cuivre. A côté des gros bahuts, viennent se ranger les meubles d’importation dans le goût italien : ces charmants cabinets à multiples tiroirs en bois d’essences variées, incrustés d’écaille, d’ivoire, de cuivre ou d’étain, dont beaucoup furent l’œuvre des Fokkerhout, à Anvers. C’était cossu et bien en rapport avec le costume aux lourdes étoffes, avec la pompe de cette époque. Tous ces beaux meubles résultent de commandes que seuls pouvaient se permettre certaines catégories de personnages, disposant aussi chez eux de place suffisante pour les caser. En effet, c’est du XVIIe siècle que date l’essor de la grande industrie liégeoise, source de sa prospérité.

Mais, pour nous, le meuble liégeois, c’est le meuble du XVIIIe siècle. Cette période est aussi la mieux connue, parce que plus proche de nous ; le temps, de sa dent vorace, n’est pas encore arrivé à en avoir raison.

Le soleil de Louis XIV éblouissait tout l’Occident, mais ses rayons n’aveuglèrent pas les Liégeois. Mesurés et réfléchis, ils surent, intelligemment adapter le faste français en le ramenant à leurs proportions. Et voilà pourquoi, avec goût, avec tact, nos huchiers créèrent des œuvres parfaites.

Au XVIIIe siècle, le standard de vie s’était considérablement amélioré. Liège, capitale d’un petit Etat quasi indépendant, comptait un important patriciat, tant ecclésiastique que séculier. Que d’hôtel construits ou transformés à partir de 1691, après le bombardement de la ville par le marquis de Boufflers !

Que l’on songe à l’hôtel de ville, aux hôtels particuliers d’une si harmonieuse architecture de la rue Hors-Château, de Féronstrée, du Mont-Saint-Martin, de la Basse Sauvenière, et j’en passe; aux maisons plus modestes, mais si jolies quand même, des rues Neuvice, du Pont, de la place du Marché. La décoration intérieure ne pouvait que suivre : sculptures des portes, des lambris, des volets, des hottes de cheminée, des départs d’escaliers, encadrements de trumeaux ou de tableaux ; stucages des plafonds et des murs ; peintures décoratives dans le goût chinois, singeries (sous Louis XV) ; paysages, scènes de genre ou religieuses ; riches tapisseries de Bruxelles ou d’Audenarde… De tels cadres ne pouvaient que servir d’écrin à de beaux meubles.

Les ébénistes liégeois ne faillirent pas à leur tâche. Fort d’une longue tradition, le travail du bois n’avait plus aucun secret pour eux. En plein chêne, ils manièrent le ciseau ou la gouge avec dextérité, avec souplesse et légèreté, évitant les reliefs exagérés. Chez eux tout était mesure et équilibre.

Les créations se multiplièrent en raison même du confort enfin découvert : chaises aux sièges rembourrés ou cannés, aux dossiers de mieux en mieux adaptés aux courbes du dos, fauteuils savamment étudiés en fonction de leur destination, invitant au repos ou à la causerie, Les tables, elles, sont toujours de petite dimension. On continue à se servir de planches posées sur tréteaux pour les repas réunissant de nombreux convives. Mais le triomphe des ébénistes liégeois est incontestablement l’armoire, que ce soit le bahut à simple ou à deux corps, souvent le corps supérieur vitré ; que ce soit la garde-robe, l’horloge en gaine, le bureau à abattant, appelé scriban, les commodes à trois ou quatre tiroirs, rectilignes avec les styles Louis XIV ou Louis XVI, galbées ou mouvementées pour le Louis XV. Presque toujours, ces meubles sont à pans coupés, ce qui leur confère un caractère de légèreté en adoucissant le profil. Souvent, ils forment des combinaisons : un dessus plein ou vitré se posait tout aussi aisément sur une commode ou un scriban que sur un bahut à deux ou trois portes, munis ou non de tiroirs.

Toutes les fantaisies se donnaient libre cours suivant le caprice du client qui passait la commande. Aux moulures, tantôt symétriques, tantôt asymétriques, selon l’ordonnance Louis XIV ou Louis XV, rectilignes avec le style Louis XVI, s’ajoutent de fins décors inspirés de la nature : branches fleuries auxquelles se mêlent les palmettes Louis XIV, les coquilles Régence, les rocailles, les courbes et contrecourbes Louis XV.

Bahut Louis XIV liégeois © drouot.com

Les styles Louis XIV et Louis XV furent connus à peu près en même temps à Liège. Nos ébénistes les amalgamèrent et créèrent un style Régence, bien à eux, qui s’éloigne du calme, de la statique du décor Louis XIV et rejette l’exubérance agitée du décor Louis XV. Il fait incontestablement leur gloire et leur tresse une couronne impérissable. Quant aux meubles Louis XVI, leurs moulures en sont fréquemment brisées : chapelets formés de bâtonnets, de perles, ou les deux motifs associés, alliés à de délicats décors floraux accompagnés de trophées, de nœuds de ruban plissé très gracieux. La décoration du meuble liégeois de l’époque Louis XVI est infiniment plus légère que celle de ses prédécesseurs, plus gracile, et, comme en France, malgré la délicatesse des sculptures, elle annonce la décadence.

Le bois de chêne ciré continuait à avoir la faveur des Liégeois, mais les meubles de marqueterie n’étaient pas dédaignés. Ceux-ci semblent avoir été fabriqués plus particulièrement dans la région de Verviers, témoins les nombreux scribans, les commodes mouvementées ou galbées que l’on y trouve.

Une étude approfondie du meuble liégeois est encore à faire. Il serait possible de mieux dégager les différents centres où œuvrèrent nos artistes, parce qu’ici, le régionalisme joue son plein effet. De plus, les recherches dans les archives permettraient peut-être de rendre un juste hommage à des artistes restés inconnus et d’ajouter leur nom à ceux des Lejeune, des Mélotte, des Herman, dont nous sommes justement fiers.

H. van HEULE, Conservatrice honoraire
des musées archéologiques liégeois

Téléchargez la brochure complète ici…

Tous les meubles figurés sur les planches disponibles dans la DOCUMENTA, ainsi que beaucoup d’autres, sont exposés dans les Musées de la Ville de Liège :


[INFOS QUALITE] statut : validé | mode d’édition : transcription, correction, édition et iconographie | sources : collection privée |  contributeur : Patrick Thonart | crédits illustrations : en-tête, le Musée d’Ansembourg © Visitez Liège ; © drouot.com.


Documenter encore en Wallonie…

HAINE : Les facteurs d’instruments de musique actifs en Wallonie et à Bruxelles en 1985 (Pierre Mardaga, 1985)

Temps de lecture : 10 minutes >

Les facteurs d’instruments de musique en Wallonie et à Bruxelles

LES SECTEURS DE LA FACTURE INSTRUMENTALE

La Communauté française de Belgique en 1985 compte 81 artisans dans la facture instrumentale qui se répartissent en sept catégories :

      1. clavecins et pianoforte 9,
      2. orgues 12,
      3. lutherie 31,
      4. instruments à vent 12,
      5. percussions 3,
      6. instruments mécaniques 6,
      7. instruments populaires 8.

Les facteurs d’instruments rangés dans la catégorie des clavecins fabriquent indifféremment des clavecins ou des instruments plus petits de type épinettes, virginals ou clavicordes. Un seul d’entre eux se consacre aussi à la construction de pianoforte. Tout récemment. un facteur de clavecins vient de décider de mettre sur le marché des pianos munis de sa marque.

Dans le secteur des orgues, les facteurs réalisent principalement des grandes orgues d’église ; quelques-uns fabriquent aussi des orgues positifs de dimensions plus réduites. Une entreprise s’adonne à la fois à la facture des orgues et des clavecins.

La lutherie, les instruments à vent et les instruments populaires présentent une certaine diversité dans leurs spécialisations. Certains luthiers ne se limitent pas à la fabrication des instruments du quatuor moderne ou ancien : les uns se spécialisent dans les violes d’amour, violes de gambes ou barytons, les autres se consacrent aux guitares ou aux luths ; d’autres enfin s’adonnent à la fabrication d’archets ou d’outils de lutherie.

De même, dans les instruments à vent qui se subdivisent en bois et en cuivres, la spécialisation à un type déterminé d’instruments est une pratique courante. Dans les bois, seules des flûtes de type Renaissance ou baroque sont fabriquées dans nos régions. Suite à la forte concurrence étrangère, les instruments à vent en cuivre ne sont pratiquement plus construits chez nous ; seules des entreprises dont la création remonte au 19e siècle ou au début du 20e siècle présentent encore au public des instruments munis de leur marque. La plupart d’entre elles se sont tournées vers l’entretien ou la restauration des cuivres ; la vente d’instruments importés occupe par ailleurs une grande partie de leurs activités. Un seul facteur d’instruments à vent distribue une cinquantaine de modèles divers, à la fois dans les bois et dans les cuivres, qui tous sont marqués de son nom. Mais il faut souligner que c’est à l’étranger que ce facteur fait fabriquer ses produits.

Cornets à bouquin © rtbf.be

Trois artisans se sont tournés vers une activité très spécifique au sein des instruments à vent : le premier fabrique des cornets à bouquin de type Renaissance, le deuxième reproduit des embouchures anciennes, le troisième se spécialise dans des becs de saxophones fabriqués dans des matières diverses.

Le secteur des instruments populaires offre une large variété de types divers. Si l’un ou l’autre facteur se consacre uniquement à la fabrication des cornemuses, des vielles à roue ou des accordéons diatoniques, d’autres s·occupent de plusieurs catégories à la fois: dulcimers, épinettes des Vosges et harpes celtiques.

Enfin, les facteurs d’instruments mécaniques fabriquent surtout des orgues de Barbarie. Deux d’entre eux réalisent également des instruments plus importants de type orchestrion.

La facture instrumentale est un métier essentiellement masculin. Seules trois femmes facteurs exercent cette activité : deux s’occupent de lutherie et une autre de clavecins.

Les artisans de la facture instrumentale ont une moyenne d’âge de 42 ans pour l’ensemble de ses secteurs. Seules les spécialités de la lutherie et des clavecins présentent une moyenne d’âge légèrement inférieure à cette moyenne générale, avec respectivement 39 et 41 ans. Par contre, la moyenne d’âge est légèrement supérieure dans les instruments mécaniques (44 ans), les orgues (45 ans), les instruments populaires (46 ans). les instruments à vent et les percussions (47 ans).

LES SECTEURS NON REPRESENTES : CLOCHES, PIANOS, SYNTHETISEURS

Lorsque l’on observe les divers secteurs de la facture instrumentale dans la Communauté française de Belgique en 1985, on constate que trois catégories d’instruments n’y sont pas représentées : ce sont les cloches, les pianos et les synthétiseurs.

La dernière fonderie de cloches de Wallonie installée à Tellin dans le Luxembourg a fermé ses portes cette année suite au décès de la dernière représentante d’une dynastie de fondeurs se transmettant l’art du métier de père en fils ou de père en filles depuis plusieurs générations.

Quant au secteur des pianos, il n’est plus du tout représenté. Actuellement les pianos vendus sont importés de l’étranger : U.S.A., Allemagne, Autriche, Japon et Corée. La vente des pianos importés se fait soit par des grandes maisons soit par des entreprises familiales plus réduites. Toutes ces maisons ont été créées il y a près d’un siècle : elles produisaient alors leurs propres pianos. Au fil des années, elles sont passées entre les mains de membres d’une même famille.

Alors que la facture de pianos était très florissante au 19e siècle et jusque dans les années 1920, les premières défections s’annoncent dans l’immédiate après-guerre (1945-1950) et continuent tout au long des années qui suivent: Hanlet abandonne la facture en 1960. Van der Elst en 1963 et Hautrive en 1973, pour ne citer que quelques noms.

© superprof

Les raisons de cet abandon sont d’ordres économique et financier : coût trop élevé du matériel de base souvent importé de l’étranger et charges sociales trop lourdes pour la main-d’œuvre occupée. Le coup de grâce est porté lors de l’invasion massive du marché de pianos étranger, notamment allemands et japonais de haute qualité et à des prix nettement plus concurrentiels que ceux pratiqués en France et en Belgique.

Les manufactures existantes se sont alors tournées vers des activités essentiellement commerciales. Pourtant. depuis 1960, la demande ne cesse de progresser (certaines petites entreprises vendent jusqu’à 300 pianos par an !), avec cependant une légère stagnation au cours de ces cinq dernières années, suite à la crise économique. Le système de leasing, location avec option de vente, est désormais pratiqué par tous avec succès (pour certains, il représente même 90 % des revenus). La clientèle est essentiellement formée d’amateurs, auxquels se joignent les grandes institutions professionnelles telles les conservatoires, académies, ou les radios et télévisions belges.

Pourtant, il faut noter que depuis mars 1985, une maison livre à nouveau des pianos modernes, munis de sa marque, à des prix très concurrentiels par rapport aux marques étrangères. Sans doute est-il trop tôt pour estimer la présence d’une relance dans ce secteur tout au moins peut-on parler d’un renouveau, ou en tous cas d’une tentative pour faire face aux marques étrangères. La structure d’exploitation de cette maison permet de prendre le risque d’une telle aventure. Sans doute faudra-t-il attendre encore quelques années avant de pouvoir estimer si ce secteur a réellement quelques chances de renaître dans nos régions.

Les synthétiseurs sont les derniers venus sur le marché des instruments de musique. La demande est importante mais aucun appareil n’est conçu ni réalisé, ni même assemblé dans nos régions. La majorité des synthétiseurs sont importés du Japon (marques Yamada. Korg, Kawai, Roland) ou des U.S.A. (Oberheim, Sequential Circuits, EM, MOC). Au niveau européen, la République Fédérale d’Allemagne et l’Italie se présentent comme les deux grands constructeurs, travaillant néanmoins en grande partie sous licence américaine. Enfin, la marque australienne Fairlight est à l’heure actuelle considérée comme produisant le synthétiseur le plus performant.

REPARTITION GEOGRAPHIQUE

Tels qu’ils sont répartis dans le tableau [disponible dans le catalogue], les 81 facteurs d’instruments de musique sont installés pour près de deux tiers en Wallonie et pour un tiers à Bruxelles (voir cartes pp. 12 et 13). La province la plus riche en facteurs d’instruments de musique est le Hainaut ( 17) suivie de Liège ( 14), du Brabant (11), de Namur (8) et du Luxembourg (3). Aucune province ne compte des facteurs de toutes les spécialités : de même, on ne peut dire que tel ou tel secteur est davantage implanté dans une région déterminée. Néanmoins. les facteurs d’orgues, les facteurs d’instruments mécaniques et d’instruments populaires préfèrent la province à la capitale. Le Brabant semble offrir le plus de variétés puisque seule la catégorie des percussions n’y est pas représentée.

A l’intérieur de la capitale, les facteurs d’instruments de musique sont dispersés dans plusieurs communes. Certes, trois luthiers se sont installés au cœur même de Bruxelles, dans le quartier du Sablon. près du Conservatoire royal de Musique, et deux facteurs-marchands d’instruments à vent se trouvent au centre-ville. Les communes situées au sud de Bruxelles-ville semblent être davantage choisies comme lieu d’exploitation, quoique celles du nord ne soient pas pour autant complètement désertées.

Près d’un quart des facteurs, principalement les luthiers, connaissent plusieurs lieux d’exploitation. Souvent, ils changent de commune lorsqu’ils habitent Bruxelles, mais ils ne se dirigent pas nécessairement vers le centre ville. Quelques luthiers de province viennent s’installer à Bruxelles. Mais c’est plutôt le mouvement inverse que l’on observe d’une manière générale : les facteurs d’instruments de musique qui ont acquis un certain renom dans la capitale quittent celle-ci pour s’installer en province. Il faut par ailleurs remarquer que ces facteurs ne choisissent pas nécessairement les villes pour y fixer leur atelier ; au contraire, ils semblent préférer la campagne.

La grande majorité des facteurs sont de souche wallonne ou bruxelloise. Seuls six d’entre eux sont d’origine étrangère (un Français, un Italien, deux Allemands. un Anglais, un Néo-Zélandais).

APPRENTISSAGE ET FORMATION

En général, la formation des artisans de la facture instrumentale est très diversifiée. L’apprentissage en autodidacte se rencontre fréquemment parmi les luthiers (50 %), les facteurs d’instruments à vent en bois ou les facteurs d’instruments mécaniques (50 %), alors qu’il est nettement plus rare chez les facteurs d’orgues ou les facteurs de clavecins (10 %).

L’apprentissage se fait soit par des stages auprès de facteurs étrangers (50 % ) ou belges (35 % ), soit par des études dans des écoles de facture instrumentale (15 %).

La plupart des facteurs d’orgues et de clavecins ont d’abord acquis une formation de menuisier ou d’ébéniste avant d’entreprendre une spécialisation dans la facture instrumentale. Il faut également noter que 30 % des facteurs d’instruments à vent et d’instruments à percussion ont acquis leur formation dans les ateliers paternels. La majorité des facteurs connaissent la pratique des instruments qu’ils fabriquent. Ils sont quasiment tous instrumentistes amateurs ou, dans quelques cas, professionnels ; certains ont un diplôme du Conservatoire. La plupart des facteurs d’instruments populaires font partie de groupes folkloriques ou de musiques populaires.

Benoît Paulis est le seul facteur d’orgues de barbarie wallon (2023) © Pauliphonic

Quelques facteurs bénéficient aussi d’une formation de musicologue (sortis des universités francophones du pays).

Il existe deux écoles de facture instrumentale dans la partie flamande du pays, une créée en 1976 à Puurs, le Centrum voor Muziekinstmmentenbouw, et l’autre créée en 1981 comme section de l’école technique provinciale de Boom. La première de ces écoles procure un diplôme de formation sociale complémentaire tandis que la section de Boom délivre un diplôme technique. Dans chacune de ces écoles. les cours de facture instrumentale s’insèrent dans un programme de cours généraux dispensés pendant trois ans par des luthiers de métier. Chaque école compte une trentaine d’étudiants qui tous reçoivent une formation de luthier. Il semble qu’il n’y ait pas de cours concernant les autres spécialités : ni la facture d’orgues ni celle de clavecins. Il n’existe pas d’écoles semblables en Wallonie (voir p. 25).

Les deux tiers des facteurs d’instruments de musique actuels de Wallonie et de Bruxelles se sont installés à leur compte après 1971 ; plus précisément, la plupart de ceux-ci ont commencé la facture instrumentale entre 1976 et 1980, suite au renouveau de la musique ancienne. Toutefois, le mouvement s’est amorcé dès les années 1965-1975 avec une dizaine d’artisans débutant dans ce métier  Par contre. depuis 1981, il semble qu’il y ait un net ralentissement dans le nombre de nouveaux facteurs.

Les facteurs d’instruments de musique s’installent à leur compte généralement vers l’âge de 30 ans. Toutefois, selon les spécialités, on constate de légères variations oscillant entre 27 ans (facture d’orgues) et 35 ans (instruments populaires). Il faut cependant remarquer qu’il est parfois assez malaisé de préciser exactement le début de leurs activités de facteur : la plupart commencent en amateur, bien souvent en sus d’une autre activité professionnelle qu’ils n’abandonnent d’ailleurs parfois pas complètement. Ce lent démarrage n’est bien entendu possible que dans les secteurs qui ne nécessitent pas de capitaux importants de départ.

Mais pour une fabrication continue et de choix. il faut toutefois investir dans des réserves de bois importantes qu’on laisse sécher plusieurs années. Dans le secteur des orgues, le montant des capitaux nécessaires est par ailleurs plus important.

D’où viennent ces capitaux de départ ? Quelques luthiers et facteurs de clavecins installés après 1970 ont remporté une bourse de la Fondation belge de la Vocation qui leur a permis un démarrage plus facile. D’autres ont bénéficié d’un emprunt spécial jeune ; certains possèdent des économies personnelles provenant d’une autre occupation principale ou de facilités familiales.

Si la grande majorité des facteurs d’instruments de musique de Wallonie et de Bruxelles ont ouvert de nouveaux ateliers en s’installant à leur compte, il faut remarquer qu’il existe quelques entreprises à tradition familiale. Six d’entre eux en sont à leur deuxième ou troisième génération de facteurs d’instruments : Gomrée (orgues), Schumacher (orgues), Thirion (instruments mécaniques), Camurat (lutherie), Bantuelle (cuivres), Kerkhofs (cuivres), Maheu (cuivres) (certains toutefois se sont à présent convertis uniquement dans la vente d’instruments) ; huit facteurs d’instruments appartiennent à des maisons qui remontent au 19e siècle : la maison Delmotte (orgues) date de 1812, la maison Kaufmann (clavecins) quoique créée à l’étranger remonte à 1828, la maison Mahillon (cuivres) est fondée en 1836 et passe aux mains de Steenhuysen en 1939, la maison Bernard (lutherie) est ouverte en 1868, la maison Van Linthout (cuivres) a débuté en 1870, la maison Persy (cuivres) s’est établie en 1897, la maison Maheu (cuivres) débute en 1890 et la maison Biesemans (percussions) commence en 1908.

MILIEU FAMILIAL

La moitié des facteurs d’instruments de musique sont issus d’une famille dont les parents exerçaient, dans 30 % des cas, une profession libérale (médecin, industriel, avocat) et, dans 20 % des cas, des activités dans la facture instrumentale. Pour le reste, on peut dénombrer 11 % appartenant à un milieu ouvrier (verrier, tourneur, menuisier, textile, tôlier), 10 % issu d’un milieu d’artistes (musicien professionnel, peintre, photographe), 8 % d’un milieu de petits commerçants (boucher, pâtissier), 7 % d’un milieu d’enseignants (instituteur, régent, professeur dans le secondaire). Un dernier groupe représentant 14 % de l’ensemble des facteurs d’instruments de musique s’apparente à des milieux divers : comptable, employé, chef de gare, officier dans l’armée de l’air ou ébéniste.

Dans la catégorie des facteurs de clavecins, des luthiers, des facteurs d’instruments à vent en bois, on remarque une nette tendance à l’appartenance à un milieu familial de type professions libérales. La majeure partie des facteurs d’orgues et des facteurs d’instruments à vent en cuivre est issue d’un milieu de facteurs d’instruments de musique. Quant aux facteurs d’instruments mécaniques, ils appartiennent à un milieu plus populaire. […]

Suivent les sujets suivants :

      • Structures d’exploitation
        • Artisan ou chef d’entreprise ?
        • Nature des activités
        • Activité principale ou activité secondaire ?
        • Choix du métier
        • Clientèle
      • Importance de la production
        • Evolution au cours des dernières années
        • Publicité
        • Prix des instruments
        • Difficultés économique
        • Frais et répartition des charges
      • Initiatives souhaitées
        • Au niveau des professionnels
        • Au niveau des pouvoirs publics
La suite est disponible dans le PDF complet avec reconnaissance de caractères, à télécharger dans la DOCUMENTA. L’ouvrage présente également une fiche individuelle pour chacun des 82 facteurs identifiés par l’étude… en 1985.

[INFOS QUALITE] statut : validé | mode d’édition : transcription, correction, édition et iconographie | sources : Pierre Mardaga, éditeur |  contributeur : Patrick Thonart | crédits illustrations : © Pierre Mardaga ; © rtbf.be ; © superprof ; © pauliphonic.


Plus de musique en Wallonie…

THONART : Intelligence artificielle et artifices de l’intelligence (2024)

Temps de lecture : 25 minutes >

Mises-en-bouche

Fidèles lecteurs, je sais qu’une question lancinante vous taraude, au point d’avoir pris plus d’un apéritif avant de vous mettre devant cet écran, afin de noyer votre malaise existentiel avant de commencer à lire. Plus précisément, deux interrogations vous minent le moral. La première concerne la longueur de cet article (“Vais-je prendre plus de temps pour lire et comprendre cet article que le minutage calculé automatiquement et affiché dans l’en-tête ?”) et la seconde, nous l’avons tous et toutes en tête, tient en une question simple : “Allons-nous un jour lire dans wallonica.org des articles rédigés par un robot doté d’un moteur d’Intelligence Artificielle, afin de nous rapprocher plus rapidement de la Vérité ?”

Aux deux questions, la réponse est “non”, selon moi. Selon moi et selon l’algorithme simple grâce auquel je surveille le décompte des mots de mon texte. Il me confirme qu’il tourne autour des 6.000 mots, soit moins de 25 minutes de lecture. Ensuite, pour répondre à la question 2 : il y a peu de chances qu’un robot, fut-il assez rusé pour passer le filtre de nos interviews préliminaires, puisse un jour être actif au sein de notre équipe et y exercer son intelligence… artificielle.

Sans vouloir manquer de respect envers mes voisins ou mes amis (ce sont quelquefois les mêmes), je ne doute pas qu’un robot puisse faire le service pendant une de nos fêtes de quartier, d’autant qu’on l’aura probablement équipé de bras supplémentaires pour rendre la tâche plus aisée. Mais je doute par contre que je puisse partager avec lui la joie de ce genre de festivités, comme je le fais avec mes amis voisins, que je présuppose honnêtes et libres.

Car libres, les algorithmes ne sont pas – ils sont prisonniers de leurs cartes-mémoire – et, honnêtes, ils le sont d’autant moins puisque, lorsqu’on leur demande de dire la Vérité, ils en inventent une qui est… statistiquement la plus probable !

Pour filer le parallèle, en adoptant de nouveaux amis, je mise premièrement sur leur liberté de pensée qui permettra des échanges sains ; je parie ensuite sur leur probité en ceci que j’attends, en retour de ma confiance, qu’ils partagent en toute sincérité leur expérience de vie ; enfin, puisque nous savons que de Vérité il n’y a pas, j’espère que toute vérité individuelle qu’ils soumettraient au cours de nos échanges soit la plus pertinente… et pas celle qui me séduirait le plus probablement.

La liberté, la probité et la pertinence : voilà trois points de comparaison entre intelligence artificielle et intelligence humaine qui peuvent nous aider à déduire le travail à entreprendre, pour ne pas vivre une singularité de l’histoire de l’humanité, où les seuls prénoms disponibles pour nos enfants resteraient Siri, Alexa ou leur pendants masculins…

Pour mémoire, le mot singularité – ici, singularité technologique – désigne ce point de rupture où le développement d’une technique devient trop rapide pour que les anciens schémas permettent de prévoir la suite des événements. La même notion est employée pour décrire ce qui se passe à proximité d’un trou noir : les grandeurs qui d’habitude décrivent l’espace-temps y deviennent infinies et ne permettent plus de description au départ des paramètres connus.

Mais, revenons à l’Intelligence Artificielle car tout débat a besoin d’un contexte. A moins de croire en un dieu quelconque, aucun objet de pensée ne peut décemment être discuté dans l’absolu et, cet absolu, nous n’y avons pas accès. Alors versons au dossier différentes pièces, à titre de mises en bouche…

Pièce n°1

Brièvement d’abord, un panneau affiché dans une bibliothèque anglophone évoque la menace d’un grand remplacement avec beaucoup d’humour (merci FaceBook), je traduis : “Merci de ne pas manger dans la bibliothèque : les fourmis vont pénétrer dans la bibliothèque, apprendre à lire et devenir trop intelligentes. La connaissance c’est le pouvoir, et le pouvoir corrompt, donc elles vont devenir malfaisantes et prendre le contrôle du monde. Sauvez-nous de l’apocalypse des fourmis malfaisantes.

© NA

Au temps pour les complotistes de tout poil : l’intelligence artificielle est un merveilleux support de panique, puisqu’on ne la comprend pas. Qui plus est, l’AI (ou IA, en français) est un sujet porteur pour les médias et je ne doute pas que les sociétés informatiques qui en vendent se frottent les mains face au succès de ce nouveau ‘marronnier‘, qui trouve sa place dans les gros titres des périodes sans scoop : “Adaptez notre régime minceur avant l’été“, “Elvis Presley n’est pas mort : les archives de la CIA le prouvent“, “L’intelligence artificielle signe la fin de l’humanité” et, si vraiment on n’a plus rien à dire, un dossier sur les “Secrets de la Franc-Maçonnerie“. Plus on en parle, plus on en vend, ne l’oubliez pas.

Pièce n°2

Moins rigolo mais toujours dans des domaines prisés par les alarmistes, la confidentialité serait mise à mal par l’utilisation des IA. Là, on revient à la réalité : pour répondre à des cahiers spéciaux des charges de plus en plus exigeants et dévoreurs de temps, beaucoup de responsables commerciaux s’adjoignent l’assistance de ChatGPT (licence payante) pour rédiger leur documents de soumission et, ce faisant, partagent des données confidentielles de leur entreprise avec le GPT (GPT signifie en anglais Generative Pre-trained Transformer, soit transformeur génératif pré-entraîné que j’aurais plutôt traduit par ‘transformateur’). Si c’est confortable, économise beaucoup de temps et donne des résultats surprenants de pertinence en termes techniques, cela reste une faute professionnelle grave !

Autre chose est l’utilisation individuelle du même outil (même licence payante) par des consultants indépendants qui doivent également ‘pisser à la copie’, comme on dit, et qui demandent à ChatGPT une première version du texte qu’ils doivent rédiger, un brouillon, un draft, sur lequel ils reviennent ensuite pour lui donner ‘forme humaine’.

Pièce n°3

J’en ai moi-même fait l’expérience lorsqu’il m’a fallu rédiger un article nécrologique sur André Stas dans ces pages. André Stas était un artiste pataphysicien liégeois né en 1949, qui vient de passer l’arme à gauche en 2023. Par curiosité, j’ai demandé à ChatGPT qui était André Stas.

Réponse du robot : “André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. […] Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. […] Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.” Impressionnant ! Surtout la qualité du français !

André Stas © rtbf.be

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est à nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre : “Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

Le chimiste belge évoqué s’appelait en fait Jean-Servais Stas ; la datation donnée (1813-1864) aurait dû être (1813-1891) et, personnellement, j’avais l’habitude de situer ces dates au XIXe siècle, et non au XXe ; par ailleurs, notre André Stas n’était pas un inconnu ! La messe est dite !

Pièce n°4

Une expérience similaire a été faite par le sémanticien français, Michelange Baudoux, qui a donné à ChatGPT le devoir suivant : “Quelles sont les trois caractéristiques les plus importantes de l’humour chez Rabelais ? Illustre chaque caractéristique avec un exemple suivi d’une citation avec référence à la page exacte dans une édition de ton choix.” Du niveau BAC, du lourd…

Avec l’apparence d’une totale confiance en soi, le robot a répondu par un texte complet et circonstancié, qui commençait par le nécessaire “Voici trois caractéristiques de l’humour chez Rabelais, illustrées avec des exemples et des citations…” Vérification faite, les trois caractéristiques étaient crédibles mais… les citations étaient inventées de toutes pièces et elles étaient extraites d’un livre… qui n’a jamais existé. J’ai partagé son article dans notre revue de presse : il y explique pourquoi, selon lui, ‘intelligence artificielle’ est un oxymore (un terme contradictoire). Détail amusant : il tutoie spontanément le robot qu’il interroge. Pourquoi cette familiarité ?

Pièce n°5

Le grand remplacement n’est pas qu’un terme raciste, il existe aussi dans le monde de la sociologie du travail. “Les machines vont-elles nous remplacer professionnellement” était le thème d’un colloque de l’ULiège auquel j’ai assisté et au cours duquel un chercheur gantois a remis les pendules à l’heure sur le sujet. Il a corrigé deux points cruciaux qui, jusque là, justifiaient les cris d’orfraie du Forem et des syndicats. Le premier concernait l’étude anglaise qui aurait affirmé que 50 % des métiers seraient exercés par des robots en 2050. Le texte original disait “pourrait techniquement être exercés“, ce qui est tout autre chose et avait échappé aux journalistes qui avaient sauté sur le scoop. D’autant plus que, deuxième correction : si la puissance de calcul des Intelligences Artificielles connaît une croissance exponentielle (pour les littéraires : ça veut dire “beaucoup et chaque fois beaucoup plus“), les progrès de la robotique qui permet l’automatisation des tâches sont d’une lenteur à rendre jaloux un singe paresseux sous Xanax. Bonne nouvelle, donc, pour nos voisins ils garderont leur job derrière le bar de la fête en Pierreuse.

Pièce n°6

Dans le même registre (celui du grand remplacement professionnel, pas de la manière de servir 3 bières à la fois), les juristes anglo-saxons sont moins frileux et, même, sont assez demandeurs d’un fouineur digital qui puisse effectuer des recherches rapides dans la jurisprudence, c’est à dire, dans le corpus gigantesque de toutes les décisions prises dans l’histoire de la Common Law, le système de droit appliqué par les pays anglo-saxons. Il est alors question que l’Intelligence Artificielle dépouille des millions de références pour isoler celles qui sont pertinentes dans l’affaire concernée plutôt que de vraiment déléguer la rédaction des conclusions à soumettre au Juge. Je demanderai discrètement à mes copains juristes s’ils font ou non appel à ChatGPT pour lesdites conclusions…

Pièce n°7

Dernière expérience, celle de la crise de foie. Moi qui vous parle, j’en ai connu des vraies et ça se soigne avec de l’Elixir du Suédois (je vous le recommande pendant les périodes de fêtes). Mais il y a aussi les problèmes de foie symboliques : là où cet organe nous sert à s’approprier les aliments que nous devons digérer et à en éliminer les substances toxiques, il représente symboliquement la révolte et la colère… peut-être contre la réalité. C’est ainsi que le Titan Prométhée (étymologiquement : le Prévoyant), représentera la révolte contre les dieux, lui qui a dérobé le feu de l’Olympe pour offrir aux hommes les moyens de développer leurs premières technologies, leurs premiers outils. Zeus n’a pas apprécié et l’a condamné à être enchaîné sur un rocher (la matière, toujours la matière) et à voir son foie dévoré chaque jour par un aigle, ledit foie repoussant chaque nuit. Il sera ensuite libéré par Hercule au cours de la septième saison sur Netflix.

IA : un marteau sans maître ?

Le mythe de Prométhée est souvent brandi comme un avertissement contre la confiance excessive de l’homme en ses technologies. De fait, l’angoisse des frustrés du futur, des apocalyptophiles, comme des amateurs de science-fiction alarmiste, porte sur la révolte des machines, ce moment affreux où les dispositifs prendraient le pouvoir.

© Côté

Les robots, développés par des hommes trop confiants en leurs capacités intellectuelles, nous domineraient en des beaux matins qui ne chanteraient plus et qui sentiraient l’huile-moteur. Nous serions alors esclaves des flux de téra-octets circulant entre les différents capteurs de Robocops surdimensionnés, malveillants et ignorants des 3 lois de la robotique formulées par Isaac Asimov en… 1942. Je les cite :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Une illustration magnifique de ce moment-là est donnée par Stanley Kubrick dans son film 2001, l’odyssée de l’espace. Souvenez-vous : une expédition scientifique est envoyée dans l’espace avec un équipage de 5 humains, dont trois sont en léthargie (il n’y a donc que deux astronautes actifs) ; cet équipage est secondé par un robot, une Intelligence Artificielle programmée pour réaliser la mission et baptisée HAL (si vous décalez d’un cran chaque lettre, cela donne IBM). HAL n’est qu’intelligence, au point qu’il va éliminer les astronautes quand ceux-ci, pauvres humains, menaceront le succès de la mission. Pour lui, il n’y a pas de volonté de détruire : il est simplement logique d’éliminer les obstacles qui surgissent, fussent-ils des êtres humains.

© Metro Goldwyn Mayer / Collection Christophel

Kubrick fait de HAL un hors-la-loi selon Asimov (il détruit des êtres humains) mais pousse le raffinement jusqu’à une scène très ambiguë où, alors que Dave, le héros qui a survécu, débranche une à une les barrettes de mémoire du robot, celui-ci affirme : “J’ai peur“, “Mon esprit s’en va, je le sens…” Génie du réalisateur qui s’amuse à brouiller les cartes : une Intelligence Artificielle connaît-elle la peur ? Un robot a-t-il un esprit ? Car, si c’est le cas et que HAL n’est pas simplement un monstre de logique qui compare les situations nouvelles aux scénarios prévus dans sa mémoire, l’Intelligence Artificielle de Kubrick a consciemment commis des assassinats et peut être déclarée ‘coupable’…

A la lecture de ces différentes pièces, on peut garder dans notre manche quelques mots-miroirs pour plus tard. Des mots comme ‘menace extérieure’, ‘dispositif’, ‘avenir technologique’, ‘grand remplacement’, ‘confiance dans la machine’, ‘intelligence froide’, ‘rapport logique’ et, pourrait-on ajouter : ‘intellect‘, conscience‘ et ‘menace intérieure‘, nous allons y venir.

Mais, tout d’abord, il faudrait peut-être qu’on y voie un peu plus clair sur comment fonctionne une Intelligence Artificielle (le calculateur, pas la machine mécanique qui, elle, s’appelle un robot). Pour vous l’expliquer, je vais retourner… au début de mes années nonante !

A l’époque, je donnais des cours de traduction à l’ISTI et j’avais été contacté par Siemens pour des recherches sur leur projet de traduction automatique METAL. C’était déjà une application de l’Intelligence Artificielle et le terme était déjà employé dans leurs documents, depuis le début des travaux… en 1961. METAL était l’acronyme de Mechanical Translation and Analysis of Languages. On sentait déjà les deux tendances dans le seul nom du projet : traduction mécanique pour le clan des pro-robotique et analyse linguistique pour le clan des humanistes. Certaines paires de langues avaient déjà été développées par les initiateurs du projet, l’Université du Texas, notamment le module de traduction du Russe vers l’Anglais (on se demande pourquoi, en pleine période de guerre froide).

Couverture du dossier METAL dans notre DOCUMENTA… © Siemens

Siemens a repris le flambeau sans connaître le succès escompté, car le modèle de METAL demandait trop… d’intelligence artificielle. Je m’explique brièvement. Le projet était magnifique et totalement idéaliste. Noam Chomsky – qui n’est pas que le philosophe qu’on connaît aujourd’hui – avait développé ce que l’on appelait alors la Grammaire Générative et Transformationnelle. En bon structuraliste, il estimait que toute phrase est générée selon des schémas propre à une langue, mais également qu’il existe une structure du discours universelle, à laquelle on peut ramener les différentes langues usuelles. C’est cette hypothèse que devait utiliser METAL pour traduire automatiquement :

      1. en décomposant la syntaxe de la phrase-source en blocs linguistiques [sujet] [verbe de type A] [attribut lié au type A] ou [sujet] [verbe de type B] [objet lié au type B], etc.,
      2. en identifiant les expressions idiomatiques traduisibles directement (ex. le français ‘tromper son partenaire‘ traduit le flamand ‘buiten de pot pissen‘, littéralement ‘pisser hors du pot‘ : on ne traduit pas la phrase mais on prend l’équivalent idiomatique) puis
      3. en transposant le résultat de l’analyse dans la syntaxe de la langue-cible puis
      4. en traduisant les mots qui rentrent dans chacun des blocs.

Deux exemples :

      1. FR : “Enchanté !” > UK : “How do you do !” > expression idiomatique que l’on peut transposer sans traduire la phrase ;
      2. FR : “Mon voisin la joue fair play” > UK : “My neighbour is being fair” > phrase où la syntaxe doit être analysée + une expression idiomatique.

Le schéma utilisé par les ingénieurs de METAL pour expliquer le modèle montrait une espèce de pyramide où les phases d’analyse montaient le long d’un côté et les phases de génération de la traduction descendaient de l’autre, avec, à chaque étage, ce qui pouvait être traduit de la langue source à la langue cible (donc, un étage pour ce qui avait déjà été traduit et pouvait être généré tel quel ; un étage pour les expressions idiomatiques à traduire par leur équivalent dans la langue cible ; un étage pour les phrases de type A demandant analyse, puis un étage pour celles de type B, etc.). Le tout supposait l’existence d’une langue “virtuelle” postée au sommet de la pyramide, une langue théorique, désincarnée, universelle, un schéma commun à la langue source comme à la langue cible : voilà un concept universaliste que la machine n’a pas pu gérer… faute d’intelligence. Sisyphe a donc encore de beaux jours devant lui…

Ce grand rêve Chomskien (doit-on dire humaniste) de langue universelle a alors été balayé du revers de la main, pour des raisons économiques, et on en est revenu au modèle bon-marché des correspondances de un à un de SYSTRAN, un autre projet plus populaire qui alignait des paires de phrases traduites que les utilisateurs corrigeaient au fil de leur utilisation, améliorant la base de données à chaque modification… quand tout allait bien. C’est le modèle qui, je pense, tourne aujourd’hui derrière un site comme LINGUEE.FR ou GOOGLE TRANSLATE.

Pour reprendre les mêmes exemples, si vous demandez la traduction de ‘enchanté‘ hors contexte vous pouvez obtenir ‘charmed‘ ou ‘enchanted‘ (à savoir charmé, enchanté par un sort) aussi bien que “How do you do !” Pour la deuxième phrase, si vous interrogez LINGUEE.FR, et que vous constatez que la traduction anglaise enregistrée est “My donut is being fair” (ce qui équivaut à “Mon beignet est blondinet“), votre correction améliorera automatiquement la mémoire de référence et ainsi de suite…

A l’époque, nous utilisions déjà des applications de TAO (ce n’est pas de la philosophie, ici : T.A.O. est l’acronyme de Traduction Assistée par Ordinateur). Elles fonctionnaient selon le même modèle. Dans notre traitement de texte, il suffisait d’ouvrir la mémoire de traduction fournie par le client (Toyota, Ikea ou John Deere, par exemple), c’est-à-dire, virtuellement, un gigantesque tableau à deux colonnes : imaginez simplement une colonne de gauche pour les phrases en anglais et, en regard, sur la droite, une colonne pour leurs traductions déjà faites en français.

© trados.com

On réglait ensuite le degré de similarité avec lequel on voulait travailler. 80% voulait dire qu’on demandait à l’application de nous fournir toute traduction déjà faite pour ce client-là qui ressemblait au minimum à 80% à la phrase à traduire.

Exemple pour un mode d’emploi IKEA : je dois traduire l’équivalent de “Introduire la vis A23 dans le trou préforé Z42” et cette phrase est similaire à plus de 80% à la phrase, déjà traduite dans la mémoire, “Introduire le tenon A12 dans le trou préforé B7“. Le logiciel me proposera la traduction existant dans sa mémoire comme un brouillon fiable puisqu’elle est exacte… à plus de 80%.

La seule différence avec l’Intelligence Artificielle dont nous parlons aujourd’hui est que le GPT répond avec assurance, comme s’il disait la vérité… à 100% ! Dans cet exemple, dire que le moteur informatique d’Intelligence Artificielle est malhonnête serait une insulte pour notre intelligence… humaine : un algorithme n’a pas conscience de valeurs comme la droiture ou, comme nous le disions, comme la probité.

Ceci nous renvoie plutôt à nous-mêmes, au statut que nous accordons, en bon prométhéens, à un simple outil ! Si Kubrick brouille les cartes (mémoire) avec la possibilité d’un robot doté d’une conscience en… 1968, il est beaucoup plus sérieux quand il montre le risque encouru, si l’on donne les clefs du château à un dispositif dont le fonctionnement est purement logique (je n’ai pas dit ‘raisonnable’). Dans son film, il y a bel et bien mort d’homme… du fait d’un robot !

Le maître sans marteau ?

La problématique n’est pas nouvelle. Depuis l’histoire de Prométhée et du feu donné aux hommes, beaucoup de penseurs plus autorisés que nous ont déjà exploré la relation de l’Homme avec ses dispositifs. Des malins comme Giorgio Agamben, Jacques Ellul, Michel Foucault ou le bon vieux Jacques Dufresne, ont questionné notre perception du monde, l’appropriation de notre environnement, selon qu’elle passe ou non par des dispositifs intermédiaires, en un mot, par des médias au sens large.

© Gary Larson

C’est ainsi que différence est faite entre, d’une part, la connaissance immédiate que nous pouvons acquérir de notre environnement (exemple : quand vous vous asseyez sur une punaise et que vous prenez conscience de son existence par la sensation de douleur aux fesses émise dans votre cerveau) et, d’autre part, la connaissance médiate, celle qui passe par un dispositif intermédiaire, un médium. Par  exemple : je ne pourrais pas écrire cet article, sans l’aide de mes lunettes.

Ces lunettes sont un dispositif passif qui m’aide à prendre connaissance de mon environnement dans des conditions améliorées. Dans ce cas, le dispositif est un intermédiaire dont la probité ne fait aucun doute : je conçois mal que mes lunettes faussent volontairement la vision du monde physique qui m’entoure. Dans ce cas, les deux types de connaissance – immédiate et médiate – restent alignées, ce qui est parfait dans un contexte technique, où l’outil se contente d’augmenter passivement les capacités de mon corps, là où elles sont déficientes.

Mais qu’en est-il lorsque l’outil, le dispositif – mécanique, humain ou même conceptuel : il est un intermédiaire entre moi et le monde à percevoir – est actif, que ce soit par nature (le dispositif a une volonté propre, comme lorsque vous apprenez la situation politique d’un pays au travers d’un article tendancieux) ou par programmation (exemple : l’algorithme de Google qui propose des réponses paramétrées selon mon profil d’utilisation du moteur de recherche). Dans ces cas d’espèce, le dispositif m’offre activement une vue déformée de mon environnement, un biais défini par ailleurs, pas par moi, et selon les cas, avec neutralité, bienveillance ou… malveillance.

Transposé dans le monde des idées, l’exemple type, la quintessence d’un tel dispositif intermédiaire actif qui offre à notre conscience une vue biaisée du monde autour de nous est, tout simplement, le… dogme. Le dogme – et au-delà du dogme, la notion même de Vérité – le dogme connaît le monde mieux que nous, sait mieux que nous comment aborder notre expérience personnelle et dispose souvent de sa police privée pour faire respecter cette vision. Si nous lui faisons confiance, le dogme se positionne comme un médium déformant, un intermédiaire pas réglo, placé entre le monde qui nous entoure et la connaissance que nous en avons.

CNRTL : “DOGME, subst. masc., Proposition théorique établie comme vérité indiscutable par l’autorité qui régit une certaine communauté. Un dogme moral, métaphysique ; le dogme du fatalisme ; “À mesure que les peuples croiront moins, soit à un dogme, soit à une idée, ils mourront moins volontiers et moins noblement” (Lamartine) ; “Hélas ! à quels docteurs faut-il que je me fie ? La leçon des Anciens, dogme ou philosophie, Ne m’a rien enseigné que la crainte et l’orgueil ; Ne m’abandonne pas, toi, qui seule, ô science, Sais forger dans la preuve une ancre à la croyance ! Le doute est douloureux à traîner, comme un deuil.” (Sully Prudhomme).

Aborder le dogme – ou, par exemple, l’intégrisme woke ou la religion – sous l’angle de l’intermédiaire, du dispositif, ce n’est pas nouveau et la connaissance proposée aux adeptes d’un dogme organisé a ceci de particulier que, non seulement il s’agit d’une connaissance médiate, mais que, ici, le medium est une fin en soi, qu’il définit en lui la totalité de la connaissance visée. De cette manière, un ‘religieux’ pourrait se retirer du monde et s’appuyer sur les seules Écritures pour conférer sur la morale ou sur la nécessité de payer son parking en période de soldes.

Or, dans mon approche de la Connaissance, je peux difficilement me satisfaire d’une image du monde fixe et prédéfinie, qui resterait à découvrir (ce qui suppose une énigme à résoudre) ou qui serait déjà consignée dans des textes codés, gardés par Dan Brown avec la complicité de Harry Quebert : ceci impliquerait que cette vérité ultime existe quelque part, comme dans le monde des Idées de Platon, qu’elle soit éternelle et que seuls certains d’entre nous puissent y avoir accès.

© BnF

Or, c’est le travail, et non la croyance, qui est au centre de toutes nos représentations de l’Honnête Homme (et de l’Honnête Femme, bien entendu) et nous naviguons chaque jour de veille entre les rayons d’un Brico spirituel qui, de la culture à l’intuition vitale, nous invite à la pratique de notre humanité, à trouver la Joie dans le sage exercice de notre puissance d’être humain.

Travaillez, prenez de la peine“, “Cent fois sur le métier…“, “Rien n’est fait tant qu’il reste à faire…” : le citoyen responsable, actif, critique et solidaire (les CRACS visés par l’éducation permanente en Belgique) se définit par son travail et, pourrait-on préciser, “par son travail intellectuel.” Or, pour retourner à notre vrai sujet, réfléchir, l’Intelligence Artificielle le fait aussi. Oui, elle le fait, et plus vite, et mieux ! Mais, me direz-vous, le dispositif d’Intelligence Artificielle ne fait que manipuler des savoirs, calculer des données mémorisées, il n’a pas accès à la connaissance comme nous, humains, faute de disposer d’une conscience

Ce que tu ne ramènes pas à ta conscience te reviendra sous forme de destin.

Magnifique citation de Carl-Gustav Jung qui propose lui aussi de travailler, plus précisément de travailler à élargir le champ de notre conscience, à défaut de quoi, nos œillères, nos écailles sur les yeux, nous mettront à la merci de pulsions refoulées ou d’une réalité déformée par nos biais cognitifs.

Pour lui aussi, manifestement, le couple Connaissance-Conscience serait alors le critère qui nous permettrait de faire la différence entre l’Homme et la Machine. On l’opposerait alors au couple Savoirs-Mémoire évoqué au XVIIe par le matheux le plus intéressant de l’histoire de la religion catholique, l’inventeur torturé de la machine à calculer, j’ai nommé : Blaise Pascal. Je le cite : “La conscience est un livre qui doit être consulté sans arrêt.” La conscience est vue ici comme l’ancêtre de la carte-mémoire des Intelligences Artificielles !

Mais, ici encore, de quoi parlons-nous ? Nous voici en fait rentrés dans le périmètre d’une science récente, baptisée la noétique (du grec “noûs” pour connaissance, esprit). Il s’agit de l’étude de la connaissance, sous tous ses aspects.

Endel TULVING est un neuroscientifique canadien d’origine estonienne qui vient de mourir, le 11 septembre dernier. Rassurez-vous, l’homme a d’autres qualités : il a dressé une taxonomie de la conscience en trois types : la conscience autonoétique, la conscience noétique et la conscience anoétique. Je donne la parole à l’anthropologue Paul JORION pour les explications. Il cite un texte de 2023, récent donc :

La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.
La conscience noétique implique une conscience sémantique et conceptuelle sans conscience de soi ; elle implique la capacité d’appliquer des concepts à vos perceptions actuelles et de générer des connaissances à partir de celles-ci.
La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments […] de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.

Au temps pour les définitions. Et, quand le même Paul Jorion demande à ChatGPT, quand il lui demande (et vous remarquerez qu’il vouvoie le robot) : “Où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?“, ledit GPT répond :

Dans la taxonomie tripartite de la conscience d’Endel Tulving, il est important de noter que GPT-3.5, ou tout autre modèle de langage d’IA, ne possède pas de conscience de la même manière que les humains. Les systèmes d’IA tels que GPT-3.5 sont dépourvus d’expériences subjectives, d’émotions, de conscience de soi et de la compréhension profonde associée à la conscience humaine. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises au cours de leur formation. Sur la base de la taxonomie fournie, les capacités de GPT-3.5 pourraient être partiellement classées dans la catégorie de la conscience “noétique” dans une certaine mesure. Il a la capacité de traiter et de générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi ou conscience réflexive. Il peut appliquer des concepts à un texte d’entrée et générer des réponses qui semblent contextuellement pertinentes et cohérentes, ce qui s’apparente au niveau de conscience “noétique” décrit.

En répondant à d’autres questions de Paul Jorion, le GPT remet une couche et insiste (je résume) :

Il existe des différences importantes entre la façon dont les humains apprennent et la façon dont les modèles de langage de l’IA tels que GPT-3 fonctionnent, ce qui contribue aux différences dans leurs capacités et leur conscience : (1) la profondeur et la portée de l’apprentissage… ; (2) la généralisation… ; (3) l’expérience subjective et la conscience… ; (4) la compréhension du contexte… ; et (5) l’apprentissage adaptatif, à savoir que les humains peuvent adapter leurs stratégies d’apprentissage, intégrer de nouvelles informations et réviser leur compréhension au fil du temps. Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données ou s’adapter à des circonstances changeantes.

Le GPT la joue modeste… et il a raison : il ne fait jamais que la synthèse statistiquement la plus logique de ce qu’il a en mémoire ! Plus encore, il aide (sans le savoir vraiment) Paul Jorion à faire le point quand ce dernier lui rappelle que, lorsqu’il lui a parlé un jour de la mort d’un de ses amis, le GPT avait écrit “Mes pensées vont à sa famille…” d’où émotion, donc, pense Jorion. Et le logiciel de préciser :

La phrase “Mes pensées vont à sa famille…” est une réponse socialement appropriée, basée sur des modèles appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel. Le GPT n’a pas de sentiments, de conscience ou de compréhension comme les humains ; ses réponses sont le produit d’associations statistiques dans ses données d’apprentissage.

Comment faut-il nous le dire ? Les Transform(at)eurs Génératifs Pré-entraînés (GPT) disposent d’algorithmes qui dépasse notre entendement, soit, mais seulement en termes de quantité de stockage de données et en termes de puissance combinatoire d’éléments pré-existant dans leur mémoire. Leur capacité à anticiper le mot suivant dans la génération d’une phrase donne des résultats bluffants, peut-être, mais indépendants d’une quelconque conscience. Ils sont très puissants car très rapides. Souvenez-vous de votre cours de physique : la puissance est la force multipliée par la vitesse ! Et n’oublions pas que notre cerveau peut compter sur quelque chose comme 100 milliards de neurones et que le développement récent d’un mini-cerveau artificiel ne comptait que 77.000 neurones et imitait un volume de cerveau équivalent à… 1 mm³ !

Est-ce que ça veut dire que, faute de conscience auto-noétique et a-noétique, l’IA ne représentera aucun danger pour l’humanité avant longtemps ? Je ne sais pas et je m’en fous : la réponse n’est pas à ma portée, je ne peux donc rien en faire pour déterminer mon action.

Mais, est-ce que ça veut dire que nous pouvons faire quelque chose pour limiter le risque, si risque il y a ? Là, je pense que oui et je pense que notre sagesse devrait nous rappeler chaque jour qu’un outil ne sert qu’à augmenter notre propre force et que la beauté de nos lendemains viendra d’une sage volonté de subsistance, pas de notre aveugle volonté de croissance infinie avec l’aide de dispositifs efficaces à tout prix.

Résumons-nous : tout d’abord, qu’une Intelligence Artificielle ne soit pas dotée d’une conscience autonoétique d’elle-même semble acquis actuellement. Qu’elle soit dénuée d’une conscience anoétique qui lui donnerait à tout le moins autant d’instinct qu’un animal semble aussi évident dans l’état actuel de la science informatique. En fait, une Intelligence Artificielle fait, à une vitesse folle, une synthèse statistiquement probable de données présentes dans sa mémoire et génère sa réponse (pour nous) dans un français impeccable mais sans afficher de degré de certitude !

Quant à lui refuser l’accès à une conscience noétique, en d’autres termes “une conscience sémantique et conceptuelle sans conscience de soi“, le questionnement qui en découlerait est au cœur de cet article.

© Thomas Kuhlenbeck/Ikon Images/Corbis

Car, voilà, vous en savez autant que moi, maintenant, nous sommes plus malins, plus savants : nous savons tout de l’Intelligence Artificielle. Nous savons tout de l’intelligence, de la conscience, des rapports de cause à effet. Nous sommes des as de la noétique. Nous avons enregistré tous ces savoirs dans notre mémoire. Nous avons confiance en notre capacité logique. Nous sommes à même d’expliquer les choses en bon français et de répondre à toute question de manière acceptable, à tout le moins crédible, comme des vrais GPT !

D’accord, mais, en sommes-nous pour autant heureux d’être nous-mêmes ? Est-ce que limiter notre satisfaction à cela nous suffit ? Je n’en suis pas convaincu et j’ai l’impression que le trouble que l’on ressent face à la machine, les yeux dans l’objectif de la caméra digitale, cette froideur, ce goût de trop peu, nous pourrions l’attribuer à un doute salutaire qui ne porte pas sur les capacités de ladite machine mais bien sur le fait que le fonctionnement d’une Intelligence Artificielle, manifestement basé sur les mots et les concepts sans conscience de soi, pourrait bien servir de métaphore d’un fonctionnement déviant dont nous, humains, nous rendons trop souvent coupables…

Ce qu’il y a de terrible quand on cherche la vérité, c’est qu’on la trouve.

Quelles qu’aient été les intentions de Remy de Gourmont (un des fondateurs du Mercure de France, mort en 1915) lorsqu’il a écrit cette phrase, elle apporte de l’eau à mon moulin. Il est de fait terrible, quand on cherche la Vérité avec un grand T, d’interroger une Intelligence Artificielle et… de toujours recevoir une réponse. Et on frôle l’horreur absolue, humainement parlant, quand on réalise que cette Vérité tant désirée est statistiquement vraie… à 80% (merci Pareto). Bienvenue en Absurdie !

Ces 80% de ‘certitude statistique’ (un autre oxymore !) donneraient un sourire satisfait au GPT, s’il était capable de satisfaction : il lui faudrait pour cela une conscience de lui-même, de sa propre histoire. Qui plus est, les robots ne sont pas réputés pour être les rois de la passion et de l’affect. Surfant sur les mots et les concepts, une Intelligence Artificielle ne peut pas plus se targuer d’une conscience anoétique, non-verbalisée et reptilienne, on l’a assez dit maintenant.

Reste cette activité dite noétique, nourrie de structures verbales et de concepts, de rapports principalement logiques et de représentations intellectuelles du monde non-validées par l’expérience, bref, d’explications logiques !

C’est avec cette froideur explicative que le robot répond à nos requêtes, fondant son texte sur, postulons, 80% de données pertinentes selon sa programmation, des données exclusivement extraites de sa mémoire interne. Il nous vend la vérité pour le prix du 100% et les 20% qu’il a considérés comme hors de propos sont pour lui du bruit (données extraites non-pertinentes) ou du silence (absence de données). Le GPT nous vend la carte pour le territoire !

Mais n’avons-nous pas aussi, quelquefois, tendance à fonctionner comme des Intelligences Artificielles, à délibérer dans notre for intérieur comme des GPT et à nous nourrir d’explications logiques, générées in silico (c’est-à-dire dans le silicium de notre intellect), générant à volonté des conclusions dites rationnelles, des arguments d’autorité et des rapports de causalité bien éloignés de notre expérience vitale ? Pire encore, ne considérons-nous pas souvent qu’une explication peut tenir lieu de justification et que ce qui est expliqué est d’office légitime ? En procédant ainsi, ne passons-nous pas à côté des 20% restant, négligés par le robot, obsédé qu’il est par ses savoirs, ces 20% qui, pourtant, constituent, pour nous humains, le pourcentage de connaissance bien nécessaire à une saine délibération interne.

Qui plus est, ce faisant, nous ne rendons pas justice à notre Raison : nous clamons qu’elle n’est que science, nous la travestissons en machine savante, logique et scientifique, spécialisée qu’elle serait dans les seules explications intellectuelles. Dans ma vision de l’Honnête Homme, la Raison est autre chose qu’une simple intelligence binaire, synthétisée par un algorithme, verbalisant et conceptualisant tous les phénomènes du monde face auxquels je dois prendre action.

Non, la Raison que j’aime vit d’autre chose que des artifices de l’intellect, plus encore, elle s’en méfie et trempe sa plume dans les 100% de la Vie qui est la mienne, pour répondre à mes interrogations intimes ; elle tempère la froide indépendance de mes facultés logiques avec les caresses et les odeurs de l’expérience, et du doute, et des instincts, avec la peur et l’angoisse et avec la poésie et les symboles qui ne parlent pas la même langue que mes raisonnements, juchés qu’ils sont au sommet de la pyramide de l’intellect.

La Raison que j’aime est dynamique et je la vois comme un curseur intuitif entre deux extrêmes :

      • à une extrémité de la graduation, il y a ce que je baptiserais notre volonté de référence, notre soif inquiète d’explications logiques, de réponses argumentées qui nous permettent de ne pas décider, puisqu’il suffit d’être conforme à ce qui a été établi logiquement,
      • à l’autre extrémité, il y a la volonté d’expérience et le vertige qui en résulte. De ce côté-là, on travaillera plutôt à avoir les épaules aussi larges que sa carrure et on se tiendra prêt à décider, à émettre un jugement subjectif mais sincère.

La pensée libre naît du positionnement du bouton de curseur sur cette échelle, une échelle dont je ne connais pas l’étalonnage et dont la graduation nous permettrait de mesure l’écart entre volonté de référence et volonté d’expérience, plus simplement, entre les moments où je fais primer les explications et les autres où c’est la situation qui préside à mon jugement.

La Raison que j’aime veille en permanence (lorsqu’elle reste bien réveillée) à me rappeler d’où je délibère face aux phénomènes du monde intérieur comme extérieur. Elle m’alerte lorsque je cherche trop d’explications là où l’intuition me permettrait d’avancer ; elle me freine là où mes appétences spontanées manquent de recul. C’est peut-être en cela que la Raison me (nous) permet d’enfin renoncer à la Vérité (qu’elle soit vraie à 80% ou à 100%) !

Dans le beau texte d’Henri Gougaud avec lequel j’aimerais conclure, l’auteur du livre sur les Cathares d’où vient l’extrait compare l’influence du mythe et de la raison sur l’histoire ; mais, nous pouvons le lire en traduisant automatiquement mythe et raison par expérience et référence, la Raison que j’aime mariant les deux dans des proportions variables selon les circonstances. Je cite Gougaud :

Le mythe est accoucheur d’histoire. Il lui donne vie, force, élan. Il fait d’elle, en somme, un lieu à l’abri du non-sens, de l’objectif froid, de l’absurde. La raison s’accommode mal de ses extravagances. Elle fait avec, à contrecœur, comme d’un frère fou dont on craint les ruades et les emportements toujours intempestifs. Elle s’insurge parfois contre les excès de ce proche parent incontrôlable qu’elle nomme, avec un rien de gêne, “imagination populaire”. Elle a besoin d’ordre et d’appuis solides. Elle est sûre, et donc rassurante. Elle nous est à l’évidence un bien infiniment précieux, mais elle n’est guère téméraire. Elle se veut ceinte de remparts, elle tremble si l’on se risque à les franchir car elle ne voit, au-delà de ses territoires, que dangereuse obscurité. Elle sait déduire, analyser, bâtir théories et systèmes. Elle ne peut pas créer la vie. Elle ne peut accoucher d’un être. Le mythe, lui, est fort, mais intenable. Il crée ce que nul n’a prévu. Sur un Jésus crucifié que la science connaît à peine et dont la raison ne sait rien il a enfanté des croisades, des saint François, des cathédrales, deux mille ans de folle espérance, d’horreurs, d’effrois et de chefs-d’oeuvre, un monde, une histoire, la nôtre. Quel homme de raison pouvait prévoir cela?

Tout est dit : les 20% de Connaissance que nous ne partageons décidément pas avec les Intelligences Artificielles ont encore un bel avenir dans mon quartier. Il est vrai qu’entre voisins, nous ne tutoyons que les vivants !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, iconographie et documentation | auteur : Patrick Thonart | crédits illustrations : © NA ; © Metro Goldwyn Mayer / Collection Christophel ; © rtbf.be ; © Siemens AG ; © trados.com ; © BnF ; © Gary Larson ; © Thomas Kuhlenbeck/Ikon Images/Corbis.


Place au débat : pus de tribunes libres en Wallonie-Bruxelles…

 

Qu’indique réellement le ‘pourcentage de pluie’ affiché par les applications météo ?

Temps de lecture : 8 minutes >

[RTBF.BE, FAKY du 3 août 2023] Le pourcentage de pluie affiché sur les applications météo présentes sur les smartphones donne souvent lieu à de nombreuses interprétations. En réalité, ce chiffre indique la probabilité que de la pluie, légère ou soutenue, se manifeste à un endroit donné dans un certain laps de temps. Pour faire ce calcul, des formules complexes sont utilisées. Cependant, plus la prévision se fait à échéance courte et pour un territoire restreint, plus elle sera potentiellement fiable pour l’utilisateur.

Les applications météo sont présentes sur de nombreux smartphones et utilisées par un grand nombre d’utilisateurs. Sur la plupart de ces applications gratuites accessibles au grand public, des pourcentages sont indiqués pour chaque jour ou chaque heure. Il s’agit de “pourcentages de pluie“.

Demain, il va faire mauvais et pleuvoir, je vois qu’il y a 50% de précipitations annoncées“. Cette phrase prononcée est parfois suivie d’un débat animé sur ce que signifie vraiment cette donnée. Ainsi, selon les explications que l’on peut entendre, les interprétations du pourcentage de pluie affiché varient :

      • Pour certains, il s’agit de la quantité de pluie qu’il va tomber : 10% sera une pluie fine, 100% donnera des trombes d’eau.
      • Le pourcentage de pluie exprimerait la durée des précipitations en pourcentage sur le temps d’une journée ou sur une heure.
      • Pour d’autres, il s’agit de la probabilité qu’il pleuve à endroit donné, peu importe la quantité d’eau qu’il tombera : 50% de pluie indiquerait qu’il y a une chance sur deux qu’il pleuve.

Une étude réalisée en 2005 sur la compréhension par le public de la phrase : “30% de chances de pluie demain“, indiquait également que ce pourcentage était souvent mal interprété par les habitants de différentes villes européennes testées (Amsterdam, Athènes, Berlin et Milan).

En réalité, il s’agit de la probabilité qu’il pleuve à un endroit donné à un moment donné. Cependant le calcul est un peu plus complexe et les résultats affichés demandent de la nuance et de la prudence dans leur interprétation.

Applications météo sur IPhone et Android

Sur un grand nombre d’applications météo gratuites, un pourcentage de pluie accompagne souvent les prévisions météo au jour le jour, ou heure par heure, quel que soit le logiciel d’exploitation. Des applications météo natives et gratuites sont habituellement disponibles avec des widgets (des composants d’interface) dédiés qui permettent de les afficher sur les écrans d’accueil. Ces applications intégrées et gratuites proposent des prévisions symbolisées par des logos (soleil, pluie, neige…) mais aussi des “pourcentages de pluie“.

Nous avons comparé deux téléphones fonctionnant avec les deux principaux OS (systèmes d’exploitations) présents sur le marché. Sur Android, ce pourcentage semble précis à l’unité près (6% ou 81% apparaissent), alors que sur iPhone, ces pourcentages sont arrondis à la dizaine (60% ou 40%). Ces données météo ne sont pas calculées par les sociétés Google (qui développe Android) ou Apple elles-mêmes, mais par des services météo professionnels et privés. De manière plus précise encore, tant Google qu’Apple ont recours à la même société : la société d’informatique IBM et son site weather.com. Ce site héberge la chaîne de TV américaine The Weather Channel dont on peut voir le logo sur les applications. L’Institut Royal Météorologique belge n’intervient pas dans ces prévisions disponibles sur les applications natives des smartphones.

Dans nos captures d’écrans, réalisées le même jour, à la même heure et au même endroit, les deux indicateurs de prévisions émanant du même service ne donnent pas tout à fait le même résultat lors de prévisions à plus long terme. Si les prévisions liées aux températures coïncident globalement, le pourcentage de pluie affiché peut varier. Ainsi :

      • Le jour de la photographie (un lundi) : les deux applications affichent un pourcentage de pluie minime ou nul (6% pour Android ou 0%).
      • Le vendredi qui suit la date de la photographie : Android annonce 80% de chances de pluie quand Apple n’en prévoit que 40%.
      • Le dimanche qui suit : Android est encore plus pessimiste avec un risque de pluie affiché de 66% alors qu’Apple ne prévoit pas de pluie du tout.

De quoi interroger sur ce pourcentage qui peut offrir tant de variations.

Que représente le pourcentage de précipitation indiqué sur les apps ?

Pour mieux comprendre ces différences, il est important de définir ce que recouvre précisément le terme précipitation qui, dans le langage courant, indique habituellement de la pluie ou la chute de neige. Les météorologistes étasuniens considèrent qu’il pleut à partir de 0,254 mm (ce qui correspond à la mesure anglaise de 0,01 inch) de pluie par mètre carré. Ce sont des précipitations très faibles qui mouillent légèrement le sol mais ne laissent pas de flaques d’eau.

Le pourcentage qui s’affiche sur nos smartphones correspond au terme météorologique de “probabilité de précipitation” (qui est utilisé par l’acronyme anglais de “Probability of Precipitation“, soit “PoP“). Et cette PoP se définit comme étant la probabilité qu’en tout point d’une zone géographique délimitée, il tombe au moins 0,254 mm de pluie (ou de neige en hiver) durant une période observée bien définie.

Comment se calcule cette PoP ?

La PoP est toujours calculée en prenant en compte trois variables :

      1. une période donnée : une heure, une demi-journée, une journée entière. Plus la période est longue, plus il y a de probabilité de connaître un épisode de pluie au cours de cette période.
      2. une zone géographique déterminée : plus la zone en question est grande, plus le risque qu’il y pleuve à un moment donné est grand.
      3. le degré de certitude des météorologistes : il ne suffit pas d’estimer qu’il risque de pleuvoir, les météorologistes ajoutent aussi un degré de certitude de la prévision en fonction des différents modèles météorologiques utilisés.

Ces trois éléments sont alors intégrés dans une équation. Au cours d’une période donnée et dans une zone donnée :

Pourcentage (%) de confiance de la prévision X Pourcentage (%) de la zone concernée par la prévision de pluie = Pourcentage (%) de probabilité de précipitation (PoP)

Des réalités différentes pour un même PoP

Trois exemples pour mieux comprendre. Pour la même période du jeudi de 13 heures à 14 heures dans le Brabant wallon, trois mesures de PoP pourraient être identiques, dans les cas où :

      • Les services météo estiment être certains à 100% qu’il va pleuvoir sur 40% du territoire dans ce laps de temps = 40% de probabilité de précipitation.
      • Les services météo estiment être certains à 40% qu’il va pleuvoir sur 100% du territoire dans ce laps de temps = 40% de probabilité de précipitation aussi.
      • Les services météo estiment être certains à 80% qu’il va pleuvoir sur 50% du territoire dans ce laps de temps = 40% de probabilité de précipitation également.

Autrement dit, trois réalités physiques différentes peuvent amener à un même pourcentage affiché sur l’application météo. L’élément le plus décisif est en réalité la zone concernée par la prévision. Ainsi, si on est certain à 100% qu’il pleuvra sur la moitié est du Brabant wallon, l’application affichera une probabilité de précipitation de 50% pour le Brabant wallon. Or, si on réduit la zone à l’est du Brabant wallon, où à la seule commune de Jodoigne par exemple, l’application affichera une probabilité de précipitation de 100%.

Comment “The Weather Company” calcule-t-elle le PoP ?

Joe Koval, météorologue principal pour The Weather Company détaille la méthode qu’ils utilisent pour calculer les probabilités de précipitations affichées sur son site et sur leur app : “La probabilité de précipitations prévue dans l’application The Weather Channel est créée dans les premières heures de la prévision à partir d’un mélange de notre produit de prévision radar et de notre modèle de prévision propriétaire IBM GRAF, ainsi que des observations de surface. Pour les délais allant de quelques heures à quinze jours, la probabilité de précipitations est dérivée des prévisions de précipitations de notre système propriétaire de prévisions météorologiques consensuelles, qui mélange une centaine de modèles météorologiques.

Autre élément important dans ces estimations, la taille des zones géographiques prises en compte. Une prévision pour la ville entière de Bruxelles sera généralement bien moins précise que pour une commune spécifique comme Etterbeek.

M. Koval indique que de nombreux paramètres sont pris en compte dans le calcul de la PoP et que ceux-ci peuvent évoluer. “En règle générale, les prévisions à court terme pour les prochaines heures ont une applicabilité spatiale d’environ 1 km x 1 km, tandis que les prévisions à plus long terme sont plus proches de 4 km x 4 km.

Des PoP à la fiabilité variable

En règle générale, plus la prévision est proche en temps, plus la PoP sera précise. Dès lors, votre PoP sera davantage fiable aujourd’hui ou demain que dans cinq jours. Mais là encore, il peut y avoir des exceptions. Deux exemples :

      • Si les conditions sont instables (tendance aux averses) à aujourd’hui et demain, il se peut que la masse d’air se stabilise avec l’arrivée de hautes pressions à dans deux jours et donc le 0% de dans deux jours sera plus fiable que le 50% aujourd’hui.
      • Si un front pluvieux bien structuré et généralement bien cerné par les modèles arrive à dans deux jours après deux jours dans des conditions instables (risque d’averses voire d’orage), la fiabilité du POP dans deux jours sera là aussi plus grande qu’aujourd’hui ou demain.

En regardant la météo, vérifiez bien la zone géographique couverte par votre prévision pour savoir ce qui explique une probabilité de précipitation moyenne (comprise entre 30 et 70% par exemple). Une chose est certaine, ce pourcentage n’indique pas quelle quantité de pluie il va tomber, il pourrait s’agir d’une bruine ou de trombes d’eau. Cela n’indique pas la proportion de temps qu’il va pleuvoir au cours de l’heure ou la journée concernée par le pourcentage.

Et à l’Institut Royal Météorologique belge ?

© rtbf.be

Sur l’application officielle de l’Institut royal météorologique, des PoP sont présentées heure par heure pour les prochaines 48 heures, mais aucune PoP n’est proposée au-delà de deux jours, contrairement à d’autres services. Sur son site Internet, l’IRM détaille sa façon de calculer ses probabilités de précipitations : “Les probabilités de précipitations (%) sont déterminées par les précipitations prévues pour le centre de la commune consultée et pour des points du modèle de prévisions très proches autour de la commune, afin de tenir compte du fait qu’une prévision de précipitation très localisée est faite avec une certaine marge d’erreur spatiale et temporelle, que nous exprimons sous forme de probabilité. Le rapport entre tous les points du modèle prévoyant des précipitations et le nombre total de points considérés dans un rayon autour du point central est la probabilité de précipitations, exprimée en pourcentage. Si des précipitations sont attendues au niveau du point central, une icône de précipitation est affichée. Par exemple, il se peut qu’il y ait plus de 50% de chances de précipitations mais aucune icône de précipitation n’est affichée car ces précipitations sont attendues dans la région mais pas au point central de la commune. À l’inverse, un pictogramme de précipitation pour une probabilité inférieure à 50%, est également possible.

David Dehenauw, météorologue à l’Institut Royal Météorologique indique que l’IRM n’utilise pas du tout le même modèle que le fournisseur The Weather mais qu’ils proposent leurs propres prévisions commune par commune : “Pour une prévision à moins de deux jours, on compare les données qu’on obtient sur une commune par rapport aux prévisions qu’on obtient pour les communes voisines. Si la prévision de pluie de l’ensemble des communes se vérifie, notre probabilité de pluie va tendre vers 100%. À l’inverse, si une pluie annoncée par un modèle sur une commune n’est pas vérifiée sur les autres communes, on va baisser la prévision vers 0% puisqu’on pensera plutôt à un bruit statistique, quelque chose de pas fiable. Pour une prévision à plus de deux jours, on fait la moyenne de ce qu’annoncent les différents modèles qu’on utilise entre eux.

Des prévisions à prendre avec prudence

Si la qualité des prévisions météorologiques progresse avec l’arrivée d’outils plus performants, elles ne sont pas pour autant infaillibles. Parmi ces prévisions, le pourcentage de pluie ne déroge pas à la règle. Cette donnée dépend de nombreuses variables comme la précision géographique, les modèles météos utilisés ou la durée pour laquelle elle est calculée. Par ailleurs, comme pour les prévisions météorologiques en général, plus le délai de cette prévision est court plus la prévision sera potentiellement fiable. Les prévisions à moyen ou à long terme (au-delà de deux jours) seront donc, elles, moins précises.

Par ailleurs, les pictogrammes affichés pour symboliser la météo sur une journée peuvent parfois être “réducteurs” et ne pas traduire la météo globale qui peut parfois être très changeante. Sur une journée, il peut y avoir des moments de grand soleil, puis des orages. Une icône reprenant ces deux conditions très différentes sur une même journée n’existe pas (l’IRM en affiche cependant parfois deux pour une journée), cela peut donc être trompeur.

Enfin, comme nous l’expliquions en début d’article, des différences existent entre les PoP affichés sur Android et ceux affichés sur iPhone. Ceux-ci indiquent pourtant utiliser la même source, les prévisions de The Weather Channel. La société n’a jamais pu nous apporter d’explication sur ces différences. Globalement, ces probabilités de précipitations sont donc à prendre avec prudence.

Grégoire Ryckmans et Guillaume Woelfle


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | source : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © One Plus Meteo ; © rtbf.be.


Plus de presse en Wallonie-Bruxelles…

Le Metropolitan Museum of Art diffuse 375 000 œuvres en accès libre

Temps de lecture : 3 minutes >

[LEMONDE.FR, 10 février 2017] Le musée new-yorkais autorise le téléchargement [gratuit] en haute définition des photos d’une partie de ses collections. Certes, il ne s’agit que d’une partie du million et demi de pièces conservées par le Metropolitain Museum of Art – seul musée américain à pouvoir soutenir la comparaison avec le Louvre. D’abord, parce que toutes n’ont pas encore été numérisées – elles peuvent l’être à la demande, mais alors il faut payer les frais. Ensuite, parce que les plus récentes ne sont pas encore tombées dans le domaine public – l’institution new-yorkaise couvre tous les champs de l’histoire de l’art, jusqu’aux contemporains.

Mais les autres, celles dont l’auteur est décédé depuis plus de soixante-dix ans, ou celles dont le musée possède le copyright, sont désormais téléchargeables en haute définition et utilisables à l’envi. Il est donc possible d’imprimer un tee-shirt à l’effigie de Joséphine-Eléonore-Marie-Pauline de Galard de Brassac de Béarn, princesse de Broglie (une merveille peinte par Ingres vers 1851), mais aussi de la projeter lors d’une leçon ou d’une conférence, ou de la reproduire dans un livre d’histoire de l’art, sans encourir la venue des huissiers.

INGRES J.A.D., Portrait de Joséphine-Éléonore-Marie-Pauline de Galard de Brassac de Béarn, princesse de Broglie © MET New-York

Education du public

Bien sûr, le Met n’est pas le premier musée à s’ouvrir ainsi. Comme le rappelle le New York Times, qui a relayé l’information, la National Gallery de Washington ou le Rijksmuseum d’Amsterdam l’ont précédé, mais à une échelle bien moindre : 45 000 images pour la première, 150 000 pour le second. Le communiqué du Met précise que ces photographies peuvent être téléchargées sans requérir une autorisation préalable pour n’importe quel usage, qu’il soit commercial ou non. Mais c’est évidemment cette dernière option, celle qui permet notamment une destination éducative, qui a présidé à ce choix.

VAN EYCK Jean, Le Jugement dernier (1440-41) © MET New-York

La chose ne surprendra que ceux qui méconnaissent à quel point les musées anglo-saxons, et même les institutions privées comme le Met, portent haut leur rôle d’éducation du public. Comme l’a relevé le site de La Tribune de l’art, son directeur, Thomas Campbell, l’a souligné : “La mission principale du musée est d’être ouvert et accessible à tous ceux qui souhaitent étudier et apprécier les œuvres d’art dont il a la charge. Améliorer l’accès à la collection du musée répond aux intérêts et aux besoins de notre public du XXIe siècle en offrant de nouvelles ressources à la créativité, aux connaissances et aux idées…”

Et La Tribune de l’art de comparer cette belle déclaration d’intention avec les conditions imposées par les musées français, et notamment ceux de la Ville de Paris, qui ne sont clairement ni à leur honneur ni à l’avantage commun.

Harry Bellet


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | source : lemonde.fr | contributeur : Patrick Thonart | crédits illustrations : © MET New-York.


Plus de presse en Wallonie-Bruxelles…

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

VÉLOTAF : ne dites pas “autoroute vélo”, mais “cyclostrade”

Temps de lecture : 4 minutes >

[WACYNEWS n°26, mars-avril 2023] Le nouveau décret Wallonie Cyclable, adopté le 24 novembre 2022 par le  Parlement de Wallonie, pérennise la politique cyclable wallonne au-delà d’une législature. Il prévoit notamment le développement d’un réseau cyclable structurant à l’échelle régionale.

Le réseau wallon, qui se concrétisera progressivement, est composé de cyclostrades et de liaisons fonctionnelles supralocales.

    • Au premier niveau, les cyclostrades constituent l’épine dorsale du réseau cyclable structurant et relient des zones à haut potentiel de  déplacements, en offrant une alternative attractive aux déplacements en voiture. Les cyclostrades sont potentiellement utilisées de manière intensive et bénéficient d’une infrastructure de grande qualité permettant de se déplacer dans les meilleures conditions de confort, de sécurité et d’efficacité sur des distances moyennes à longues et sur des aménagements cyclables reconnaissables.
    • Au deuxième niveau, les liaisons cyclables fonctionnelles supra-locales constituent un réseau cyclable maillé d’itinéraires reliant des polarités urbaines ou rurales, d’équipements, de commerces, de services ou d’intermodalité.

Verra-t-on bientôt des cyclostrades en Wallonie ?

Un premier tronçon de cyclostrade sera opérationnel début avril, reliant la Wallonie à Bruxelles : il s’agit du tronçon entre le château Solvay, situé à La Hulpe, et Hoeilaart. Cette cyclostrade va, à court terme, être prolongée  jusqu’au carrefour des Trois Colonnes, à la Hulpe. Ensuite, une étude de tracé va être lancée vers la gare d’Ottignies.

Le réseau de cyclostrades wallon n’est pas encore déterminé dans son ensemble. Mais les choses bougent. On peut déjà lister, à titre d’exemples, quelques projets qui sont à l’étude ou qui le seront prochainement :

      • Cyclostrade E411-N4 venant de Bruxelles entre la limite
        régionale et Louvain-la-Neuve ;
      • Cyclostrade N4 entre Louvain-la-Neuve et Namur ;
      • Cyclostrade de la vallée de la Dyle, entre Wavre, Ottignies et Court-Saint-Etienne (pour se connecter au RAVEL vers Genappe et Nivelles) ;
      • La Vesdrienne, notamment entre Dolhain, Verviers et Ensival ;
      • La Meuse à vélo – N90 à Liège, reliant Seraing à Liège par la rive droite ;
      • Cyclostrade du square Gramme vers l’université de Liège au Sart-Tilman ;
      • Cyclostrade entre l’aéroport de Liège et Seraing ;
      • Cyclostrade Ans – Guillemins – Vennes ;
      • Cyclostrade Arlon – Luxembourg ;
      • Connexion urbaine Namur – Jambes ;
      • Cyclostrade de la N90 entre Mons, Binche et Charleroi.

On s’en doute : les cyclostrades sont des projets complexes qui demandent du temps entre la programmation et la réalisation, en raison des études techniques, des permis d’urbanisme, des contraintes environnementales ou urbanistiques, parfois des expropriations, des marchés publics et des chantiers s’étalant sur des kilomètres… Mais le maillage cycliste de la Wallonie est bel et bien lancé !

Communication officielle de Wallonie Cyclable


© rtbf.be

Le premier tronçon wallon de “cyclostrade” inauguré à La Hulpe

[RTBF.BE, Agence BELGA, 8 mai 2023] Rejoindre Bruxelles à vélo depuis le centre de la province est un peu plus sûr et plus facile ce matin. Le ministre wallon de la mobilité et des infrastructures routières, Philippe Henry, a inauguré vendredi à La Hulpe le tout premier tronçon wallon de “cyclostrade”, situé le long de la Nationale 275, à proximité du château Solvay. Les cyclostrades sont appelées à devenir l’épine dorsale du réseau cyclable structurant wallon, que veut mettre en place le Gouvernement pour offrir des alternatives attractives à l’usage de la voiture. Le tronçon concerné, long d’1,85 km, s’étire jusqu’à la limite de la Flandre, où les travaux sont en cours pour prolonger le cheminement jusqu’à la capitale.

L’investissement pour ce premier tronçon d’un peu moins de 2km est de 2,493 millions d’euros. Ce financement, assuré par le plan de relance européen, comprend le déplacement de la voirie et une modification de rond-point. L’objectif est de prolonger cette cyclostrade vers Bruxelles mais aussi de poursuivre les travaux jusqu’au carrefour des Trois Colonnes en 2024. “Grâce à ce nouveau chainon cyclable sur la N275, une connexion est établie entre La Hulpe/Rixensart/Lasne vers Hoeilaart/Watermael-Boisfort et la Région Bruxelles-Capitale“, précisent les responsables. Concrètement, il s’agit d’une piste cyclable bidirectionnelle de 3 mètres de large, séparée des voies de circulation des voitures par une haie et des clôtures de bois. Elle a été aménagée sur le côté gauche de la chaussée en direction de Bruxelles, pour permettre des connexions plus sécurisées avec les entrées du domaine du Château de La Hulpe et être reliée facilement au projet en cours de réalisation sur le territoire flamand (Hoeilaart).

Sur place, le ministre Henry a précisé que des projets sont en cours ou à l’étude pour relier Braine-l’Alleud à Tubize (ancienne ligne 115), Wavre à Court-Saint-Etienne et Louvain-la-Neuve à Namur. Le Gouvernement wallon a prévu un budget de 80 millions d’euros pour la réalisation des cyclostrades.

Agence BELGA


© neoca

“Vélotafer” : élu mot de l’année 2022

[PROVELO.ORG, 6 janvier 2023] Comme chaque année, Le Soir et la RTBF ont annoncé le nouveau mot de l’année. Pour 2022, c’est le mot vélotafer qui a remporté le plus de voix parmi les 626 propositions.

Le vélotaf, quésako ?

Alors là, on parle des convertis, celles et ceux qui enfourchent leur bicyclette le matin par tous les temps pour rejoindre leur lieu de travail et qui remettent ça le soir pour rentrer à la maison. Le vélotaf, dérivé du mot d’argot utilisé comme synonyme du mot travail, désigne donc celui ou celle qui se rend au travail à vélo. Aujourd’hui, on parle aussi de vélotaf(f)eur ou vélotaf(f)euse.

Il témoigne des évolutions en matière de mobilité en Belgique. En effet, aller au travail à vélo est devenu une réelle habitude pour de nombreux belges.

En quelques chiffres

Dans son Bilan annuel de l’Année sportive 2022, [la plateforme commerciale] Strava relève une hausse importante de l’utilisation du vélo pour les déplacements en ville, notamment dans le cadre du vélotaf. D’après les chiffres recueillis par Strava, le nombre de trajets domicile-travail réalisés à vélo à Paris a quasiment doublé entre 2019 et 2022 avec un bond de + 97 % entre ces deux périodes. […]

La rédaction de pro-vélo


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : wacynews ; rtbf.be ; provelo.org | contributeur : Patrick Thonart | crédits illustrations : en-tête, détail de la couverture catastrophique du WacyNews n°26 © Région Wallonne de Belgique ; © rtbf.be ; © neoca.


Plus de presse en Wallonie-Bruxelles ? Ça roule…

HUSTINX, Astrid (1950-2022)

Temps de lecture : 5 minutes >

C’est désormais établi (puisque c’est dans wallonica.org !) : les petites belges ont le caractère bien trempé et cela, depuis longtemps. De Marie Popelin à Marie Mineur, elles ont été nombreuses à marquer notre histoire (même si les manuels scolaires ne leur ont pas toujours fait justice). Plus proches de la grande sportive Hélène Dutrieu, deux femmes moins célèbres n’en ont pas moins imposé le respect dans des domaines qui, à leur époque, étaient l’apanage de ces Messieurs : Fernande Hustinx dans les rallies automobiles (elle est la coéquipière de la fameuse Simone ; pas Simone de Beauvoir mais celle de l’expression “En voiture, Simone“) et une autre Hustinx, Astrid, récemment disparue, qui s’est imposée dans… l’aviation civile, en pilotant rien moins que des A-340 !

Air Astrid

[RATEONE.BE]Le pilote d’un avion de ligne, c’est un homme tout de même, non !?” Eh bien, pas forcément. Il y a plus de 40 ans déjà, Astrid HUSTINX, alors encore une jeune femme, brise la voûte du ciel et sa carrière de pilote prend alors son envol. Accompagnons donc Astrid lors de ses voyages, du Congo à Tahiti. Sautons hors des frontières, out of the box. Ou même, comme Astrid, out of the plane

Née pour sauter

Astrid a vu le jour le 9 mars 1950 à Zele. A ses deux ans, la famille Hustinx s’installe à Elisabethville (aujourd’hui Lubumbashi) au Congo. Sa mère y travaille comme sage-femme, son père comme directeur technique. “Lors de mon enfance, je jouais aux billes avec les garçons, se souvient-elle, et je construisais des locomotives à l’aide de restes de bouts de bois. Jouer à la poupée avec mes copines ? Moi ? Jamais !” Lorsqu’elle a 7 ans, son père l’emmène à un meeting aérien local. Elle est fascinée par les corolles dans le ciel et le Fouga Magister. “De retour à la maison, je voulais absolument sauter en parachute ! J’ai pris le parasol du jardin et ai survolé plusieurs marches de la terrasse… l’atterrissage était hum… hasardeux !” Fin 1961, la crise congolaise oblige la famille Hustinx à rentrer en Belgique. Mais Astrid ne renonce pas à son rêve de sauter en parachute. A l’âge de seize ans, encore mineure, il lui faut impérativement la signature des deux parents. “Papa ne cautionnait pas et préférait que je garde les deux pieds sur terre.” Heureusement, il travaille de temps à autre au Liberia et à la maison, maman a le dernier mot.

© Collection privée

Astrid se rend au terrain presque tous les weekends. Ayant du talent, le Para Club de Spa subventionne ses sauts d’entraînement de voltige et de précision d’atterrissage. Même lors de compétitions internationales, caractérisées par un haut niveau de testostérone masculine, Astrid s’impose malgré tout remarquablement comme femme ! Les revenus gagnés lors de son premier job comme collaboratrice auprès de compagnies d’aviation d’affaires lui permettent de découvrir l’espace aérien de la planète et ses sauts préférés sont des vols de grande formation, dès le milieu des années 70 jusqu’au début de années 90.

Echange combinaison de saut contre uniforme

Sa carrière de pilote n’est pas moins impressionnante. La crise pétrolière de 1973 a d’abord tout gâché… Ne trouvant pas immédiatement de travail comme pilote professionnel, Astrid s’est contentée de petit boulots dans le monde de l’aviation d’affaires. “J’ai lavé des avions, raconte-t-elle, transporté des bagages, assuré la restauration… J’ai également été hôtesse sur Mystère 20 et Falcon 10, et finalement déléguée commerciale, remportant de beaux contrats de location d’avions d’affaires…” En 1977, le moment tant attendu arrive enfin. Astrid est qualifiée copilote Beechcraft-99, sur la ligne Liège-Ostende-Londres Heathrow. Fin 1982, elle s’installe en France. Elle y épouse un pilote français, veuf avec une petite fille. Astrid adopte la fille et… la nationalité française. Cinq années plus tard, à l’âge de 37 ans, Astrid est nommée commandant de bord Mystère 20 et Falcon 10. Une jeune femme commandant de bord d’un avion civil, sans antécédents militaires… il faut le faire ! Elle effectue souvent des vols aussi pour Europ Assistance.

D’Air France…

En 1988, Astrid est embauchée par Air Inter en tant que copilote Caravelle Super XII. Après de longues années passées dans l’aviation d’affaires, ce poste à Air Inter lui permet de consacrer un peu plus de temps à sa famille. Trois ans plus tard, Astrid obtient sa licence de pilote de ligne puis est qualifiée copilote sur Airbus A-320. Pus tard, à 47 ans, à l’époque de la fusion entre Air Inter et Air France, Astrid est nommée commandant de bord de la famille Airbus ! Elle vole désormais sur A-318, A-319, A-320 et aussi l’A-321. En 2005, Astrid est promue commandant de bord sur quadriréacteur Airbus A-340 et elle réalise ses premiers vols transatlantiques, et aussi transpacifiques depuis la base de Tahiti. Cerise sur le gâteau : à peine un an plus tard, Astrid Hustinx se régale sur le biréacteur Airbus A-330 !

© Collection privée

Entre-temps, Astrid reste toujours fidèle à ses premières amours : le parachutisme. Son autre passion aussi est de repousser les limites : faire du vol à voile à une altitude de 5.000 mètres en Nouvelle-Zélande, réaliser des vols en Mustang en Floride ou en P-40 Kittyhawk en Californie… Après sa retraite en 2012 qu’elle qualifie de nouvelle vie, elle reste néanmoins airborne : que ce soit à bord d’un ULM, une montgolfière, ou en parapente… the sky is her limit ! 15.600 heures de vol parmi lesquelles des missions humanitaires… pas étonnant que le président d’Air France en personne ait décoré Astrid Hustinx de la Légion d’Honneur !

…à Air Femme

Les anecdotes à propos d’un pilote féminin dans l’aviation civile pourraient remplir tout un Airbus. “Au début des années ’80, j’étais basée à Bruxelles à bord d’un Mystère 20, immatriculé OO-VPQ, en abrégé : Oscar Papa Québec. Mais, sourit Astrid, les contrôleurs aériens avaient fini par m’appeler Oscar MAMA Québec !” Au cours de l’été 1987, lors d’une réserve, je suis bipée pour un vol en Falcon 10, du Bourget à Bilbao. Mais lorsque mes quatre passagers voient un commandant de bord féminin, ils passent quelques coups de fil pour trouver “un appareil avec un autre équipage.” “Hélas, s’esclaffe Astrid, ils ont dû se contenter de moi ! Et comme ils avaient un contrat important à négocier à Bilbao, ils m’ont finalement suivie vers l’avion, mais en traînant des quatre fers. Imaginez leur soulagement quand ils ont vu que le copilote était un homme ! L’atterrissage à Bilbao fut mon petit moment de gloire : vent de tra-vers, pluie battante, mauvaise visibilité, de nombreuses turbulences et malgré tout… un super Kiss Landing ! Satisfaction pour tout le monde ! Le contrat enfin signé, ils ont même demandé que ce soit dorénavant moi leur commandant de bord !

Air FranceBus, comme dans Airbus

© Collection privée

En 2007, Astrid est basée durant six semaines en Polynésie pour assurer la ligne Air France Papeete – Los Angeles en Airbus-340. Entre deux courriers, lors d’une excursion au Lagon Bleu de Rangiroa, elle se retrouve en compagnie de 4 touristes. Quand ils lui demandent quelle est sa profession, préférant éviter les bavardages, elle leur dit être chauffeur de bus. Quel étonnement lorsque deux jours plus tard, en souhaitant la bienvenue aux passagers, elle revoit ces mêmes touristes. Confus et même un peu abasourdis de voir une Astrid-en-maillot-de-bain vers une Astrid-en-uniforme… “Mais, vous étiez conductrice de bus, non !?” Réponse d’Astrid : “Ah oui, j’ai oublié de vous préciser que c’est un AIR-bus…

Ces touristes eux aussi l’auront compris ! Avec Astrid Hustinx, ce commandant féminin d’Air France, on vole bien loin du business as usual


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rateone.be | contributeur : Patrick Thonart | crédits illustrations : © Collection privée.


Plus de sport en Wallonie-Bruxelles…

À l’origine de Wikipédia, l’opposition entre deux visions du savoir

Temps de lecture : 5 minutes >

[RADIOFRANCE.FR/FRANCECULTURE, 28 février 2023] À l’origine de Wikipédia en 2001, ses deux fondateurs partagent la volonté de rendre disponible tout le savoir du monde. Mais leur opposition va révéler deux utopies divergentes – un conflit idéologique dont est issue la Success Story de Wikipédia.

Quand Ayn Rand rencontre Montessori

À la fin des années 1990, l’un des deux fondateurs de Wikipédia, Jimmy Wales est un trentenaire qui vit à Chicago aux Etats-Unis. La transmission des savoirs le passionne depuis son enfance.

Rémi Mathis, historien et conservateur, ancien président de Wikimedia France, auteur de Wikipédia : dans les coulisses de la plus grande encyclopédie du monde (2021) : “Jimmy Wales accorde une grande importance à la connaissance, parce que sa mère et sa grand-mère tiennent une petite école privée, avec un côté un peu Montessori, où elles enseignent à une classe multi niveaux.

Jimmy Wales suit sa route, fait des études de finance et devient courtier. Rémi Mathis : “On est à l’époque de la bulle de l’Internet de la fin des années 1990. Les opportunités sont nombreuses, il est facile de lever des fonds. On peut avoir plein d’idées pour monter des entreprises. Et Jimmy Wales est un entrepreneur dans l’âme.

En 1996, il fonde Bomis, un portail donnant des informations sur Chicago, transformé en site ‘pour hommes’. Rémi Mathis précise : “Bomis est tourné vers les grosses voitures, les femmes dénudées, des choses pas forcément très liées au savoir encyclopédique ! Jimmy Wales a donc eu l’idée de lancer une encyclopédie sur Internet, parce que c’est quelque chose qui l’intéressait, qu’il avait envie de développer. Il avait besoin de fonds, mais ces fonds étaient apportés par Bomis. Et donc Wales a créé une encyclopédie qui s’appelait Nupedia et a embauché pour ça un rédacteur en chef, Larry Sanger.

L’entrepreneur Jimmy Wales (gauche) et le philosophe Larry Sanger (droite) © DP

C’est donc en 2000 à Chicago, que Jimmy recrute la 2ème figure de Wikipédia, Larry Sanger, qui va avoir un rôle crucial. Des débuts que retrace Rémi Mathis : “Dans un premier temps, Larry Sanger va développer Nupedia, une encyclopédie où des internautes peuvent proposer des textes, qui, après avoir été validés par un conseil scientifique, un comité de rédaction, vont être publiés sur Internet.” Larry Sanger a un rôle important, puisque c’est lui qui, travaillant à temps plein sur le projet, va amener certaines idées. Originaire de Washington, c’est un intellectuel, titulaire d’un doctorat de philosophie. Il a rencontré Jimmy six ans plus tôt grâce à leur curiosité commune pour la philosophie d’Ayn Rand, considérée comme la théoricienne du capitalisme individualiste. “C’est une philosophie qui se veut une philosophie de la raison et qui accorde une importance toute particulière à la notion d’individu agissant,” précise Rémi Mathis.

‘wikiwiki’ : ‘vite’ en hawaïen

À la fin des années 1990, plusieurs conditions sont réunies pour permettre à Nupedia de se développer :

      1. Internet devient accessible au grand public,
      2. Richard Stallman initie le principe du logiciel libre, un logiciel qui peut être librement utilisé, copié, distribué et modifié par tous ses utilisateurs.

Le 2 janvier 2001, Larry discute avec un programmeur qui lui parle du ‘wiki’, un logiciel qui permet à un grand nombre de personnes de collaborer sur un même site Internet. Comme Nupedia progresse lentement, Larry propose à Jimmy de créer un wiki pour accélérer le développement des articles. C’est ainsi que moins de deux semaines plus tard, le 15 janvier 2001, est créée Wikipédia. Ce nom est la contraction de ‘wiki’ (‘wikiwiki’ en hawaïen signifie ‘vite’) et d’encyclo-‘pédia’.

Rémi Mathis : “Wikipédia va utiliser un logiciel de wiki pour développer ses articles, alors que Nupedia existe encore et continue de tenter ce modèle de la validation a priori.” Très rapidement, on se rend compte que Wikipédia est plus efficace pour proposer des textes de qualité suffisante. Et donc Wikipédia va se développer et prendre le pas sur Nupedia qui ferme avec 25 articles en 2003, alors qu’à la même époque Wikipédia a atteint les 10 000 articles en 2001, les 40 000 en 2002 et se développe ensuite de manière exponentielle jusqu’à atteindre plusieurs millions d’articles aujourd’hui.

Wikipédia devient rapidement un géant de la tech. Mais contrairement aux autres, elle n’est financée que par des dons. Jimmy Wales (archives INA) : “Les gens me demandent si je suis communiste ou anticapitaliste. Mais pas du tout ! Je pense que c’est très bien que les gens gagnent plein d’argent. Mais on ne peut pas en faire avec tout. Pas avec un site Internet culturel comme Wikipédia.

Wikipédia se développe dans d’autres langues, comme en français à partir de mai 2001. Et en parallèle, le profil des contributeurs se transforme, comme le rappelle Rémi Mathis : “Wikipédia, dans les premiers temps, attirait des geeks. C’était lent, il fallait vraiment savoir où on allait parce qu’il n’y avait pas de moteur de recherche, donc ça fonctionnait par le bouche à oreilles. À partir du milieu des années 2000, arrive une nouvelle vague de wikipédiens, des personnes du milieu intellectuel, du monde de l’université, des bibliothèques, qui, comme ce fut mon cas, vont se dire : “Ah oui, il y a une encyclopédie qui existe, ça a l’air de bien fonctionner. Est-ce qu’on ne pourrait pas se mettre ensemble pour faire quelque chose de bien ?

Validation a priori ou a posteriori : un enjeu crucial

Au moment où Wikipédia prend son envol et que Nupedia bat de l’aile, Jimmy et Larry commencent à ne plus être sur la même longueur d’ondes. Jimmy soutient l’idée d’horizontalité. La contribution à l’encyclopédie est collective et ouverte à tout internaute. Larry, lui, défend une vision traditionnelle de la connaissance et estime nécessaire la validation par un comité d’experts.

Rémi Mathis retrace ce moment de rupture : “Dès 2002, Larry Sanger va quitter son poste. Officiellement parce que le financement proposé par Bomis et par Jimmy Wales va être supprimé. En réalité, parce qu’un certain nombre de dissensions se font déjà jour. Larry Sanger va expliquer que l’idée-même de Wikipédia est vouée à l’échec, que jamais on ne pourra atteindre une qualité suffisante avec des contributeurs non-spécialistes, qu’à un moment donné, il faut qu’un spécialiste intervienne, pour trancher Il faut un rédacteur en chef, quelqu’un qui soit spécialiste du sujet.

Une polémique naît alors : Larry Sanger est-il un cofondateur ? Pour Jimmy Wales, Larry a seulement été son employé et lui-même est le seul fondateur de Wikipédia. À ce jour, Jimmy Wales est le président honoraire de la Wikimedia Foundation et reste une figure tutélaire pour les wikipédiens.

Les “wikipédiens” déclarent (archives INA) : “Ce qu’il a fait est vraiment très important. Partager les connaissances, c’est vraiment l’esprit d’Internet. Il a inventé une énorme plateforme d’information disponible par tous et pour tous. C’est une sorte de héros.

Larry Sanger, quant à lui, s’est radicalement retiré du monde wikipédien, en développant sa critique du modèle. Rémi Mathis évoque la façon dont cette critique a récemment fait l’objet d’une récupération politique aux Etats-Unis : “Larry Sanger a eu une très grande audience chez les trumpiens parce qu’il a critiqué Wikipédia toujours avec les mêmes arguments. Il y a une espèce de récupération politique de la critique de Wikipédia, pour expliquer que si les informations qu’on trouve sur Internet vont à l’encontre de ce que je crois, c’est parce qu’il y a, sinon un complot, en tout cas un groupe de pouvoir qui a pris le contrôle de Wikipédia et qui peut le faire, parce que Wikipédia est foncièrement mauvais dans son fonctionnement.

Malgré des critiques émises à son encontre, quant à sa fiabilité notamment, Wikipédia s’est imposée comme l’encyclopédie en ligne de référence. La version française a été consultée 12 milliards de fois en 2022 et il semble difficile de s’en passer. Comme le résume Rémi Mathis : “Wikipédia a véritablement changé notre rapport au savoir.”

Anna Mexis & Camille Renard, France Culture


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : radiofrance.fr/franceculture | contributeur : Patrick Thonart | crédits illustrations : en-tête © franceculture ; © DP.


Plus de presse en Wallonie-Bruxelles…

QUADRIVIUM : arithmétique, géométrie, musique & astronomie

Temps de lecture : 4 minutes >

Le Quadrivium a été conçu et enseigné pour la première fois vers 500 Av. J.C. par Pythagore, sous la forme du tétractys, dans une communauté dont tous les membres étaient égaux, matériellement et moralement. Cette structure européenne originelle parachevait l’éducation en se consacrant à sept sujets essentiels, devenus au Moyen Âge les “sept arts libéraux”.

Le terme “éducation” vient du latin educere, “conduire“, signalant la doctrine centrale que Socrate, sous la plume de Platon, a si bien élucidée – la connaissance est une partie inhérente et intrinsèque de la structure de l’âme.

Le Trivium du langage est structuré sur les valeurs cardinales et objectives de vérité, de beauté et de bonté. Ses trois sujets sont la Grammaire, qui assure la bonne structure du langage, la Logique ou la Dialectique, permettant de trouver la vérité, et la Rhétorique, le bel usage du langage lors de l’expression de la vérité.

Le Quadrivium émerge du plus révéré des sujets que l’esprit humain peut aborder – le Nombre. La première de ses disciplines est l’Arithmétique, la seconde, la Géométrie, le Nombre dans l’Espace, la troisième, l’Harmonie, qui pour Platon était le Nombre dans le Temps, la quatrième, l’Astronomie, le Nombre dans l’Espace et le Temps. L’échelle fiable formée par ces études permet d’accéder aux valeurs simultanées de la vérité, de la bonté et de la beauté, conduisant à leur tour la valeur harmonieuse essentielle de l’unité.

Pour naître dans le corps, l’âme, dont Socrate a démontré le caractère immortel dans le Phédon, émerge d’un état de savoir absolu. Le ‘ressouvenir’, autrement dit la remise en mémoire – le but de l’éducation – c’est littéralement reconstituer l’unité à partir des éléments.

On étudiait ces sujets afin de remonter vers l’unité grâce à la simplification reposant sur la compréhension acquise en abordant chaque domaine du Quadrivium, en tentant par là de trouver sa source (traditionnellement, seul objectif de la quête du savoir). En débattant des idéaux de l’éducation, Socrate parle de son modèle de la continuité de la conscience – qu’il compare à une “ligne” verticale tracée depuis les commencements de la connaissance consciente des conjectures jusqu’au sommet de la conscience en tant que noèse, pensée unifiée, l’acte même de penser. Au-delà, on trouve l’indescriptible et l’ineffable.

Remarquablement, la division de la “ligne ontologique” de Socrate comporte quatre étapes (autre quadrivium ou tétractys). La première et la plus essentielle est la séparation entre monde intelligible et monde sensible, entre mental et matière, chacun partagé à son tour, conjectures contre opinions. Dans le monde sensible, même les opinions justes reposent encore sur l’expérience sensorielle ; au-dessus de la première ligne de division, dans le monde intelligible du mental, on se trouve dans le domaine “porteur de vérité” du Quadrivium, connaissance vraie et objective. La dernière division, la plus élevée du monde intelligible, est la connaissance pure (l’intellect), où l’objet de la connaissance, ce qui est connu et le fait de connaître ne font qu’un.

© British Museum

C’est le but et la source de tout savoir. Ainsi, ayant passé l’épreuve du temps et de la sagesse, le Quadrivium offre à ceux qui en ont sincèrement envie l’occasion de retrouver une compréhension de la nature intégrale de l’univers, dont ils sont une partie intégrante.

En abordant maintenant plus en détail les “quatre arts”, l’Arithmétique présente trois niveaux : nombre concret, nombre arithmétique (abstrait) et nombre idéal ou archétypal complet à 10. La Géométrie se déploie en quatre étapes : le point dépourvu de dimensions qui, en se mouvant, devient une ligne, se déplaçant à son tour pour devenir un plan, avant de finir par arriver en tant que tétraèdre à la solidité. L’Harmonie (la nature de l’âme) décrit quatre “gammes” musicales : pentatonique, diatonique, chromatique et microtonale. Pour finir, on aborde le Cosmos, terme qu’on doit à Pythagore, signifiant “ordre” et “parure”. Les pythagoriciens tenaient le ciel visible pour la “parure” des principes purs, le nombre de planètes connues se rapportant aux principes d’harmonie proportionnelle. L’étude de la perfection des cieux était un moyen d’affiner les mouvements de son âme.

Parmi ceux qui ont étudié le Quadrivium, mentionnons : Cassiodore, Philolaos, Timée, Archytas, Platon, Aristote, Euclide, Eudème de Rhodes, Cicéron, Philon d’Alexandrie, Nicomaque, Clément d’Alexandrie, Origène, Plotin, Jamblique, Macrobe, Capella, Dénys l’Aréopagite, Bède, Alcuin, Al-Khwarizmi, Al-Kindi, Gerbert d’Aurillac, Fulbert, Ibn Sina (Avicenne), Hugues de Saint-Victor, Bernard Silvestre, Bernard de Clairvaux, Hildegarde de Bingen, Alain de L’Isle, Joachim de Flore, Ibn Arabi, Roger Bacon, Grosseteste (le plus grand érudit anglais), Thomas d’Aquin, Dante et Kepler.

Finissons par deux citations. La première vient des pythagoriciens (via les Vers d’or): “Tu connaîtras, dans la mesure de la Justice, que la Nature est en tout semblable à elle-même” ; la seconde vient de Jamblique : “Le monde n’a pas été créé à ton intention – mais tu es né à son intention.

Keith Critchlow


[INFOS QUALITE] statut : validé | mode d’édition : dématérialisation, partage, édition, correction et iconographie | sources : MARTINEAU J. et al., Quadrivium : arithmétique, géométrie, musique, astronomie (Dervy, 2021) | contributeur : Patrick Thonart | crédits illustrations : en-tête, Herrade de Landsberg, Hortus deliciarum (XIIe) © Bibliothèque du Grand Séminaire de Strasbourg ; © British Museum.


Plus de discours en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…