Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

THONART : Intelligence artificielle et artifices de l’intelligence (2024)

Temps de lecture : 25 minutes >

Mises-en-bouche

Fidèles lecteurs, je sais qu’une question lancinante vous taraude, au point d’avoir pris plus d’un apéritif avant de vous mettre devant cet écran, afin de noyer votre malaise existentiel avant de commencer à lire. Plus précisément, deux interrogations vous minent le moral. La première concerne la longueur de cet article (“Vais-je prendre plus de temps pour lire et comprendre cet article que le minutage calculé automatiquement et affiché dans l’en-tête ?”) et la seconde, nous l’avons tous et toutes en tête, tient en une question simple : “Allons-nous un jour lire dans wallonica.org des articles rédigés par un robot doté d’un moteur d’Intelligence Artificielle, afin de nous rapprocher plus rapidement de la Vérité ?”

Aux deux questions, la réponse est “non”, selon moi. Selon moi et selon l’algorithme simple grâce auquel je surveille le décompte des mots de mon texte. Il me confirme qu’il tourne autour des 6.000 mots, soit moins de 25 minutes de lecture. Ensuite, pour répondre à la question 2 : il y a peu de chances qu’un robot, fut-il assez rusé pour passer le filtre de nos interviews préliminaires, puisse un jour être actif au sein de notre équipe et y exercer son intelligence… artificielle.

Sans vouloir manquer de respect envers mes voisins ou mes amis (ce sont quelquefois les mêmes), je ne doute pas qu’un robot puisse faire le service pendant une de nos fêtes de quartier, d’autant qu’on l’aura probablement équipé de bras supplémentaires pour rendre la tâche plus aisée. Mais je doute par contre que je puisse partager avec lui la joie de ce genre de festivités, comme je le fais avec mes amis voisins, que je présuppose honnêtes et libres.

Car libres, les algorithmes ne sont pas – ils sont prisonniers de leurs cartes-mémoire – et, honnêtes, ils le sont d’autant moins puisque, lorsqu’on leur demande de dire la Vérité, ils en inventent une qui est… statistiquement la plus probable !

Pour filer le parallèle, en adoptant de nouveaux amis, je mise premièrement sur leur liberté de pensée qui permettra des échanges sains ; je parie ensuite sur leur probité en ceci que j’attends, en retour de ma confiance, qu’ils partagent en toute sincérité leur expérience de vie ; enfin, puisque nous savons que de Vérité il n’y a pas, j’espère que toute vérité individuelle qu’ils soumettraient au cours de nos échanges soit la plus pertinente… et pas celle qui me séduirait le plus probablement.

La liberté, la probité et la pertinence : voilà trois points de comparaison entre intelligence artificielle et intelligence humaine qui peuvent nous aider à déduire le travail à entreprendre, pour ne pas vivre une singularité de l’histoire de l’humanité, où les seuls prénoms disponibles pour nos enfants resteraient Siri, Alexa ou leur pendants masculins…

Pour mémoire, le mot singularité – ici, singularité technologique – désigne ce point de rupture où le développement d’une technique devient trop rapide pour que les anciens schémas permettent de prévoir la suite des événements. La même notion est employée pour décrire ce qui se passe à proximité d’un trou noir : les grandeurs qui d’habitude décrivent l’espace-temps y deviennent infinies et ne permettent plus de description au départ des paramètres connus.

Mais, revenons à l’Intelligence Artificielle car tout débat a besoin d’un contexte. A moins de croire en un dieu quelconque, aucun objet de pensée ne peut décemment être discuté dans l’absolu et, cet absolu, nous n’y avons pas accès. Alors versons au dossier différentes pièces, à titre de mises en bouche…

Pièce n°1

Brièvement d’abord, un panneau affiché dans une bibliothèque anglophone évoque la menace d’un grand remplacement avec beaucoup d’humour (merci FaceBook), je traduis : “Merci de ne pas manger dans la bibliothèque : les fourmis vont pénétrer dans la bibliothèque, apprendre à lire et devenir trop intelligentes. La connaissance c’est le pouvoir, et le pouvoir corrompt, donc elles vont devenir malfaisantes et prendre le contrôle du monde. Sauvez-nous de l’apocalypse des fourmis malfaisantes.

© NA

Au temps pour les complotistes de tout poil : l’intelligence artificielle est un merveilleux support de panique, puisqu’on ne la comprend pas. Qui plus est, l’AI (ou IA, en français) est un sujet porteur pour les médias et je ne doute pas que les sociétés informatiques qui en vendent se frottent les mains face au succès de ce nouveau ‘marronnier‘, qui trouve sa place dans les gros titres des périodes sans scoop : “Adaptez notre régime minceur avant l’été“, “Elvis Presley n’est pas mort : les archives de la CIA le prouvent“, “L’intelligence artificielle signe la fin de l’humanité” et, si vraiment on n’a plus rien à dire, un dossier sur les “Secrets de la Franc-Maçonnerie“. Plus on en parle, plus on en vend, ne l’oubliez pas.

Pièce n°2

Moins rigolo mais toujours dans des domaines prisés par les alarmistes, la confidentialité serait mise à mal par l’utilisation des IA. Là, on revient à la réalité : pour répondre à des cahiers spéciaux des charges de plus en plus exigeants et dévoreurs de temps, beaucoup de responsables commerciaux s’adjoignent l’assistance de ChatGPT (licence payante) pour rédiger leur documents de soumission et, ce faisant, partagent des données confidentielles de leur entreprise avec le GPT (GPT signifie en anglais Generative Pre-trained Transformer, soit transformeur génératif pré-entraîné que j’aurais plutôt traduit par ‘transformateur’). Si c’est confortable, économise beaucoup de temps et donne des résultats surprenants de pertinence en termes techniques, cela reste une faute professionnelle grave !

Autre chose est l’utilisation individuelle du même outil (même licence payante) par des consultants indépendants qui doivent également ‘pisser à la copie’, comme on dit, et qui demandent à ChatGPT une première version du texte qu’ils doivent rédiger, un brouillon, un draft, sur lequel ils reviennent ensuite pour lui donner ‘forme humaine’.

Pièce n°3

J’en ai moi-même fait l’expérience lorsqu’il m’a fallu rédiger un article nécrologique sur André Stas dans ces pages. André Stas était un artiste pataphysicien liégeois né en 1949, qui vient de passer l’arme à gauche en 2023. Par curiosité, j’ai demandé à ChatGPT qui était André Stas.

Réponse du robot : “André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. […] Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. […] Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.” Impressionnant ! Surtout la qualité du français !

André Stas © rtbf.be

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est à nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre : “Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

Le chimiste belge évoqué s’appelait en fait Jean-Servais Stas ; la datation donnée (1813-1864) aurait dû être (1813-1891) et, personnellement, j’avais l’habitude de situer ces dates au XIXe siècle, et non au XXe ; par ailleurs, notre André Stas n’était pas un inconnu ! La messe est dite !

Pièce n°4

Une expérience similaire a été faite par le sémanticien français, Michelange Baudoux, qui a donné à ChatGPT le devoir suivant : “Quelles sont les trois caractéristiques les plus importantes de l’humour chez Rabelais ? Illustre chaque caractéristique avec un exemple suivi d’une citation avec référence à la page exacte dans une édition de ton choix.” Du niveau BAC, du lourd…

Avec l’apparence d’une totale confiance en soi, le robot a répondu par un texte complet et circonstancié, qui commençait par le nécessaire “Voici trois caractéristiques de l’humour chez Rabelais, illustrées avec des exemples et des citations…” Vérification faite, les trois caractéristiques étaient crédibles mais… les citations étaient inventées de toutes pièces et elles étaient extraites d’un livre… qui n’a jamais existé. J’ai partagé son article dans notre revue de presse : il y explique pourquoi, selon lui, ‘intelligence artificielle’ est un oxymore (un terme contradictoire). Détail amusant : il tutoie spontanément le robot qu’il interroge. Pourquoi cette familiarité ?

Pièce n°5

Le grand remplacement n’est pas qu’un terme raciste, il existe aussi dans le monde de la sociologie du travail. “Les machines vont-elles nous remplacer professionnellement” était le thème d’un colloque de l’ULiège auquel j’ai assisté et au cours duquel un chercheur gantois a remis les pendules à l’heure sur le sujet. Il a corrigé deux points cruciaux qui, jusque là, justifiaient les cris d’orfraie du Forem et des syndicats. Le premier concernait l’étude anglaise qui aurait affirmé que 50 % des métiers seraient exercés par des robots en 2050. Le texte original disait “pourrait techniquement être exercés“, ce qui est tout autre chose et avait échappé aux journalistes qui avaient sauté sur le scoop. D’autant plus que, deuxième correction : si la puissance de calcul des Intelligences Artificielles connaît une croissance exponentielle (pour les littéraires : ça veut dire “beaucoup et chaque fois beaucoup plus“), les progrès de la robotique qui permet l’automatisation des tâches sont d’une lenteur à rendre jaloux un singe paresseux sous Xanax. Bonne nouvelle, donc, pour nos voisins ils garderont leur job derrière le bar de la fête en Pierreuse.

Pièce n°6

Dans le même registre (celui du grand remplacement professionnel, pas de la manière de servir 3 bières à la fois), les juristes anglo-saxons sont moins frileux et, même, sont assez demandeurs d’un fouineur digital qui puisse effectuer des recherches rapides dans la jurisprudence, c’est à dire, dans le corpus gigantesque de toutes les décisions prises dans l’histoire de la Common Law, le système de droit appliqué par les pays anglo-saxons. Il est alors question que l’Intelligence Artificielle dépouille des millions de références pour isoler celles qui sont pertinentes dans l’affaire concernée plutôt que de vraiment déléguer la rédaction des conclusions à soumettre au Juge. Je demanderai discrètement à mes copains juristes s’ils font ou non appel à ChatGPT pour lesdites conclusions…

Pièce n°7

Dernière expérience, celle de la crise de foie. Moi qui vous parle, j’en ai connu des vraies et ça se soigne avec de l’Elixir du Suédois (je vous le recommande pendant les périodes de fêtes). Mais il y a aussi les problèmes de foie symboliques : là où cet organe nous sert à s’approprier les aliments que nous devons digérer et à en éliminer les substances toxiques, il représente symboliquement la révolte et la colère… peut-être contre la réalité. C’est ainsi que le Titan Prométhée (étymologiquement : le Prévoyant), représentera la révolte contre les dieux, lui qui a dérobé le feu de l’Olympe pour offrir aux hommes les moyens de développer leurs premières technologies, leurs premiers outils. Zeus n’a pas apprécié et l’a condamné à être enchaîné sur un rocher (la matière, toujours la matière) et à voir son foie dévoré chaque jour par un aigle, ledit foie repoussant chaque nuit. Il sera ensuite libéré par Hercule au cours de la septième saison sur Netflix.

IA : un marteau sans maître ?

Le mythe de Prométhée est souvent brandi comme un avertissement contre la confiance excessive de l’homme en ses technologies. De fait, l’angoisse des frustrés du futur, des apocalyptophiles, comme des amateurs de science-fiction alarmiste, porte sur la révolte des machines, ce moment affreux où les dispositifs prendraient le pouvoir.

© Côté

Les robots, développés par des hommes trop confiants en leurs capacités intellectuelles, nous domineraient en des beaux matins qui ne chanteraient plus et qui sentiraient l’huile-moteur. Nous serions alors esclaves des flux de téra-octets circulant entre les différents capteurs de Robocops surdimensionnés, malveillants et ignorants des 3 lois de la robotique formulées par Isaac Asimov en… 1942. Je les cite :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Une illustration magnifique de ce moment-là est donnée par Stanley Kubrick dans son film 2001, l’odyssée de l’espace. Souvenez-vous : une expédition scientifique est envoyée dans l’espace avec un équipage de 5 humains, dont trois sont en léthargie (il n’y a donc que deux astronautes actifs) ; cet équipage est secondé par un robot, une Intelligence Artificielle programmée pour réaliser la mission et baptisée HAL (si vous décalez d’un cran chaque lettre, cela donne IBM). HAL n’est qu’intelligence, au point qu’il va éliminer les astronautes quand ceux-ci, pauvres humains, menaceront le succès de la mission. Pour lui, il n’y a pas de volonté de détruire : il est simplement logique d’éliminer les obstacles qui surgissent, fussent-ils des êtres humains.

© Metro Goldwyn Mayer / Collection Christophel

Kubrick fait de HAL un hors-la-loi selon Asimov (il détruit des êtres humains) mais pousse le raffinement jusqu’à une scène très ambiguë où, alors que Dave, le héros qui a survécu, débranche une à une les barrettes de mémoire du robot, celui-ci affirme : “J’ai peur“, “Mon esprit s’en va, je le sens…” Génie du réalisateur qui s’amuse à brouiller les cartes : une Intelligence Artificielle connaît-elle la peur ? Un robot a-t-il un esprit ? Car, si c’est le cas et que HAL n’est pas simplement un monstre de logique qui compare les situations nouvelles aux scénarios prévus dans sa mémoire, l’Intelligence Artificielle de Kubrick a consciemment commis des assassinats et peut être déclarée ‘coupable’…

A la lecture de ces différentes pièces, on peut garder dans notre manche quelques mots-miroirs pour plus tard. Des mots comme ‘menace extérieure’, ‘dispositif’, ‘avenir technologique’, ‘grand remplacement’, ‘confiance dans la machine’, ‘intelligence froide’, ‘rapport logique’ et, pourrait-on ajouter : ‘intellect‘, conscience‘ et ‘menace intérieure‘, nous allons y venir.

Mais, tout d’abord, il faudrait peut-être qu’on y voie un peu plus clair sur comment fonctionne une Intelligence Artificielle (le calculateur, pas la machine mécanique qui, elle, s’appelle un robot). Pour vous l’expliquer, je vais retourner… au début de mes années nonante !

A l’époque, je donnais des cours de traduction à l’ISTI et j’avais été contacté par Siemens pour des recherches sur leur projet de traduction automatique METAL. C’était déjà une application de l’Intelligence Artificielle et le terme était déjà employé dans leurs documents, depuis le début des travaux… en 1961. METAL était l’acronyme de Mechanical Translation and Analysis of Languages. On sentait déjà les deux tendances dans le seul nom du projet : traduction mécanique pour le clan des pro-robotique et analyse linguistique pour le clan des humanistes. Certaines paires de langues avaient déjà été développées par les initiateurs du projet, l’Université du Texas, notamment le module de traduction du Russe vers l’Anglais (on se demande pourquoi, en pleine période de guerre froide).

Couverture du dossier METAL dans notre DOCUMENTA… © Siemens

Siemens a repris le flambeau sans connaître le succès escompté, car le modèle de METAL demandait trop… d’intelligence artificielle. Je m’explique brièvement. Le projet était magnifique et totalement idéaliste. Noam Chomsky – qui n’est pas que le philosophe qu’on connaît aujourd’hui – avait développé ce que l’on appelait alors la Grammaire Générative et Transformationnelle. En bon structuraliste, il estimait que toute phrase est générée selon des schémas propre à une langue, mais également qu’il existe une structure du discours universelle, à laquelle on peut ramener les différentes langues usuelles. C’est cette hypothèse que devait utiliser METAL pour traduire automatiquement :

      1. en décomposant la syntaxe de la phrase-source en blocs linguistiques [sujet] [verbe de type A] [attribut lié au type A] ou [sujet] [verbe de type B] [objet lié au type B], etc.,
      2. en identifiant les expressions idiomatiques traduisibles directement (ex. le français ‘tromper son partenaire‘ traduit le flamand ‘buiten de pot pissen‘, littéralement ‘pisser hors du pot‘ : on ne traduit pas la phrase mais on prend l’équivalent idiomatique) puis
      3. en transposant le résultat de l’analyse dans la syntaxe de la langue-cible puis
      4. en traduisant les mots qui rentrent dans chacun des blocs.

Deux exemples :

      1. FR : “Enchanté !” > UK : “How do you do !” > expression idiomatique que l’on peut transposer sans traduire la phrase ;
      2. FR : “Mon voisin la joue fair play” > UK : “My neighbour is being fair” > phrase où la syntaxe doit être analysée + une expression idiomatique.

Le schéma utilisé par les ingénieurs de METAL pour expliquer le modèle montrait une espèce de pyramide où les phases d’analyse montaient le long d’un côté et les phases de génération de la traduction descendaient de l’autre, avec, à chaque étage, ce qui pouvait être traduit de la langue source à la langue cible (donc, un étage pour ce qui avait déjà été traduit et pouvait être généré tel quel ; un étage pour les expressions idiomatiques à traduire par leur équivalent dans la langue cible ; un étage pour les phrases de type A demandant analyse, puis un étage pour celles de type B, etc.). Le tout supposait l’existence d’une langue “virtuelle” postée au sommet de la pyramide, une langue théorique, désincarnée, universelle, un schéma commun à la langue source comme à la langue cible : voilà un concept universaliste que la machine n’a pas pu gérer… faute d’intelligence. Sisyphe a donc encore de beaux jours devant lui…

Ce grand rêve Chomskien (doit-on dire humaniste) de langue universelle a alors été balayé du revers de la main, pour des raisons économiques, et on en est revenu au modèle bon-marché des correspondances de un à un de SYSTRAN, un autre projet plus populaire qui alignait des paires de phrases traduites que les utilisateurs corrigeaient au fil de leur utilisation, améliorant la base de données à chaque modification… quand tout allait bien. C’est le modèle qui, je pense, tourne aujourd’hui derrière un site comme LINGUEE.FR ou GOOGLE TRANSLATE.

Pour reprendre les mêmes exemples, si vous demandez la traduction de ‘enchanté‘ hors contexte vous pouvez obtenir ‘charmed‘ ou ‘enchanted‘ (à savoir charmé, enchanté par un sort) aussi bien que “How do you do !” Pour la deuxième phrase, si vous interrogez LINGUEE.FR, et que vous constatez que la traduction anglaise enregistrée est “My donut is being fair” (ce qui équivaut à “Mon beignet est blondinet“), votre correction améliorera automatiquement la mémoire de référence et ainsi de suite…

A l’époque, nous utilisions déjà des applications de TAO (ce n’est pas de la philosophie, ici : T.A.O. est l’acronyme de Traduction Assistée par Ordinateur). Elles fonctionnaient selon le même modèle. Dans notre traitement de texte, il suffisait d’ouvrir la mémoire de traduction fournie par le client (Toyota, Ikea ou John Deere, par exemple), c’est-à-dire, virtuellement, un gigantesque tableau à deux colonnes : imaginez simplement une colonne de gauche pour les phrases en anglais et, en regard, sur la droite, une colonne pour leurs traductions déjà faites en français.

© trados.com

On réglait ensuite le degré de similarité avec lequel on voulait travailler. 80% voulait dire qu’on demandait à l’application de nous fournir toute traduction déjà faite pour ce client-là qui ressemblait au minimum à 80% à la phrase à traduire.

Exemple pour un mode d’emploi IKEA : je dois traduire l’équivalent de “Introduire la vis A23 dans le trou préforé Z42” et cette phrase est similaire à plus de 80% à la phrase, déjà traduite dans la mémoire, “Introduire le tenon A12 dans le trou préforé B7“. Le logiciel me proposera la traduction existant dans sa mémoire comme un brouillon fiable puisqu’elle est exacte… à plus de 80%.

La seule différence avec l’Intelligence Artificielle dont nous parlons aujourd’hui est que le GPT répond avec assurance, comme s’il disait la vérité… à 100% ! Dans cet exemple, dire que le moteur informatique d’Intelligence Artificielle est malhonnête serait une insulte pour notre intelligence… humaine : un algorithme n’a pas conscience de valeurs comme la droiture ou, comme nous le disions, comme la probité.

Ceci nous renvoie plutôt à nous-mêmes, au statut que nous accordons, en bon prométhéens, à un simple outil ! Si Kubrick brouille les cartes (mémoire) avec la possibilité d’un robot doté d’une conscience en… 1968, il est beaucoup plus sérieux quand il montre le risque encouru, si l’on donne les clefs du château à un dispositif dont le fonctionnement est purement logique (je n’ai pas dit ‘raisonnable’). Dans son film, il y a bel et bien mort d’homme… du fait d’un robot !

Le maître sans marteau ?

La problématique n’est pas nouvelle. Depuis l’histoire de Prométhée et du feu donné aux hommes, beaucoup de penseurs plus autorisés que nous ont déjà exploré la relation de l’Homme avec ses dispositifs. Des malins comme Giorgio Agamben, Jacques Ellul, Michel Foucault ou le bon vieux Jacques Dufresne, ont questionné notre perception du monde, l’appropriation de notre environnement, selon qu’elle passe ou non par des dispositifs intermédiaires, en un mot, par des médias au sens large.

© Gary Larson

C’est ainsi que différence est faite entre, d’une part, la connaissance immédiate que nous pouvons acquérir de notre environnement (exemple : quand vous vous asseyez sur une punaise et que vous prenez conscience de son existence par la sensation de douleur aux fesses émise dans votre cerveau) et, d’autre part, la connaissance médiate, celle qui passe par un dispositif intermédiaire, un médium. Par  exemple : je ne pourrais pas écrire cet article, sans l’aide de mes lunettes.

Ces lunettes sont un dispositif passif qui m’aide à prendre connaissance de mon environnement dans des conditions améliorées. Dans ce cas, le dispositif est un intermédiaire dont la probité ne fait aucun doute : je conçois mal que mes lunettes faussent volontairement la vision du monde physique qui m’entoure. Dans ce cas, les deux types de connaissance – immédiate et médiate – restent alignées, ce qui est parfait dans un contexte technique, où l’outil se contente d’augmenter passivement les capacités de mon corps, là où elles sont déficientes.

Mais qu’en est-il lorsque l’outil, le dispositif – mécanique, humain ou même conceptuel : il est un intermédiaire entre moi et le monde à percevoir – est actif, que ce soit par nature (le dispositif a une volonté propre, comme lorsque vous apprenez la situation politique d’un pays au travers d’un article tendancieux) ou par programmation (exemple : l’algorithme de Google qui propose des réponses paramétrées selon mon profil d’utilisation du moteur de recherche). Dans ces cas d’espèce, le dispositif m’offre activement une vue déformée de mon environnement, un biais défini par ailleurs, pas par moi, et selon les cas, avec neutralité, bienveillance ou… malveillance.

Transposé dans le monde des idées, l’exemple type, la quintessence d’un tel dispositif intermédiaire actif qui offre à notre conscience une vue biaisée du monde autour de nous est, tout simplement, le… dogme. Le dogme – et au-delà du dogme, la notion même de Vérité – le dogme connaît le monde mieux que nous, sait mieux que nous comment aborder notre expérience personnelle et dispose souvent de sa police privée pour faire respecter cette vision. Si nous lui faisons confiance, le dogme se positionne comme un médium déformant, un intermédiaire pas réglo, placé entre le monde qui nous entoure et la connaissance que nous en avons.

CNRTL : “DOGME, subst. masc., Proposition théorique établie comme vérité indiscutable par l’autorité qui régit une certaine communauté. Un dogme moral, métaphysique ; le dogme du fatalisme ; “À mesure que les peuples croiront moins, soit à un dogme, soit à une idée, ils mourront moins volontiers et moins noblement” (Lamartine) ; “Hélas ! à quels docteurs faut-il que je me fie ? La leçon des Anciens, dogme ou philosophie, Ne m’a rien enseigné que la crainte et l’orgueil ; Ne m’abandonne pas, toi, qui seule, ô science, Sais forger dans la preuve une ancre à la croyance ! Le doute est douloureux à traîner, comme un deuil.” (Sully Prudhomme).

Aborder le dogme – ou, par exemple, l’intégrisme woke ou la religion – sous l’angle de l’intermédiaire, du dispositif, ce n’est pas nouveau et la connaissance proposée aux adeptes d’un dogme organisé a ceci de particulier que, non seulement il s’agit d’une connaissance médiate, mais que, ici, le medium est une fin en soi, qu’il définit en lui la totalité de la connaissance visée. De cette manière, un ‘religieux’ pourrait se retirer du monde et s’appuyer sur les seules Écritures pour conférer sur la morale ou sur la nécessité de payer son parking en période de soldes.

Or, dans mon approche de la Connaissance, je peux difficilement me satisfaire d’une image du monde fixe et prédéfinie, qui resterait à découvrir (ce qui suppose une énigme à résoudre) ou qui serait déjà consignée dans des textes codés, gardés par Dan Brown avec la complicité de Harry Quebert : ceci impliquerait que cette vérité ultime existe quelque part, comme dans le monde des Idées de Platon, qu’elle soit éternelle et que seuls certains d’entre nous puissent y avoir accès.

© BnF

Or, c’est le travail, et non la croyance, qui est au centre de toutes nos représentations de l’Honnête Homme (et de l’Honnête Femme, bien entendu) et nous naviguons chaque jour de veille entre les rayons d’un Brico spirituel qui, de la culture à l’intuition vitale, nous invite à la pratique de notre humanité, à trouver la Joie dans le sage exercice de notre puissance d’être humain.

Travaillez, prenez de la peine“, “Cent fois sur le métier…“, “Rien n’est fait tant qu’il reste à faire…” : le citoyen responsable, actif, critique et solidaire (les CRACS visés par l’éducation permanente en Belgique) se définit par son travail et, pourrait-on préciser, “par son travail intellectuel.” Or, pour retourner à notre vrai sujet, réfléchir, l’Intelligence Artificielle le fait aussi. Oui, elle le fait, et plus vite, et mieux ! Mais, me direz-vous, le dispositif d’Intelligence Artificielle ne fait que manipuler des savoirs, calculer des données mémorisées, il n’a pas accès à la connaissance comme nous, humains, faute de disposer d’une conscience

Ce que tu ne ramènes pas à ta conscience te reviendra sous forme de destin.

Magnifique citation de Carl-Gustav Jung qui propose lui aussi de travailler, plus précisément de travailler à élargir le champ de notre conscience, à défaut de quoi, nos œillères, nos écailles sur les yeux, nous mettront à la merci de pulsions refoulées ou d’une réalité déformée par nos biais cognitifs.

Pour lui aussi, manifestement, le couple Connaissance-Conscience serait alors le critère qui nous permettrait de faire la différence entre l’Homme et la Machine. On l’opposerait alors au couple Savoirs-Mémoire évoqué au XVIIe par le matheux le plus intéressant de l’histoire de la religion catholique, l’inventeur torturé de la machine à calculer, j’ai nommé : Blaise Pascal. Je le cite : “La conscience est un livre qui doit être consulté sans arrêt.” La conscience est vue ici comme l’ancêtre de la carte-mémoire des Intelligences Artificielles !

Mais, ici encore, de quoi parlons-nous ? Nous voici en fait rentrés dans le périmètre d’une science récente, baptisée la noétique (du grec “noûs” pour connaissance, esprit). Il s’agit de l’étude de la connaissance, sous tous ses aspects.

Endel TULVING est un neuroscientifique canadien d’origine estonienne qui vient de mourir, le 11 septembre dernier. Rassurez-vous, l’homme a d’autres qualités : il a dressé une taxonomie de la conscience en trois types : la conscience autonoétique, la conscience noétique et la conscience anoétique. Je donne la parole à l’anthropologue Paul JORION pour les explications. Il cite un texte de 2023, récent donc :

La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.
La conscience noétique implique une conscience sémantique et conceptuelle sans conscience de soi ; elle implique la capacité d’appliquer des concepts à vos perceptions actuelles et de générer des connaissances à partir de celles-ci.
La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments […] de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.

Au temps pour les définitions. Et, quand le même Paul Jorion demande à ChatGPT, quand il lui demande (et vous remarquerez qu’il vouvoie le robot) : “Où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?“, ledit GPT répond :

Dans la taxonomie tripartite de la conscience d’Endel Tulving, il est important de noter que GPT-3.5, ou tout autre modèle de langage d’IA, ne possède pas de conscience de la même manière que les humains. Les systèmes d’IA tels que GPT-3.5 sont dépourvus d’expériences subjectives, d’émotions, de conscience de soi et de la compréhension profonde associée à la conscience humaine. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises au cours de leur formation. Sur la base de la taxonomie fournie, les capacités de GPT-3.5 pourraient être partiellement classées dans la catégorie de la conscience “noétique” dans une certaine mesure. Il a la capacité de traiter et de générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi ou conscience réflexive. Il peut appliquer des concepts à un texte d’entrée et générer des réponses qui semblent contextuellement pertinentes et cohérentes, ce qui s’apparente au niveau de conscience “noétique” décrit.

En répondant à d’autres questions de Paul Jorion, le GPT remet une couche et insiste (je résume) :

Il existe des différences importantes entre la façon dont les humains apprennent et la façon dont les modèles de langage de l’IA tels que GPT-3 fonctionnent, ce qui contribue aux différences dans leurs capacités et leur conscience : (1) la profondeur et la portée de l’apprentissage… ; (2) la généralisation… ; (3) l’expérience subjective et la conscience… ; (4) la compréhension du contexte… ; et (5) l’apprentissage adaptatif, à savoir que les humains peuvent adapter leurs stratégies d’apprentissage, intégrer de nouvelles informations et réviser leur compréhension au fil du temps. Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données ou s’adapter à des circonstances changeantes.

Le GPT la joue modeste… et il a raison : il ne fait jamais que la synthèse statistiquement la plus logique de ce qu’il a en mémoire ! Plus encore, il aide (sans le savoir vraiment) Paul Jorion à faire le point quand ce dernier lui rappelle que, lorsqu’il lui a parlé un jour de la mort d’un de ses amis, le GPT avait écrit “Mes pensées vont à sa famille…” d’où émotion, donc, pense Jorion. Et le logiciel de préciser :

La phrase “Mes pensées vont à sa famille…” est une réponse socialement appropriée, basée sur des modèles appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel. Le GPT n’a pas de sentiments, de conscience ou de compréhension comme les humains ; ses réponses sont le produit d’associations statistiques dans ses données d’apprentissage.

Comment faut-il nous le dire ? Les Transform(at)eurs Génératifs Pré-entraînés (GPT) disposent d’algorithmes qui dépasse notre entendement, soit, mais seulement en termes de quantité de stockage de données et en termes de puissance combinatoire d’éléments pré-existant dans leur mémoire. Leur capacité à anticiper le mot suivant dans la génération d’une phrase donne des résultats bluffants, peut-être, mais indépendants d’une quelconque conscience. Ils sont très puissants car très rapides. Souvenez-vous de votre cours de physique : la puissance est la force multipliée par la vitesse ! Et n’oublions pas que notre cerveau peut compter sur quelque chose comme 100 milliards de neurones et que le développement récent d’un mini-cerveau artificiel ne comptait que 77.000 neurones et imitait un volume de cerveau équivalent à… 1 mm³ !

Est-ce que ça veut dire que, faute de conscience auto-noétique et a-noétique, l’IA ne représentera aucun danger pour l’humanité avant longtemps ? Je ne sais pas et je m’en fous : la réponse n’est pas à ma portée, je ne peux donc rien en faire pour déterminer mon action.

Mais, est-ce que ça veut dire que nous pouvons faire quelque chose pour limiter le risque, si risque il y a ? Là, je pense que oui et je pense que notre sagesse devrait nous rappeler chaque jour qu’un outil ne sert qu’à augmenter notre propre force et que la beauté de nos lendemains viendra d’une sage volonté de subsistance, pas de notre aveugle volonté de croissance infinie avec l’aide de dispositifs efficaces à tout prix.

Résumons-nous : tout d’abord, qu’une Intelligence Artificielle ne soit pas dotée d’une conscience autonoétique d’elle-même semble acquis actuellement. Qu’elle soit dénuée d’une conscience anoétique qui lui donnerait à tout le moins autant d’instinct qu’un animal semble aussi évident dans l’état actuel de la science informatique. En fait, une Intelligence Artificielle fait, à une vitesse folle, une synthèse statistiquement probable de données présentes dans sa mémoire et génère sa réponse (pour nous) dans un français impeccable mais sans afficher de degré de certitude !

Quant à lui refuser l’accès à une conscience noétique, en d’autres termes “une conscience sémantique et conceptuelle sans conscience de soi“, le questionnement qui en découlerait est au cœur de cet article.

© Thomas Kuhlenbeck/Ikon Images/Corbis

Car, voilà, vous en savez autant que moi, maintenant, nous sommes plus malins, plus savants : nous savons tout de l’Intelligence Artificielle. Nous savons tout de l’intelligence, de la conscience, des rapports de cause à effet. Nous sommes des as de la noétique. Nous avons enregistré tous ces savoirs dans notre mémoire. Nous avons confiance en notre capacité logique. Nous sommes à même d’expliquer les choses en bon français et de répondre à toute question de manière acceptable, à tout le moins crédible, comme des vrais GPT !

D’accord, mais, en sommes-nous pour autant heureux d’être nous-mêmes ? Est-ce que limiter notre satisfaction à cela nous suffit ? Je n’en suis pas convaincu et j’ai l’impression que le trouble que l’on ressent face à la machine, les yeux dans l’objectif de la caméra digitale, cette froideur, ce goût de trop peu, nous pourrions l’attribuer à un doute salutaire qui ne porte pas sur les capacités de ladite machine mais bien sur le fait que le fonctionnement d’une Intelligence Artificielle, manifestement basé sur les mots et les concepts sans conscience de soi, pourrait bien servir de métaphore d’un fonctionnement déviant dont nous, humains, nous rendons trop souvent coupables…

Ce qu’il y a de terrible quand on cherche la vérité, c’est qu’on la trouve.

Quelles qu’aient été les intentions de Remy de Gourmont (un des fondateurs du Mercure de France, mort en 1915) lorsqu’il a écrit cette phrase, elle apporte de l’eau à mon moulin. Il est de fait terrible, quand on cherche la Vérité avec un grand T, d’interroger une Intelligence Artificielle et… de toujours recevoir une réponse. Et on frôle l’horreur absolue, humainement parlant, quand on réalise que cette Vérité tant désirée est statistiquement vraie… à 80% (merci Pareto). Bienvenue en Absurdie !

Ces 80% de ‘certitude statistique’ (un autre oxymore !) donneraient un sourire satisfait au GPT, s’il était capable de satisfaction : il lui faudrait pour cela une conscience de lui-même, de sa propre histoire. Qui plus est, les robots ne sont pas réputés pour être les rois de la passion et de l’affect. Surfant sur les mots et les concepts, une Intelligence Artificielle ne peut pas plus se targuer d’une conscience anoétique, non-verbalisée et reptilienne, on l’a assez dit maintenant.

Reste cette activité dite noétique, nourrie de structures verbales et de concepts, de rapports principalement logiques et de représentations intellectuelles du monde non-validées par l’expérience, bref, d’explications logiques !

C’est avec cette froideur explicative que le robot répond à nos requêtes, fondant son texte sur, postulons, 80% de données pertinentes selon sa programmation, des données exclusivement extraites de sa mémoire interne. Il nous vend la vérité pour le prix du 100% et les 20% qu’il a considérés comme hors de propos sont pour lui du bruit (données extraites non-pertinentes) ou du silence (absence de données). Le GPT nous vend la carte pour le territoire !

Mais n’avons-nous pas aussi, quelquefois, tendance à fonctionner comme des Intelligences Artificielles, à délibérer dans notre for intérieur comme des GPT et à nous nourrir d’explications logiques, générées in silico (c’est-à-dire dans le silicium de notre intellect), générant à volonté des conclusions dites rationnelles, des arguments d’autorité et des rapports de causalité bien éloignés de notre expérience vitale ? Pire encore, ne considérons-nous pas souvent qu’une explication peut tenir lieu de justification et que ce qui est expliqué est d’office légitime ? En procédant ainsi, ne passons-nous pas à côté des 20% restant, négligés par le robot, obsédé qu’il est par ses savoirs, ces 20% qui, pourtant, constituent, pour nous humains, le pourcentage de connaissance bien nécessaire à une saine délibération interne.

Qui plus est, ce faisant, nous ne rendons pas justice à notre Raison : nous clamons qu’elle n’est que science, nous la travestissons en machine savante, logique et scientifique, spécialisée qu’elle serait dans les seules explications intellectuelles. Dans ma vision de l’Honnête Homme, la Raison est autre chose qu’une simple intelligence binaire, synthétisée par un algorithme, verbalisant et conceptualisant tous les phénomènes du monde face auxquels je dois prendre action.

Non, la Raison que j’aime vit d’autre chose que des artifices de l’intellect, plus encore, elle s’en méfie et trempe sa plume dans les 100% de la Vie qui est la mienne, pour répondre à mes interrogations intimes ; elle tempère la froide indépendance de mes facultés logiques avec les caresses et les odeurs de l’expérience, et du doute, et des instincts, avec la peur et l’angoisse et avec la poésie et les symboles qui ne parlent pas la même langue que mes raisonnements, juchés qu’ils sont au sommet de la pyramide de l’intellect.

La Raison que j’aime est dynamique et je la vois comme un curseur intuitif entre deux extrêmes :

      • à une extrémité de la graduation, il y a ce que je baptiserais notre volonté de référence, notre soif inquiète d’explications logiques, de réponses argumentées qui nous permettent de ne pas décider, puisqu’il suffit d’être conforme à ce qui a été établi logiquement,
      • à l’autre extrémité, il y a la volonté d’expérience et le vertige qui en résulte. De ce côté-là, on travaillera plutôt à avoir les épaules aussi larges que sa carrure et on se tiendra prêt à décider, à émettre un jugement subjectif mais sincère.

La pensée libre naît du positionnement du bouton de curseur sur cette échelle, une échelle dont je ne connais pas l’étalonnage et dont la graduation nous permettrait de mesure l’écart entre volonté de référence et volonté d’expérience, plus simplement, entre les moments où je fais primer les explications et les autres où c’est la situation qui préside à mon jugement.

La Raison que j’aime veille en permanence (lorsqu’elle reste bien réveillée) à me rappeler d’où je délibère face aux phénomènes du monde intérieur comme extérieur. Elle m’alerte lorsque je cherche trop d’explications là où l’intuition me permettrait d’avancer ; elle me freine là où mes appétences spontanées manquent de recul. C’est peut-être en cela que la Raison me (nous) permet d’enfin renoncer à la Vérité (qu’elle soit vraie à 80% ou à 100%) !

Dans le beau texte d’Henri Gougaud avec lequel j’aimerais conclure, l’auteur du livre sur les Cathares d’où vient l’extrait compare l’influence du mythe et de la raison sur l’histoire ; mais, nous pouvons le lire en traduisant automatiquement mythe et raison par expérience et référence, la Raison que j’aime mariant les deux dans des proportions variables selon les circonstances. Je cite Gougaud :

Le mythe est accoucheur d’histoire. Il lui donne vie, force, élan. Il fait d’elle, en somme, un lieu à l’abri du non-sens, de l’objectif froid, de l’absurde. La raison s’accommode mal de ses extravagances. Elle fait avec, à contrecœur, comme d’un frère fou dont on craint les ruades et les emportements toujours intempestifs. Elle s’insurge parfois contre les excès de ce proche parent incontrôlable qu’elle nomme, avec un rien de gêne, “imagination populaire”. Elle a besoin d’ordre et d’appuis solides. Elle est sûre, et donc rassurante. Elle nous est à l’évidence un bien infiniment précieux, mais elle n’est guère téméraire. Elle se veut ceinte de remparts, elle tremble si l’on se risque à les franchir car elle ne voit, au-delà de ses territoires, que dangereuse obscurité. Elle sait déduire, analyser, bâtir théories et systèmes. Elle ne peut pas créer la vie. Elle ne peut accoucher d’un être. Le mythe, lui, est fort, mais intenable. Il crée ce que nul n’a prévu. Sur un Jésus crucifié que la science connaît à peine et dont la raison ne sait rien il a enfanté des croisades, des saint François, des cathédrales, deux mille ans de folle espérance, d’horreurs, d’effrois et de chefs-d’oeuvre, un monde, une histoire, la nôtre. Quel homme de raison pouvait prévoir cela?

Tout est dit : les 20% de Connaissance que nous ne partageons décidément pas avec les Intelligences Artificielles ont encore un bel avenir dans mon quartier. Il est vrai qu’entre voisins, nous ne tutoyons que les vivants !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, iconographie et documentation | auteur : Patrick Thonart | crédits illustrations : © NA ; © Metro Goldwyn Mayer / Collection Christophel ; © rtbf.be ; © Siemens AG ; © trados.com ; © BnF ; © Gary Larson ; © Thomas Kuhlenbeck/Ikon Images/Corbis.


Place au débat : pus de tribunes libres en Wallonie-Bruxelles…

 

PLUVIAUD J.F., Discours de la méthode maçonnique (2011)

A la différence des nombreux ouvrages consacrés à l’histoire ou à la symbolique de la franc-maçonnerie, Discours de la méthode maçonnique est un véritable « mode d’emploi » de la méthode maçonnique. A l’usage du grand public comme des francs-maçons, Jean-François Pluviaud explique de manière claire et rigoureuse le pourquoi et le comment de cette suite d’exercices spirituels que sont la pratique des rituels et l’interprétation des mythes et des symboles. Dépouillé de tout un vocabulaire ésotérique, qui, souvent encombre les ouvrages de franc-maçonnerie, l’ouvrage fait apparaître la franc-maçonnerie pour ce qu’elle est, c’est-à-dire une véritable école de l’éveil, une méthode d’accroissement de la conscience et de la lucidité en même temps qu’une école du savoir-vivre, dans la grande tradition des écoles philosophiques de l’Antiquité.

LIBREL.BE

Lire une recension de l’ouvrage…

THONART : Suis-je une infox ? (2022)

Temps de lecture : 21 minutes >

Chère lectrice, cher lecteur, je commencerai par te donner une bonne nouvelle : “Non, tu n’es pas une fake news (ou, désormais, en bon français : tu n’es pas une infox) !” Sur ce, comment puis-je l’affirmer ? Comment puis-je être certain que cette information sur un phénomène du monde qui m’est extérieur est bel et bien réelle ? Comment valider ma perception du phénomène “il y a un.e internaute qui lit mon article” auquel mes sens sont confrontés ? Comment puis-je m’avancer avec conviction sur ce sujet, sans craindre de voir l’un d’entre vous se lever et demander à vérifier d’où je tiens cette certitude, que nous avons devant nous un “lecteur curieux” en bonne et due forme ?

Ouverture en Si majeur

Eh bien, ce n’est pas très compliqué. Tout d’abord : peut-être nous connaissons-nous déjà dans la vie réelle (pas dans le métavers) et je t’ai serré la main ou fais la bise, j’ai physiquement identifié ta présence et, dans la mesure où je n’ai vécu, dans les secondes qui suivirent, aucune tempête hormonale me signalant qu’il fallait fuir immédiatement, mon corps a libéré les phéromones de la reconnaissance de l’autre, dont je ne doute pas que tes organes sensoriels aient à leur tour détecté la présence. Ton cerveau a pu régler immédiatement le taux d’adrénaline dans ton sang. Peut-être avons-nous même pu nous asseoir autour d’une table et déguster une bière spéciale car… nous avions soif. Peut-être même t’ai-je entendu commenter cet article, que tu avais lu en avant-première. Tu es un phénomène réel, cher lecteur, car mon cerveau te reconnaît comme tel.

Ensuite, tu n’es pas une infox non plus et j’en ai eu la preuve quand, à cause de toi, j’ai dû interroger mes monstres intérieurs, mes instances de délibération psychologique, mon Olympe personnel (celui où je me vis comme un personnage mythique, tout comme dans mes rêves), alors que tu t’attendais à ce que (parmi d’autres blogueurs) je publie sur cette question qui nous taraude tous depuis sa formulation par Montaigne : “Comment vivre à propos ?” Ma psyché a alors dû aligner

      1. une répugnance naturelle à m’aligner sur un groupe (ici, les blogueurs qui s’expriment sur un auteur, sans faire autorité),
      2. la douce vanité que tisonnait l’impatience que je sentais chez toi, lecteur, et
      3. ma sentimentalité face à la perspective de tes yeux ébahis devant mes commentaires éclairés.

Là, ce sont nos deux personnalités qui ont interagi : preuve est faite de ton existence, parce que c’est toi, parce que c’est moi. Tu es un être humain réel, cher lecteur, car ma psyché te reconnaît comme tel.

Enfin, tu es là, virtuellement face à moi, lectrice, comme le veut ce grand rituel qu’est notre relation éditoriale en ligne. Nous jouons ensemble un jeu de rôle qui nous réunit régulièrement et dans lequel ton rôle est défini clairement. Dans la relation éditeur-lecteur sans laquelle wallonica.org n’a pas de sens, ton rôle doit être assuré, par toi ou par ta voisine. C’est là notre contrat virtuel et je vis avec la certitude que, à chaque publication, un lecteur ou une lectrice lira mon article. Cette certitude est fondée sur notre relation, sur notre discours à son propos, qui prévoit des rôles définis, des scénarios interactifs qui se répètent, qui raconte des légendes dorées sur cette interaction, qui met en avant une batterie de dispositifs qui deviennent, article après article, nos outils de partage en ligne et sur les statistiques de visite de cette page web. Tu es donc là parce qu’il est prévu -par principe- que tu y sois. Tu es une idée réelle, chère lectrice, car ma raison te reconnaît comme telle.

Donc, qu’il s’agisse de mon corps, de ma psyché ou de mes idées, à chaque niveau de mon fonctionnement, de ma délibération, j’acquiers la conviction que tu es là, bien réel.le face à moi ou, du moins, quelque part dans le monde réel (que n’appliquons-nous les mêmes filtres lorsque nous traitons les actualités et les informations quotidiennes dont le sociologue Gérald Bronner affirmait que, au cours des deux dernières années, nous en avons créé autant que pendant la totalité de l’histoire de l’humanité jusque-là !).

Pour conclure ce point, je rappellerai que, traditionnellement, on exige d’une information cinq qualités essentielles : la fiabilité, la pertinence, l’actualité, l’originalité et l’accessibilité… C’est la première de ces cinq qualités que nous validons lorsque nous nous posons la question : info ou infox ?

Dans la même veine : cette question, je peux la poser à propos de… moi-même. Qui me dit que je ne suis pas une infox, pour les autres ou… pour moi-même ? Comment vérifier, avec tout le sens critique que j’aurais exercé pour lire une info complotiste sur FaceBook, comment vérifier que je suis un phénomène fiable pour moi et pour les autres ? Plus précisément, comment vérifier que l’image que j’ai de moi correspond à mon activité réelle (Diel), à ce que je fais réellement dans le monde où je vis avec vous, mes lectrices, mes lecteurs ? Pour mémoire, selon Montaigne, voilà bien les termes dans lesquels nous devons travailler car : “Notre bel et grand chef-d’œuvre, c’est vivre à propos.” C’est-à-dire : sans décalage entre nous et le monde.

Ma proposition est donc de présenter brièvement une clef de lecture de nous-mêmes, un test critique que chaque lecteur ou lectrice de ces lignes pourrait effectuer afin d’éclaircir un des éléments déterminants du fonctionnement de sa raison au quotidien : soi-même.

Tant qu’à prendre des selfies, autant qu’ils soient les plus fiables possibles et tant qu’à exercer notre sens critique, pourquoi pas commencer par nous-mêmes… ?

Aussi, commençons par le commencement : Copernic, Galilée et Newton n’ont pas été les derniers penseurs à transformer fondamentalement notre vision du monde. A son époque, pendant le siècle des Lumières, Kant a remis une question philosophique sur le tapis qui n’est pas anodine ici, à savoir : “Que puis-je connaître ?” (rappelez-vous : nous travaillons sur comment se connaître soi-même).

Kant (anon., ca 1790) © Bucknell University

Kant est un imbuvable, un pas-rigolo, un illisible (il l’a dit lui-même et s’en est excusé à la fin de sa vie) mais nous ne pouvons rester insensibles à sa définition des Lumières, je cite :

La philosophie des Lumières représente la sortie de l’être humain de son état […] de mineur aux facultés limitées. Cette minorité réside dans son incapacité à utiliser son entendement de façon libre et indépendante, sans prendre l’avis de qui que ce soit. Il est seul responsable de cette minorité dès lors que la cause de celle-ci ne réside pas dans un entendement déficient, mais dans un manque d’esprit de décision et du courage de se servir de cet entendement sans s’en référer à autrui. Sapere aude ! (“aie le courage de faire usage de ton propre entendement !”) doit être la devise de la philosophie des Lumières.

Le message est clair : si tu veux grandir, pense librement et par toi-même. C’est sympa ! Mais comment faire, quels sont mes outils et comment les maîtriser ?

Premiers outils : nos cerveaux…

Pourquoi parler du cerveau d’abord ? En fait, pour interagir avec le monde, nos outils de base sont multiples et nous pensons les connaître mais les neurologues sont aujourd’hui en train de bousculer pas mal de nos certitudes à propos de cet outil majeur qu’est notre cerveau. Le cerveau – et toute la vie de notre corps qu’il organise – est d’ailleurs longtemps resté notre soldat inconnu : seul aux premières lignes, il agit pour notre compte sans que nous nous en rendions compte. Je m’explique…

Kant – et les penseurs qui ensuite ont sorti la divinité du champ de leur travail – estiment que nous ne pouvons concevoir de la réalité que des phénomènes, c’est-à-dire les informations que nous ramènent nos sens (des goûts, des images, des textures, des odeurs, des sons…) et ce, à propos de faits que nous avons pu percevoir. A ces phénomènes, se limite la totalité du périmètre que nous pouvons explorer avec notre raison, explique Kant à son époque. Tout le reste est littérature…

© CNRS

Et le langage utilisé par notre cerveau (ou nos cerveaux si l’on tient compte des autres parties du corps qui sont quelquefois plus riches en neurones), ce langage est trop technique pour notre entendement : impulsions électriques, signaux hormonaux, transformations protéiques et j’en passe. De là peut-être, cette difficulté que nous avons à être bien conscients de l’action de notre cerveau, des modifications en nous qui relèvent seulement de son autorité ou de son activité…

Un exemple ? Qui ne s’est jamais injustement mis en colère après un coup de frein trop brutal ? Était-ce le Code de la route qui justifiait cette colère ? Non. La personne qui l’a subie méritait-elle les noms d’oiseaux qui ont été proférés ? Non. Simplement, un excellent réflexe physiologique s’est traduit dans un coup de frein qui a été déclenché par la peur d’une collision, provoquée par la vue d’un piéton dans la trajectoire du véhicule et l’adrénaline libérée devait trouver un exutoire dans un cri de colère proportionné, faute de quoi elle serait restée dans le sang et aurait généré du stress…

Un autre exemple ? Lequel d’entre nous n’a jamais grondé, giflé voire fessé son enfant juste après lui avoir sauvé la vie, en lui évitant d’être écrasé : on le rattrape par le bras, on le tire sur le trottoir, la voiture passe en trombe et on engueule le petit avec rage pour lui signifier combien on l’aime. On préfère dire que c’est un réflexe, non ?

Nombreuses sont les situations concrètes où nous fonctionnons ainsi, sur la seule base du physiologique, et c’est tant mieux, car nos cerveaux n’ont qu’un objectif : veiller à notre adaptation permanente au milieu dans lequel nous vivons, ceci afin de maintenir la vie dans cet organisme magnifique qui est notre corps.

Partant, il serait recommandé d’identifier au mieux la contribution de nos cerveaux et de notre corps, avant de se perdre dans la justification morale ou intellectuelle de certains de nos actes.

Couche n°2 : la conscience…

Ici, tout se corse. Pendant des millénaires, notre conscience, notre âme, notre soi, notre ego, ont été les stars de la pensée, qu’elle soit religieuse, scientifique ou philosophique. De Jehovah à Freud, le succès a été intégral et permanent au fil des siècles. A l’Homme (ou à la Femme, plus récemment), on assimilait la conscience qu’il ou elle avait de son expérience.

La question du choix entre le Bien et le Mal y était débattue et l’ego était un grand parlement intérieur, en tension entre, en bas, la matière répugnante du corps et, en haut, la pureté des idées nées de l’imagination ou générées par l’intellect.

Or, voilà-t-y pas que nos amis neurologues shootent dans la fourmilière et nous font une proposition vertigineuse, aujourd’hui documentée et commentée dans les revues scientifiques les plus sérieuses : la conscience ne serait qu’un artefact du cerveau, une sorte d’hologramme généré par nos neurones, rien que pour nous-mêmes !

Plus précisément : trois régions du cerveau ont été identifiées, dont la mission commune est de nous donner l’illusion de notre libre-arbitre, l’illusion d’être une personne donnée qui vit des expériences données. Ici, plus question d’une belle conscience autonome, garante de notre dignité et flottant dans les airs ou ancrée dans notre cœur.

Et c’est évidemment encore un coup du cerveau, qui fait son boulot : “si je suis convaincu que j’existe individuellement, je vais tout faire pour ma propre survie.”

Pour illustrer ceci simplement, prenons l’exemple d’un pianiste qui lit une note sur une partition, enfonce une touche du piano et entend la corde vibrer. Il a l’impression de faire une expérience musicale unique alors que ce sont précisément les trois zones du cerveau dont je parlais qui ont œuvré à créer cette impression. Elles ont rassemblé en un seul événement conscient, le stimulus visuel de la note lue, l’action du doigt sur l’ivoire et la perception de la note jouée. L’illusion est parfaite alors que ce sont des sens distincts du cerveau qui ont été activés, à des moments différents et sans corrélation entre eux a priori. C’est vertigineux, je vous le disais : ma conscience, n’est en fait pas consciente.

Je pense qu’on n’a pas encore conscience non plus, des implications d’une telle découverte et je serais curieux de pouvoir en parler un jour avec Steven Laureys.

Reste que, factice ou pas, la conscience que j’ai de moi-même accueille la deuxième couche du modèle que je vous propose : la psyché. Qu’ils soient illusoires ou non, ma psyché, ma personnalité psychologique, ma mémoire traumatique, ma vanité, mes complexes, mon besoin de reconnaissance, mes accusations envers le monde, mes habitudes de positionnement dans les groupes, ma volonté d’être sublime… bref, mes passions, mes affects conditionnent mon interaction avec le monde.

J’en veux pour preuve toutes les fois où je suis rentré dans un local où je devais animer une réunion, donner une conférence ou dispenser une formation : à l’instant-même où je rentrais dans la pièce, il était évident que j’aurais une confrontation avec celui-là, celui-là et celui-là. Je n’ai pas toujours eu du bide mais j’ai commencé grand… en taille, très tôt. Le seul fait de ma stature physique provoquait systématiquement une volonté de mise en concurrence chez les participants les plus arrogants de virilité. Il me revenait alors d’établir ma position d’animateur sans qu’elle ne vienne contrarier le statut des mâles alpha présents ou… de m’affirmer moi-même en mâle alpha quand les mâles en question étaient beaucoup moins baraqués que moi…

Ici, pas de grands idéaux pédagogiques, pas de réflexes physiologiques mais simplement un positionnement affectif, un moment où chacun se vit comme un héros mythique et sublime, dans une confrontation authentiquement héroïque.

J’ai le sentiment que le débat intérieur, à ce moment-là, utilise le même langage que les rêves où, également, chacun se vit comme un personnage mythologique, hors de tout détail accidentel ou quotidien. Regardez la colère d’un informaticien quand un ordinateur ne fait pas ce qu’il veut : elle est homérique et n’est possible que si, l’espace d’un instant, l’informaticien en question a eu l’illusion d’être un dieu tout-puissant, créateur de ce dispositif qui a l’arrogance satanique de lui résister. Encore un coup de la psyché vexée !

Combien de fois -il faut le reconnaître- n’avons-nous pas discuté, disputé, débattu ou polémiqué sur des sujets qui n’en étaient pas mieux éclairés, car force nous était d’abord d’avoir raison devant témoins de la résistance de l’autre, simplement parce qu’il ressemblait trop à notre contrôleur des impôts ou à une collègue carriériste ! C’est un exemple. Passion, quand tu nous tiens… nous, nous ne savons pas nous tenir. On pourra énumérer longuement ces situations où la psyché tient les rênes de nos motivations, alors que nous prétendons agir en vertu de principes sublimes ou d’idées supérieures. Dans ces cas regrettables, les sensations captées par notre cerveau n’ont même pas encore fait leur chemin jusqu’à notre raison que déjà nous réagissons… affectivement.

Il ne s’agit pas ici, par contre, de condamner notre psyché, qui se débat en toute bonne foi dans un seul objectif : obtenir et maintenir la satisfaction que nous pouvons ressentir lorsque nos désirs sont réalisables et notre réalité désirable. Bref, quand l’image que nous avons de nous-même correspond à notre activité réelle. C’est une joie profonde qui en résulte.

Juste à côté, mais en version brouillée : les idées…

A ce stade, résumons-nous : un cerveau hyperconnecté qui nous permet de percevoir et d’agir sur le monde, une psyché mythologisante qui nous positionne affectivement face à ses phénomènes. Il nous manque encore le troisième étage du modèle : les idées, les discours, autrement dit les formes symboliques.

C’est le philosophe Ernst Cassirer qui a concentré ses recherches sur notre formidable faculté de créer des formes symboliques : le Bien, le Mal, Dieu, le Beau, le Vrai, le Juste, le Grand Architecte, le Carré de l’hypoténuse, Du-beau-du-bon-Dubonnet, la Théorie des cordes, “Demain j’enlève le bas”, “Le Chinois est petit et fourbe”, “This parrot is dead”, la Force tranquille, Superman, le Grand remplacement, “Je ne sais pas chanter”, “Mais c’est la Tradition qui veut que…”, “On a toujours fait comme ça”, “les Luxembourgeois sont tellement riches…” Autant de formes symboliques, de discours qui ne relèvent ni de notre physiologie, ni de notre psychologie ; autant de convictions, de systèmes de pensée, de vérités qui, certes, prêtent au débat mais ne peuvent constituer une explication exclusive et finale du monde qui nous entoure (s’il y en avait une, ça se saurait !).

Cassirer ne s’est pas arrêté à un émerveillement bien naturel face à cette faculté généreusement distribuée à l’ensemble des êtres humains : créer des formes symboliques. Il a également averti ses lecteurs d’un danger inhérent à cette faculté : la forme symbolique, l’idée, le discours, a la fâcheuse tendance à devenir totalitaire. En d’autres termes, chacun d’entre nous, lorsqu’il découvre une vérité qui lui convient (ce que l’on appelle une vérité, donc) s’efforce de l’étendre à la totalité de sa compréhension du monde, voire à l’imposer à son entourage (que celui qui n’a jamais observé ce phénomène chez un adolescent vienne me trouver, j’ai des choses à lui raconter…).

© F. Ciccollela

Qui plus est, les fictions et les dogmes qui nous servent d’œillères ne sont pas toujours le fait de la société ou de notre entourage : nous sommes assez grands pour générer nous-mêmes des auto-fictions, des discours qui justifient nos imperfections ou qui perpétuent des scénarios de défense, au-delà du nécessaire.

Il reste donc également important d’identifier les dogmes et les discours qui entravent notre liberté de penser, afin de rendre à chacune de nos idées sa juste place : rien d’autre qu’une opportunité de pensée, sans plus. A défaut, nous risquons de la travestir en vérité absolue, à laquelle il faudrait se conformer !

Mais quel langage utilise-t-on pour échanger sur ces formes symboliques, qu’il s’agisse de réfléchir seul ou de débattre avec des tiers, qu’il s’agisse de fictions personnelles ou de discours littéraires, poétiques, scientifiques, mathématiques, religieux ou philosophiques ?

Il semblerait bien qu’il s’agisse là de la langue commune, telle qu’elle est régie par la grammaire et l’orthographe, codifiée par nos académies. On ne s’étendra pas ici sur les différents procédés de langage, sur la différence entre signifiant et signifié, sur l’usage poétique des mots, sur la différence entre vocabulaire et terminologie. Ce qui m’importe, c’est simplement d’insister sur deux choses, à propos des formes symboliques :

    • d’abord, le discoursvoulu raisonnable- que l’on tient à propos du monde ou d’un quelconque de ses phénomènes, n’est pas le phénomène lui-même. C’est Lao-Tseu qui disait : “Le Tao que l’on peut dire, n’est pas le Tao pour toujours.» Pour faire bref : c’est impunément que l’on peut discourir sur n’importe quel aspect de notre réalité car notre discours n’est pas la chose elle-même (sinon, il serait impossible de parler d’un éléphant lorsqu’on est assis dans une 2CV, par simple manque de place).
    • Ensuite : impunément peut-être pas, car notre formidable faculté de créer des formes symboliques pour représenter le monde (qu’il soit intérieur ou extérieur) sert un objectif particulier bien honorable : celui de nous permettre de construire une image du monde harmonieuse, à défaut de laquelle il sera difficile de se lever demain matin.
Mystère et boules de gomme

Nous voici donc avec un modèle de lecture de nous-mêmes à trois étages : le physiologique, le psychologique et les formes symboliques (ou les discours). Jusque-là, nous avons travaillé à les décrire, à reconnaître leur langage et à identifier leur objectif, c’est-à-dire, leur raison d’être :

    1. l’adaptation à l’environnement, pour le cerveau ;
    2. la satisfaction née de l’équilibre entre désirs intérieurs et possibilités extérieures, pour la psyché, et
    3. l’harmonie dans la vision du monde pour les discours, pour la raison.

Tout cela est bel et bon, mais où est le problème, me direz-vous ? Mystère ! Ou plutôt, justement, le mystère et la tradition qu’il véhicule. Je vous l’ai proposé : à moins d’être croyant, gnostique ou un dangereux gourou, la tradition est à prendre comme un discours, une opportunité de pensée : ce qui n’en fait pas une vérité ! Notre tradition occidentale agence nos trois étages de manière rigoureuse : le corps, notre prison d’organes, est au rez-de-chaussée de la maison ; notre conscience, nécessairement plus élevée que nos seuls boyaux, fait “bel étage” et les idées, sublimes, dominent un étage plus haut, elles rayonnent au départ d’un magnifique penthouse sur la terre entière !

      • raison, splendeur, esprit, idéaux, lumière infinie et vie éternelle en haut ;
      • corps, limitations, affects, déchéance et mort, en bas.

C’est du Platon, du Jehovah, du Jean-Sébastien Bach ou du Louis XIV ! Et c’est cette même tradition idéaliste qui positionne le mystère dans des zones transcendantes, dans un au-delà que notre raison ne peut cerner et dont nous ne possédons pas le langage, sauf “initiation”, bref : le mystère est ineffable tant il est supérieur, bien au-delà de notre entendement.

Face à cette “mystique du télésiège”, qui, depuis des lustres, entrelarde notre culture judéo-chrétienne de besoins d’élévation sublime, il existe une alternative, qui est la vision immanente du monde.

L’immanence, c’est la négation de tout au-delà : tout est déjà là, devant nous, au rez-de-chaussée, qui fait sens, qui est magnifiquement organisé et vivant, qui est prêt à recevoir notre expérience mais seulement dans la limite de nos capacités sensorielles et de notre entendement.

Et c’est bel et bien cette limite qui fournit la signification que nous pourrions donner au mot mystère : “au-delà de cette limite, nos mots ne sont plus valables.” Souvenez-vous de Lao-Tseu quand il évoque l’ordre universel des choses et le silence qu’il impose. Contrairement aux définitions des dictionnaires qui nous expliquent que le “Mystère est une chose obscure, secrète, réservée à des initiés”, le mystère serait cet ordre des choses que nous pouvons appréhender mais pas commenter.

Pas de mots pour décrire le mystère : non pas parce qu’il est par essence un territoire supérieur interdit, réservé aux seuls dieux ou aux initiés, pas du tout, mais parce que, tout simplement, notre entendement a ses limites, tout comme le langage rationnel qu’il utilise.

Nous pouvons donc expérimenter le mystère mais, c’est notre condition d’être humain que d’être incapables de le décrire avec nos mots. J’en veux pour exemple la sagesse de la langue quand, face à un trop-plein de beauté (un paysage alpin, la mer qu’on voit danser, la peau délicate d’un cou ou une toile de Rothko), nous disons : “cela m’a laissé sans mots“, “je ne trouve pas les mots pour le dire“, “je suis resté bouche-bée…”

© ElectroFervor
Sapere Aude versus Amor Fati

Au temps pour le mystère. Le questionner aura permis de dégager deux grosses tendances dans notre culture (et, donc, dans notre manière de penser) : d’une part, l’appel vers l’idéal du genre “mystérieux mystère de la magie de la Sainte Trinité” et, d’autre part, la jouissance pragmatique du “merveilleux mystère de la nature, que c’est tellement beau qu’on ne sait pas comment le dire avec des mots.” Dans les deux cas, le mystère a du sens, on le pressent, mais, dans les deux cas, le mystère est ineffable, que ce soit par interdit (première tendance) ou par simple incapacité de notre raison (seconde tendance).

Dans les deux cas, chacun d’entre nous peut se poser la “question du mystère” : quand, seul avec moi-même, je veux accéder à la connaissance, percer le mystère et goûter au sens de la vie, est-ce que je regarde au-delà des idées ou au cœur de mes sensations ?

Merveille de notre qualité d’humains, nous pratiquons les deux mouvements : de l’expérience au monde des idées, du monde des idées à l’expérience ; en d’autres termes, de l’action à la fiction, et de la fiction à l’action.

Pour mieux vous expliquer, j’appelle à la barre deux penseurs qui y ont pensé avant moi : Emmanuel Kant et Friedrich Nietzsche.

Avec son Sapere Aude (“Ose utiliser ton entendement”), Kant représente le mouvement qui va de l’action à la fiction. Ce n’est pas pour rien qu’il vivait au Siècle des Lumières, siècle qui a substitué aux pouvoirs combinés du Roi et de l’Eglise, l’hégémonie de la Raison. Pour reprendre la métaphore, dans la maison de Kant, l’ascenseur s’arrête bel et bien à nos trois étages (cerveau, psyché et formes symboliques) mais le liftier invite ceux qui cherchent la connaissance à monter vers la Raison, dont j’affirme qu’elle est également une forme symbolique, un discours, pas une réalité essentielle. Pour Kant, le mouvement va de l’expérience à la Raison.

Dans la maison de Nietzsche par contre, le liftier propose le trajet inverse, fort de la parole de son maître qui invite à l’Amor Fati (“Aime ce qui t’arrive“). Pour le philosophe, il importe de se libérer des discours communs, des idées totalitaires et ankylosantes, ces crédos que ruminent nos frères bovidés, et de devenir ce que nous sommes intimement, dans toute la puissance et la profondeur de ce que nous pouvons être (ceci incluant nos monstres !).

© Asep Syaeful/Pexels

Il nous veut un peu comme un samouraï qui, par belle ou par laide, s’entraînerait tous les jours pour être prêt à affronter sans peur… quoi qu’il lui arrive pratiquement. Cela implique pour lui le sérieux, l’hygiène de vie et l’attention au monde : trois disciplines qui ne sont pas des valeurs en soi, mais des bonnes pratiques.

Le mouvement préconisé va donc des idées, des fictions, vers l’action, vers l’expérience, vers le faire, comme le chante l’éternel Montaigne, grand apôtre de l’expérience juste. Je le cite :

Quand je danse, je danse ; et quand je dors, je dors. Et quand je me promène seul dans un beau jardin, si mes pensées se sont occupées d’autre chose pendant quelque temps, je les ramène à la promenade, au jardin, à la douceur de cette solitude, et à moi. La Nature nous a prouvé son affection maternelle en s’arrangeant pour que les actions auxquelles nos besoins nous contraignent nous soient aussi une source de plaisir. Et elle nous y convie, non seulement par la raison, mais aussi par le désir. C’est donc une mauvaise chose que d’enfreindre ses règles.

Un modèle pour humains modèles

Le mot est lâché : la règle ! A tout propos philosophique, une conclusion éthique ? Quelle règle de vie est proposée ici ? Nous visons la connaissance (cliquez curieux !), nous cherchons la lumière dans le Mystère ; nous avons un cerveau, une psyché, des idées ; nous pouvons aller de l’un à l’autre et de l’autre à l’un. Soit. Mais encore ?

Souvenez-vous : nous nous étions donné comme objectif de bien nous outiller pour vérifier si nous étions une infox à nous-mêmes, ou non. Dans les films, cela s’appelle une introspection si un des deux acteurs est allongé sur un divan et une méditation quand l’acteur principal se balade en robe safran, avec les yeux un peu bridés sous un crâne poli.

Pour Nietzsche, ce n’est pas être moral que de viser systématiquement la conformité avec des dogmes qui présideraient à notre vie, qui précéderaient notre expérience et qui se justifieraient par des valeurs essentielles, stockées quelque part dans le Cloud de nos traditions ou de nos légendes personnelles.

Vous me direz : “Être conforme, c’est immoral, peut-être, môssieur le censeur ?

      • Je réponds oui, si la norme que l’on suit se veut exclusive, définitive et n’accepte pas de révision (souvenez-vous : les formes symboliques deviennent facilement totalitaires. Méfiance, donc) ; la respecter serait trahir ma conviction que la vie est complexe et que la morale ne se dicte pas ;
      • oui encore, si la norme suivie me brime intimement, qu’elle fait fi de ma personne et de mes aspirations sincères, qu’elle m’est imposée par la force, la manipulation ou la domination ; la respecter serait ne pas me respecter (souvenez-vous : ma psyché a des aspirations, qui peuvent être légitimes) ;
      • oui enfin, si la norme suivie limite l’expression de ma vitalité, de ma puissance physique (souvenez-vous : mon cerveau travaille au service de ma survie).

En un mot comme en cent : la Grande Santé n’est décidément pas conforme et viser la conformité à un idéal est définitivement une négation de sa propre puissance !

Aussi, faute de disposer d’un catéchisme (tant mieux), je vous propose donc une règle du jeu, des bonnes pratiques, plus précisément une clef de détermination qui n’a qu’un seul but : ne pas mélanger les genres.

Par exemple : ne pas déduire d’un mauvais état de santé des opinions trop sombres, que l’on n’a pas sincèrement. Ne pas expliquer à ses enfants que le monde est moche, alors qu’on est simplement dans un mauvais jour. Ne pas expliquer à ses enfants que le monde est super, alors qu’on est simplement dans un bon jour. Ne pas accepter d’être brimé par quelqu’un parce que c’est toujours comme ça. Ne pas demander quelqu’un en mariage avec sept Triple Karmeliet derrière le col. Accepter d’écouter l’autre même s’il fait trop chaud dans la pièce. Ne pas tirer de conclusion sur la nature essentielle de la femme après une altercation houleuse avec une contractuelle qui posait un pv sur le pare-brise…

Ces exemples sont accidentels, quotidiens, et n’ont qu’une vertu : chacun peut a priori s’y reconnaître. Reste que la même clef de lecture peut probablement s’avérer utile pour des questions plus fondamentales, qui n’ont pas leur place ici, parce qu’elles nous appartiennent à chacun, individuellement.

© audiolib.fr

Allons-y avec un peu plus de légèreté, même si la clef proposée peut être le point de départ d’un travail plus approfondi. On va faire comme avant de tirer les lames du tarot : chacun doit choisir un problème qui le tracasse. Vous êtes prêts ? On y va ?

    1. Est-ce que la question que je me pose est essentielle et influence effectivement le sens de ma vie ?
      1. Oui ? Je cherche une solution au problème sans état d’âme ou je laisse passer la pensée inconfortable et je l’oublie (personne n’a jamais dit qu’il fallait croire tout ce que l’on pense) ;
      2. Sinon, je passe à la question 2.
    2. Est-ce que le déplaisir que je ressens peut-être lié à mon corps (digestion difficile, flatulences, chaleur, vêtements mouillés, posture inconfortable maintenue trop longtemps…)
      1. Oui ? Je prends d’abord un verre de bicarbonate de soude ou un godet de Liqueur du Suédois. Je reviens ensuite à la question 1.
      2. Sinon, je passe à la question 3.
    3. Est-ce que la manière dont je vis le problème est influencées par mes légendes personnelles, ma mémoire traumatique ou peut-elle être influencée par un positionnement psychologique que je crois nécessaire face à ses protagonistes ?
      1. Oui ? Je fais la part des choses et je me reformule le problème. Re-oui ? J’en parle à mon psy en donnant la situation comme exemple.
      2. Sinon, je passe à la question 4.
    4. Est-ce qu’en cherchant une solution au problème je fais appel à des évidences, des certitudes, des principes, des arguments d’autorité, des traditions, des routines de pensée ou des autofictions qui déforment mon analyse ?
      1. Oui ? Je pars au Népal, j’attends quelques années et, une fois apaisé, je me repose la même question avec l’esprit plus clair.
      2. Sinon, je passe à la question 5.
    5. Est-ce que, si je localise lucidement l’étage auquel se situe le nœud de mon problème, cette analyse me procurera une vision du monde plus apaisée ?
      1. Non ? Je recommence le cycle à la question 2.
      2. Oui ? Je passe à la question 6.
    6. Est-ce qu’une solution apportée au problème limiterait mes frustrations et me rendrait suffisamment confiance en mes capacités et en la bienveillance de mes frères humains ?
      1. Oui ? J’analyse, seul ou avec mon psy, l’exagération qui génère ma frustration et je travaille dessus avant de conclure quoi que ce soit à propos de moi ou des autres humains.
      2. Sinon, bonne nouvelle mais pas suffisant pour sauter la question 7.
    7. Est-ce que mon hygiène physique est suffisante pour que mon état de santé ne colonise pas la clarté de ma pensée ?
      1. Oui ? Je renonce au restaurant de ce soir et je rentre manger une biscotte à la maison avant de prendre toute autre décision.
      2. Sinon, je m’en réjouis avec vous : rendez-vous à table !

J’insiste ici : ces questionnements ne sont évidemment valables qu’en cas d’expérience désagréable ou inconfortable, de manies suspectes, de regrets ou de remords, voire plus généralement de situations insatisfaisantes. Si votre situation est satisfaisante et que vous ne ressentez aucune souffrance : eh bien, arrêtez de vous torturer et vivez la Grande Santé !

Peut-on alors entendre raison ? Voire raison garder ?

Nous voici arrivés au terme de la promenade. Je voudrais, avant de conclure, me dédouaner d’une chose : il ne s’agissait pas ici de faire le procès de la raison mais bien de l’illusion de raison, voire des prétentions à la raison. Combien de fois n’entend-on pas habiller de raison un simple argument d’autorité, brandir avec véhémence des principes, des appels à la tradition ou les éternels “on a toujours fait comme ça”, alors que l’écoute et le débat pouvaient apporter des tierces solutions qui rendaient les lendemains partagés possibles et généreux !

Et que le ton badin du ‘fake questionnaire’ ne vous trompe pas : je pense sincèrement que nous sommes souvent en défaut d’identifier lucidement les vrais moteurs de nos motivations. Je pense également qu’identifier les instances qui président à nos prises de décision et bien ressentir leur poids dans ce qui fait pencher la balance, est un exercice plus exigeant qu’il n’y paraît. Je pense enfin que nous vivons dans un monde de représentations toxiques où nous devenons individuellement le dernier bastion de la raison et du sens : raison de plus pour explorer notre vie avec tous les outils disponibles et assainir (autant que faire se peut) ce que nous savons de nous-mêmes.

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction et documentation | auteur : Patrick Thonart | crédits illustrations : © Collection privée ; © Bucknell University ; © CNRS ; © F. Ciccollela ; © ElectroFervor ; © Asep Syaeful/Pexels ; © audiolib.fr | remerciements : Renaud Erpicum.


Libérons la parole !