THONART : Intelligence artificielle et artifices de l’intelligence (2024)

Temps de lecture : 25 minutes >

Mises-en-bouche

Fidèles lecteurs, je sais qu’une question lancinante vous taraude, au point d’avoir pris plus d’un apéritif avant de vous mettre devant cet écran, afin de noyer votre malaise existentiel avant de commencer à lire. Plus précisément, deux interrogations vous minent le moral. La première concerne la longueur de cet article (“Vais-je prendre plus de temps pour lire et comprendre cet article que le minutage calculé automatiquement et affiché dans l’en-tête ?”) et la seconde, nous l’avons tous et toutes en tête, tient en une question simple : “Allons-nous un jour lire dans wallonica.org des articles rédigés par un robot doté d’un moteur d’Intelligence Artificielle, afin de nous rapprocher plus rapidement de la Vérité ?”

Aux deux questions, la réponse est “non”, selon moi. Selon moi et selon l’algorithme simple grâce auquel je surveille le décompte des mots de mon texte. Il me confirme qu’il tourne autour des 6.000 mots, soit moins de 25 minutes de lecture. Ensuite, pour répondre à la question 2 : il y a peu de chances qu’un robot, fut-il assez rusé pour passer le filtre de nos interviews préliminaires, puisse un jour être actif au sein de notre équipe et y exercer son intelligence… artificielle.

Sans vouloir manquer de respect envers mes voisins ou mes amis (ce sont quelquefois les mêmes), je ne doute pas qu’un robot puisse faire le service pendant une de nos fêtes de quartier, d’autant qu’on l’aura probablement équipé de bras supplémentaires pour rendre la tâche plus aisée. Mais je doute par contre que je puisse partager avec lui la joie de ce genre de festivités, comme je le fais avec mes amis voisins, que je présuppose honnêtes et libres.

Car libres, les algorithmes ne sont pas – ils sont prisonniers de leurs cartes-mémoire – et, honnêtes, ils le sont d’autant moins puisque, lorsqu’on leur demande de dire la Vérité, ils en inventent une qui est… statistiquement la plus probable !

Pour filer le parallèle, en adoptant de nouveaux amis, je mise premièrement sur leur liberté de pensée qui permettra des échanges sains ; je parie ensuite sur leur probité en ceci que j’attends, en retour de ma confiance, qu’ils partagent en toute sincérité leur expérience de vie ; enfin, puisque nous savons que de Vérité il n’y a pas, j’espère que toute vérité individuelle qu’ils soumettraient au cours de nos échanges soit la plus pertinente… et pas celle qui me séduirait le plus probablement.

La liberté, la probité et la pertinence : voilà trois points de comparaison entre intelligence artificielle et intelligence humaine qui peuvent nous aider à déduire le travail à entreprendre, pour ne pas vivre une singularité de l’histoire de l’humanité, où les seuls prénoms disponibles pour nos enfants resteraient Siri, Alexa ou leur pendants masculins…

Pour mémoire, le mot singularité – ici, singularité technologique – désigne ce point de rupture où le développement d’une technique devient trop rapide pour que les anciens schémas permettent de prévoir la suite des événements. La même notion est employée pour décrire ce qui se passe à proximité d’un trou noir : les grandeurs qui d’habitude décrivent l’espace-temps y deviennent infinies et ne permettent plus de description au départ des paramètres connus.

Mais, revenons à l’Intelligence Artificielle car tout débat a besoin d’un contexte. A moins de croire en un dieu quelconque, aucun objet de pensée ne peut décemment être discuté dans l’absolu et, cet absolu, nous n’y avons pas accès. Alors versons au dossier différentes pièces, à titre de mises en bouche…

Pièce n°1

Brièvement d’abord, un panneau affiché dans une bibliothèque anglophone évoque la menace d’un grand remplacement avec beaucoup d’humour (merci FaceBook), je traduis : “Merci de ne pas manger dans la bibliothèque : les fourmis vont pénétrer dans la bibliothèque, apprendre à lire et devenir trop intelligentes. La connaissance c’est le pouvoir, et le pouvoir corrompt, donc elles vont devenir malfaisantes et prendre le contrôle du monde. Sauvez-nous de l’apocalypse des fourmis malfaisantes.

© NA

Au temps pour les complotistes de tout poil : l’intelligence artificielle est un merveilleux support de panique, puisqu’on ne la comprend pas. Qui plus est, l’AI (ou IA, en français) est un sujet porteur pour les médias et je ne doute pas que les sociétés informatiques qui en vendent se frottent les mains face au succès de ce nouveau ‘marronnier‘, qui trouve sa place dans les gros titres des périodes sans scoop : “Adaptez notre régime minceur avant l’été“, “Elvis Presley n’est pas mort : les archives de la CIA le prouvent“, “L’intelligence artificielle signe la fin de l’humanité” et, si vraiment on n’a plus rien à dire, un dossier sur les “Secrets de la Franc-Maçonnerie“. Plus on en parle, plus on en vend, ne l’oubliez pas.

Pièce n°2

Moins rigolo mais toujours dans des domaines prisés par les alarmistes, la confidentialité serait mise à mal par l’utilisation des IA. Là, on revient à la réalité : pour répondre à des cahiers spéciaux des charges de plus en plus exigeants et dévoreurs de temps, beaucoup de responsables commerciaux s’adjoignent l’assistance de ChatGPT (licence payante) pour rédiger leur documents de soumission et, ce faisant, partagent des données confidentielles de leur entreprise avec le GPT (GPT signifie en anglais Generative Pre-trained Transformer, soit transformeur génératif pré-entraîné que j’aurais plutôt traduit par ‘transformateur’). Si c’est confortable, économise beaucoup de temps et donne des résultats surprenants de pertinence en termes techniques, cela reste une faute professionnelle grave !

Autre chose est l’utilisation individuelle du même outil (même licence payante) par des consultants indépendants qui doivent également ‘pisser à la copie’, comme on dit, et qui demandent à ChatGPT une première version du texte qu’ils doivent rédiger, un brouillon, un draft, sur lequel ils reviennent ensuite pour lui donner ‘forme humaine’.

Pièce n°3

J’en ai moi-même fait l’expérience lorsqu’il m’a fallu rédiger un article nécrologique sur André Stas dans ces pages. André Stas était un artiste pataphysicien liégeois né en 1949, qui vient de passer l’arme à gauche en 2023. Par curiosité, j’ai demandé à ChatGPT qui était André Stas.

Réponse du robot : “André Stas était un chimiste belge du XIXe siècle, né le 30 décembre 1813 à Leuven en Belgique et décédé le 13 décembre 1864 à Schaerbeek. Il est surtout connu pour sa découverte de la loi de Stas, qui a permis d’établir avec précision les masses atomiques des éléments chimiques. […] Cette méthode a été essentielle pour la compréhension de la composition chimique de la matière, et a jeté les bases de la chimie moderne. […] Sa contribution à la science lui a valu de nombreux honneurs, notamment l’élection à l’Académie royale des sciences, des lettres et des beaux-arts de Belgique en 1850.” Impressionnant ! Surtout la qualité du français !

André Stas © rtbf.be

La réponse du robot est identique si la question devient : “Qui était le liégeois André Stas ?” et lorsque ChatGPT est à nouveau sollicité avec la question “Qui était l’artiste liégeois André Stas ?“, la réponse ne se fait pas attendre : “Je suis désolé, mais il n’y a pas d’artiste liégeois connu sous le nom d’André Stas. Le nom André Stas est généralement associé à un chimiste belge du XXe siècle, comme je l’ai expliqué dans ma réponse précédente.

Le chimiste belge évoqué s’appelait en fait Jean-Servais Stas ; la datation donnée (1813-1864) aurait dû être (1813-1891) et, personnellement, j’avais l’habitude de situer ces dates au XIXe siècle, et non au XXe ; par ailleurs, notre André Stas n’était pas un inconnu ! La messe est dite !

Pièce n°4

Une expérience similaire a été faite par le sémanticien français, Michelange Baudoux, qui a donné à ChatGPT le devoir suivant : “Quelles sont les trois caractéristiques les plus importantes de l’humour chez Rabelais ? Illustre chaque caractéristique avec un exemple suivi d’une citation avec référence à la page exacte dans une édition de ton choix.” Du niveau BAC, du lourd…

Avec l’apparence d’une totale confiance en soi, le robot a répondu par un texte complet et circonstancié, qui commençait par le nécessaire “Voici trois caractéristiques de l’humour chez Rabelais, illustrées avec des exemples et des citations…” Vérification faite, les trois caractéristiques étaient crédibles mais… les citations étaient inventées de toutes pièces et elles étaient extraites d’un livre… qui n’a jamais existé. J’ai partagé son article dans notre revue de presse : il y explique pourquoi, selon lui, ‘intelligence artificielle’ est un oxymore (un terme contradictoire). Détail amusant : il tutoie spontanément le robot qu’il interroge. Pourquoi cette familiarité ?

Pièce n°5

Le grand remplacement n’est pas qu’un terme raciste, il existe aussi dans le monde de la sociologie du travail. “Les machines vont-elles nous remplacer professionnellement” était le thème d’un colloque de l’ULiège auquel j’ai assisté et au cours duquel un chercheur gantois a remis les pendules à l’heure sur le sujet. Il a corrigé deux points cruciaux qui, jusque là, justifiaient les cris d’orfraie du Forem et des syndicats. Le premier concernait l’étude anglaise qui aurait affirmé que 50 % des métiers seraient exercés par des robots en 2050. Le texte original disait “pourrait techniquement être exercés“, ce qui est tout autre chose et avait échappé aux journalistes qui avaient sauté sur le scoop. D’autant plus que, deuxième correction : si la puissance de calcul des Intelligences Artificielles connaît une croissance exponentielle (pour les littéraires : ça veut dire “beaucoup et chaque fois beaucoup plus“), les progrès de la robotique qui permet l’automatisation des tâches sont d’une lenteur à rendre jaloux un singe paresseux sous Xanax. Bonne nouvelle, donc, pour nos voisins ils garderont leur job derrière le bar de la fête en Pierreuse.

Pièce n°6

Dans le même registre (celui du grand remplacement professionnel, pas de la manière de servir 3 bières à la fois), les juristes anglo-saxons sont moins frileux et, même, sont assez demandeurs d’un fouineur digital qui puisse effectuer des recherches rapides dans la jurisprudence, c’est à dire, dans le corpus gigantesque de toutes les décisions prises dans l’histoire de la Common Law, le système de droit appliqué par les pays anglo-saxons. Il est alors question que l’Intelligence Artificielle dépouille des millions de références pour isoler celles qui sont pertinentes dans l’affaire concernée plutôt que de vraiment déléguer la rédaction des conclusions à soumettre au Juge. Je demanderai discrètement à mes copains juristes s’ils font ou non appel à ChatGPT pour lesdites conclusions…

Pièce n°7

Dernière expérience, celle de la crise de foie. Moi qui vous parle, j’en ai connu des vraies et ça se soigne avec de l’Elixir du Suédois (je vous le recommande pendant les périodes de fêtes). Mais il y a aussi les problèmes de foie symboliques : là où cet organe nous sert à s’approprier les aliments que nous devons digérer et à en éliminer les substances toxiques, il représente symboliquement la révolte et la colère… peut-être contre la réalité. C’est ainsi que le Titan Prométhée (étymologiquement : le Prévoyant), représentera la révolte contre les dieux, lui qui a dérobé le feu de l’Olympe pour offrir aux hommes les moyens de développer leurs premières technologies, leurs premiers outils. Zeus n’a pas apprécié et l’a condamné à être enchaîné sur un rocher (la matière, toujours la matière) et à voir son foie dévoré chaque jour par un aigle, ledit foie repoussant chaque nuit. Il sera ensuite libéré par Hercule au cours de la septième saison sur Netflix.

IA : un marteau sans maître ?

Le mythe de Prométhée est souvent brandi comme un avertissement contre la confiance excessive de l’homme en ses technologies. De fait, l’angoisse des frustrés du futur, des apocalyptophiles, comme des amateurs de science-fiction alarmiste, porte sur la révolte des machines, ce moment affreux où les dispositifs prendraient le pouvoir.

© Côté

Les robots, développés par des hommes trop confiants en leurs capacités intellectuelles, nous domineraient en des beaux matins qui ne chanteraient plus et qui sentiraient l’huile-moteur. Nous serions alors esclaves des flux de téra-octets circulant entre les différents capteurs de Robocops surdimensionnés, malveillants et ignorants des 3 lois de la robotique formulées par Isaac Asimov en… 1942. Je les cite :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Une illustration magnifique de ce moment-là est donnée par Stanley Kubrick dans son film 2001, l’odyssée de l’espace. Souvenez-vous : une expédition scientifique est envoyée dans l’espace avec un équipage de 5 humains, dont trois sont en léthargie (il n’y a donc que deux astronautes actifs) ; cet équipage est secondé par un robot, une Intelligence Artificielle programmée pour réaliser la mission et baptisée HAL (si vous décalez d’un cran chaque lettre, cela donne IBM). HAL n’est qu’intelligence, au point qu’il va éliminer les astronautes quand ceux-ci, pauvres humains, menaceront le succès de la mission. Pour lui, il n’y a pas de volonté de détruire : il est simplement logique d’éliminer les obstacles qui surgissent, fussent-ils des êtres humains.

© Metro Goldwyn Mayer / Collection Christophel

Kubrick fait de HAL un hors-la-loi selon Asimov (il détruit des êtres humains) mais pousse le raffinement jusqu’à une scène très ambiguë où, alors que Dave, le héros qui a survécu, débranche une à une les barrettes de mémoire du robot, celui-ci affirme : “J’ai peur“, “Mon esprit s’en va, je le sens…” Génie du réalisateur qui s’amuse à brouiller les cartes : une Intelligence Artificielle connaît-elle la peur ? Un robot a-t-il un esprit ? Car, si c’est le cas et que HAL n’est pas simplement un monstre de logique qui compare les situations nouvelles aux scénarios prévus dans sa mémoire, l’Intelligence Artificielle de Kubrick a consciemment commis des assassinats et peut être déclarée ‘coupable’…

A la lecture de ces différentes pièces, on peut garder dans notre manche quelques mots-miroirs pour plus tard. Des mots comme ‘menace extérieure’, ‘dispositif’, ‘avenir technologique’, ‘grand remplacement’, ‘confiance dans la machine’, ‘intelligence froide’, ‘rapport logique’ et, pourrait-on ajouter : ‘intellect‘, conscience‘ et ‘menace intérieure‘, nous allons y venir.

Mais, tout d’abord, il faudrait peut-être qu’on y voie un peu plus clair sur comment fonctionne une Intelligence Artificielle (le calculateur, pas la machine mécanique qui, elle, s’appelle un robot). Pour vous l’expliquer, je vais retourner… au début de mes années nonante !

A l’époque, je donnais des cours de traduction à l’ISTI et j’avais été contacté par Siemens pour des recherches sur leur projet de traduction automatique METAL. C’était déjà une application de l’Intelligence Artificielle et le terme était déjà employé dans leurs documents, depuis le début des travaux… en 1961. METAL était l’acronyme de Mechanical Translation and Analysis of Languages. On sentait déjà les deux tendances dans le seul nom du projet : traduction mécanique pour le clan des pro-robotique et analyse linguistique pour le clan des humanistes. Certaines paires de langues avaient déjà été développées par les initiateurs du projet, l’Université du Texas, notamment le module de traduction du Russe vers l’Anglais (on se demande pourquoi, en pleine période de guerre froide).

Couverture du dossier METAL dans notre DOCUMENTA… © Siemens

Siemens a repris le flambeau sans connaître le succès escompté, car le modèle de METAL demandait trop… d’intelligence artificielle. Je m’explique brièvement. Le projet était magnifique et totalement idéaliste. Noam Chomsky – qui n’est pas que le philosophe qu’on connaît aujourd’hui – avait développé ce que l’on appelait alors la Grammaire Générative et Transformationnelle. En bon structuraliste, il estimait que toute phrase est générée selon des schémas propre à une langue, mais également qu’il existe une structure du discours universelle, à laquelle on peut ramener les différentes langues usuelles. C’est cette hypothèse que devait utiliser METAL pour traduire automatiquement :

      1. en décomposant la syntaxe de la phrase-source en blocs linguistiques [sujet] [verbe de type A] [attribut lié au type A] ou [sujet] [verbe de type B] [objet lié au type B], etc.,
      2. en identifiant les expressions idiomatiques traduisibles directement (ex. le français ‘tromper son partenaire‘ traduit le flamand ‘buiten de pot pissen‘, littéralement ‘pisser hors du pot‘ : on ne traduit pas la phrase mais on prend l’équivalent idiomatique) puis
      3. en transposant le résultat de l’analyse dans la syntaxe de la langue-cible puis
      4. en traduisant les mots qui rentrent dans chacun des blocs.

Deux exemples :

      1. FR : “Enchanté !” > UK : “How do you do !” > expression idiomatique que l’on peut transposer sans traduire la phrase ;
      2. FR : “Mon voisin la joue fair play” > UK : “My neighbour is being fair” > phrase où la syntaxe doit être analysée + une expression idiomatique.

Le schéma utilisé par les ingénieurs de METAL pour expliquer le modèle montrait une espèce de pyramide où les phases d’analyse montaient le long d’un côté et les phases de génération de la traduction descendaient de l’autre, avec, à chaque étage, ce qui pouvait être traduit de la langue source à la langue cible (donc, un étage pour ce qui avait déjà été traduit et pouvait être généré tel quel ; un étage pour les expressions idiomatiques à traduire par leur équivalent dans la langue cible ; un étage pour les phrases de type A demandant analyse, puis un étage pour celles de type B, etc.). Le tout supposait l’existence d’une langue “virtuelle” postée au sommet de la pyramide, une langue théorique, désincarnée, universelle, un schéma commun à la langue source comme à la langue cible : voilà un concept universaliste que la machine n’a pas pu gérer… faute d’intelligence. Sisyphe a donc encore de beaux jours devant lui…

Ce grand rêve Chomskien (doit-on dire humaniste) de langue universelle a alors été balayé du revers de la main, pour des raisons économiques, et on en est revenu au modèle bon-marché des correspondances de un à un de SYSTRAN, un autre projet plus populaire qui alignait des paires de phrases traduites que les utilisateurs corrigeaient au fil de leur utilisation, améliorant la base de données à chaque modification… quand tout allait bien. C’est le modèle qui, je pense, tourne aujourd’hui derrière un site comme LINGUEE.FR ou GOOGLE TRANSLATE.

Pour reprendre les mêmes exemples, si vous demandez la traduction de ‘enchanté‘ hors contexte vous pouvez obtenir ‘charmed‘ ou ‘enchanted‘ (à savoir charmé, enchanté par un sort) aussi bien que “How do you do !” Pour la deuxième phrase, si vous interrogez LINGUEE.FR, et que vous constatez que la traduction anglaise enregistrée est “My donut is being fair” (ce qui équivaut à “Mon beignet est blondinet“), votre correction améliorera automatiquement la mémoire de référence et ainsi de suite…

A l’époque, nous utilisions déjà des applications de TAO (ce n’est pas de la philosophie, ici : T.A.O. est l’acronyme de Traduction Assistée par Ordinateur). Elles fonctionnaient selon le même modèle. Dans notre traitement de texte, il suffisait d’ouvrir la mémoire de traduction fournie par le client (Toyota, Ikea ou John Deere, par exemple), c’est-à-dire, virtuellement, un gigantesque tableau à deux colonnes : imaginez simplement une colonne de gauche pour les phrases en anglais et, en regard, sur la droite, une colonne pour leurs traductions déjà faites en français.

© trados.com

On réglait ensuite le degré de similarité avec lequel on voulait travailler. 80% voulait dire qu’on demandait à l’application de nous fournir toute traduction déjà faite pour ce client-là qui ressemblait au minimum à 80% à la phrase à traduire.

Exemple pour un mode d’emploi IKEA : je dois traduire l’équivalent de “Introduire la vis A23 dans le trou préforé Z42” et cette phrase est similaire à plus de 80% à la phrase, déjà traduite dans la mémoire, “Introduire le tenon A12 dans le trou préforé B7“. Le logiciel me proposera la traduction existant dans sa mémoire comme un brouillon fiable puisqu’elle est exacte… à plus de 80%.

La seule différence avec l’Intelligence Artificielle dont nous parlons aujourd’hui est que le GPT répond avec assurance, comme s’il disait la vérité… à 100% ! Dans cet exemple, dire que le moteur informatique d’Intelligence Artificielle est malhonnête serait une insulte pour notre intelligence… humaine : un algorithme n’a pas conscience de valeurs comme la droiture ou, comme nous le disions, comme la probité.

Ceci nous renvoie plutôt à nous-mêmes, au statut que nous accordons, en bon prométhéens, à un simple outil ! Si Kubrick brouille les cartes (mémoire) avec la possibilité d’un robot doté d’une conscience en… 1968, il est beaucoup plus sérieux quand il montre le risque encouru, si l’on donne les clefs du château à un dispositif dont le fonctionnement est purement logique (je n’ai pas dit ‘raisonnable’). Dans son film, il y a bel et bien mort d’homme… du fait d’un robot !

Le maître sans marteau ?

La problématique n’est pas nouvelle. Depuis l’histoire de Prométhée et du feu donné aux hommes, beaucoup de penseurs plus autorisés que nous ont déjà exploré la relation de l’Homme avec ses dispositifs. Des malins comme Giorgio Agamben, Jacques Ellul, Michel Foucault ou le bon vieux Jacques Dufresne, ont questionné notre perception du monde, l’appropriation de notre environnement, selon qu’elle passe ou non par des dispositifs intermédiaires, en un mot, par des médias au sens large.

© Gary Larson

C’est ainsi que différence est faite entre, d’une part, la connaissance immédiate que nous pouvons acquérir de notre environnement (exemple : quand vous vous asseyez sur une punaise et que vous prenez conscience de son existence par la sensation de douleur aux fesses émise dans votre cerveau) et, d’autre part, la connaissance médiate, celle qui passe par un dispositif intermédiaire, un médium. Par  exemple : je ne pourrais pas écrire cet article, sans l’aide de mes lunettes.

Ces lunettes sont un dispositif passif qui m’aide à prendre connaissance de mon environnement dans des conditions améliorées. Dans ce cas, le dispositif est un intermédiaire dont la probité ne fait aucun doute : je conçois mal que mes lunettes faussent volontairement la vision du monde physique qui m’entoure. Dans ce cas, les deux types de connaissance – immédiate et médiate – restent alignées, ce qui est parfait dans un contexte technique, où l’outil se contente d’augmenter passivement les capacités de mon corps, là où elles sont déficientes.

Mais qu’en est-il lorsque l’outil, le dispositif – mécanique, humain ou même conceptuel : il est un intermédiaire entre moi et le monde à percevoir – est actif, que ce soit par nature (le dispositif a une volonté propre, comme lorsque vous apprenez la situation politique d’un pays au travers d’un article tendancieux) ou par programmation (exemple : l’algorithme de Google qui propose des réponses paramétrées selon mon profil d’utilisation du moteur de recherche). Dans ces cas d’espèce, le dispositif m’offre activement une vue déformée de mon environnement, un biais défini par ailleurs, pas par moi, et selon les cas, avec neutralité, bienveillance ou… malveillance.

Transposé dans le monde des idées, l’exemple type, la quintessence d’un tel dispositif intermédiaire actif qui offre à notre conscience une vue biaisée du monde autour de nous est, tout simplement, le… dogme. Le dogme – et au-delà du dogme, la notion même de Vérité – le dogme connaît le monde mieux que nous, sait mieux que nous comment aborder notre expérience personnelle et dispose souvent de sa police privée pour faire respecter cette vision. Si nous lui faisons confiance, le dogme se positionne comme un médium déformant, un intermédiaire pas réglo, placé entre le monde qui nous entoure et la connaissance que nous en avons.

CNRTL : “DOGME, subst. masc., Proposition théorique établie comme vérité indiscutable par l’autorité qui régit une certaine communauté. Un dogme moral, métaphysique ; le dogme du fatalisme ; “À mesure que les peuples croiront moins, soit à un dogme, soit à une idée, ils mourront moins volontiers et moins noblement” (Lamartine) ; “Hélas ! à quels docteurs faut-il que je me fie ? La leçon des Anciens, dogme ou philosophie, Ne m’a rien enseigné que la crainte et l’orgueil ; Ne m’abandonne pas, toi, qui seule, ô science, Sais forger dans la preuve une ancre à la croyance ! Le doute est douloureux à traîner, comme un deuil.” (Sully Prudhomme).

Aborder le dogme – ou, par exemple, l’intégrisme woke ou la religion – sous l’angle de l’intermédiaire, du dispositif, ce n’est pas nouveau et la connaissance proposée aux adeptes d’un dogme organisé a ceci de particulier que, non seulement il s’agit d’une connaissance médiate, mais que, ici, le medium est une fin en soi, qu’il définit en lui la totalité de la connaissance visée. De cette manière, un ‘religieux’ pourrait se retirer du monde et s’appuyer sur les seules Écritures pour conférer sur la morale ou sur la nécessité de payer son parking en période de soldes.

Or, dans mon approche de la Connaissance, je peux difficilement me satisfaire d’une image du monde fixe et prédéfinie, qui resterait à découvrir (ce qui suppose une énigme à résoudre) ou qui serait déjà consignée dans des textes codés, gardés par Dan Brown avec la complicité de Harry Quebert : ceci impliquerait que cette vérité ultime existe quelque part, comme dans le monde des Idées de Platon, qu’elle soit éternelle et que seuls certains d’entre nous puissent y avoir accès.

© BnF

Or, c’est le travail, et non la croyance, qui est au centre de toutes nos représentations de l’Honnête Homme (et de l’Honnête Femme, bien entendu) et nous naviguons chaque jour de veille entre les rayons d’un Brico spirituel qui, de la culture à l’intuition vitale, nous invite à la pratique de notre humanité, à trouver la Joie dans le sage exercice de notre puissance d’être humain.

Travaillez, prenez de la peine“, “Cent fois sur le métier…“, “Rien n’est fait tant qu’il reste à faire…” : le citoyen responsable, actif, critique et solidaire (les CRACS visés par l’éducation permanente en Belgique) se définit par son travail et, pourrait-on préciser, “par son travail intellectuel.” Or, pour retourner à notre vrai sujet, réfléchir, l’Intelligence Artificielle le fait aussi. Oui, elle le fait, et plus vite, et mieux ! Mais, me direz-vous, le dispositif d’Intelligence Artificielle ne fait que manipuler des savoirs, calculer des données mémorisées, il n’a pas accès à la connaissance comme nous, humains, faute de disposer d’une conscience

Ce que tu ne ramènes pas à ta conscience te reviendra sous forme de destin.

Magnifique citation de Carl-Gustav Jung qui propose lui aussi de travailler, plus précisément de travailler à élargir le champ de notre conscience, à défaut de quoi, nos œillères, nos écailles sur les yeux, nous mettront à la merci de pulsions refoulées ou d’une réalité déformée par nos biais cognitifs.

Pour lui aussi, manifestement, le couple Connaissance-Conscience serait alors le critère qui nous permettrait de faire la différence entre l’Homme et la Machine. On l’opposerait alors au couple Savoirs-Mémoire évoqué au XVIIe par le matheux le plus intéressant de l’histoire de la religion catholique, l’inventeur torturé de la machine à calculer, j’ai nommé : Blaise Pascal. Je le cite : “La conscience est un livre qui doit être consulté sans arrêt.” La conscience est vue ici comme l’ancêtre de la carte-mémoire des Intelligences Artificielles !

Mais, ici encore, de quoi parlons-nous ? Nous voici en fait rentrés dans le périmètre d’une science récente, baptisée la noétique (du grec “noûs” pour connaissance, esprit). Il s’agit de l’étude de la connaissance, sous tous ses aspects.

Endel TULVING est un neuroscientifique canadien d’origine estonienne qui vient de mourir, le 11 septembre dernier. Rassurez-vous, l’homme a d’autres qualités : il a dressé une taxonomie de la conscience en trois types : la conscience autonoétique, la conscience noétique et la conscience anoétique. Je donne la parole à l’anthropologue Paul JORION pour les explications. Il cite un texte de 2023, récent donc :

La conscience autonoétique est la conscience réfléchie de soi : la capacité de situer son expérience actuelle dans le cadre d’un récit de sa propre vie qui s’étend au passé et à l’avenir.
La conscience noétique implique une conscience sémantique et conceptuelle sans conscience de soi ; elle implique la capacité d’appliquer des concepts à vos perceptions actuelles et de générer des connaissances à partir de celles-ci.
La conscience anoétique, peut-être la plus insaisissable de toutes, est une expérience qui n’implique ni conscience de soi ni connaissance sémantique. Elle comprend, par exemple, des sentiments […] de confort ou d’inconfort, de familiarité, de malaise, de présence ou d’absence, de fatigue, de confiance, d’incertitude et de propriété. Il s’agit par exemple du sentiment que l’objet que l’on voit du coin de l’œil est bien un oiseau, du sentiment, en rentrant chez soi, que les choses sont telles qu’on les a laissées (ou pas), du sentiment que l’on est en train de contracter une maladie. Chez l’homme, ces sensations anoétiques se situent en marge de la conscience et ne sont que rarement au centre de l’attention. Chez d’autres animaux, il est possible que l’anoétique soit tout ce qu’il y a.

Au temps pour les définitions. Et, quand le même Paul Jorion demande à ChatGPT, quand il lui demande (et vous remarquerez qu’il vouvoie le robot) : “Où situez-vous le niveau de conscience d’un GPT (comme vous-même) ?“, ledit GPT répond :

Dans la taxonomie tripartite de la conscience d’Endel Tulving, il est important de noter que GPT-3.5, ou tout autre modèle de langage d’IA, ne possède pas de conscience de la même manière que les humains. Les systèmes d’IA tels que GPT-3.5 sont dépourvus d’expériences subjectives, d’émotions, de conscience de soi et de la compréhension profonde associée à la conscience humaine. Ils fonctionnent sur la base de modèles de données et de relations statistiques apprises au cours de leur formation. Sur la base de la taxonomie fournie, les capacités de GPT-3.5 pourraient être partiellement classées dans la catégorie de la conscience “noétique” dans une certaine mesure. Il a la capacité de traiter et de générer des connaissances sémantiques et conceptuelles sans véritable conscience de soi ou conscience réflexive. Il peut appliquer des concepts à un texte d’entrée et générer des réponses qui semblent contextuellement pertinentes et cohérentes, ce qui s’apparente au niveau de conscience “noétique” décrit.

En répondant à d’autres questions de Paul Jorion, le GPT remet une couche et insiste (je résume) :

Il existe des différences importantes entre la façon dont les humains apprennent et la façon dont les modèles de langage de l’IA tels que GPT-3 fonctionnent, ce qui contribue aux différences dans leurs capacités et leur conscience : (1) la profondeur et la portée de l’apprentissage… ; (2) la généralisation… ; (3) l’expérience subjective et la conscience… ; (4) la compréhension du contexte… ; et (5) l’apprentissage adaptatif, à savoir que les humains peuvent adapter leurs stratégies d’apprentissage, intégrer de nouvelles informations et réviser leur compréhension au fil du temps. Les modèles d’IA nécessitent un recyclage manuel pour intégrer de nouvelles données ou s’adapter à des circonstances changeantes.

Le GPT la joue modeste… et il a raison : il ne fait jamais que la synthèse statistiquement la plus logique de ce qu’il a en mémoire ! Plus encore, il aide (sans le savoir vraiment) Paul Jorion à faire le point quand ce dernier lui rappelle que, lorsqu’il lui a parlé un jour de la mort d’un de ses amis, le GPT avait écrit “Mes pensées vont à sa famille…” d’où émotion, donc, pense Jorion. Et le logiciel de préciser :

La phrase “Mes pensées vont à sa famille…” est une réponse socialement appropriée, basée sur des modèles appris, et non le reflet d’une empathie émotionnelle ou d’un lien personnel. Le GPT n’a pas de sentiments, de conscience ou de compréhension comme les humains ; ses réponses sont le produit d’associations statistiques dans ses données d’apprentissage.

Comment faut-il nous le dire ? Les Transform(at)eurs Génératifs Pré-entraînés (GPT) disposent d’algorithmes qui dépasse notre entendement, soit, mais seulement en termes de quantité de stockage de données et en termes de puissance combinatoire d’éléments pré-existant dans leur mémoire. Leur capacité à anticiper le mot suivant dans la génération d’une phrase donne des résultats bluffants, peut-être, mais indépendants d’une quelconque conscience. Ils sont très puissants car très rapides. Souvenez-vous de votre cours de physique : la puissance est la force multipliée par la vitesse ! Et n’oublions pas que notre cerveau peut compter sur quelque chose comme 100 milliards de neurones et que le développement récent d’un mini-cerveau artificiel ne comptait que 77.000 neurones et imitait un volume de cerveau équivalent à… 1 mm³ !

Est-ce que ça veut dire que, faute de conscience auto-noétique et a-noétique, l’IA ne représentera aucun danger pour l’humanité avant longtemps ? Je ne sais pas et je m’en fous : la réponse n’est pas à ma portée, je ne peux donc rien en faire pour déterminer mon action.

Mais, est-ce que ça veut dire que nous pouvons faire quelque chose pour limiter le risque, si risque il y a ? Là, je pense que oui et je pense que notre sagesse devrait nous rappeler chaque jour qu’un outil ne sert qu’à augmenter notre propre force et que la beauté de nos lendemains viendra d’une sage volonté de subsistance, pas de notre aveugle volonté de croissance infinie avec l’aide de dispositifs efficaces à tout prix.

Résumons-nous : tout d’abord, qu’une Intelligence Artificielle ne soit pas dotée d’une conscience autonoétique d’elle-même semble acquis actuellement. Qu’elle soit dénuée d’une conscience anoétique qui lui donnerait à tout le moins autant d’instinct qu’un animal semble aussi évident dans l’état actuel de la science informatique. En fait, une Intelligence Artificielle fait, à une vitesse folle, une synthèse statistiquement probable de données présentes dans sa mémoire et génère sa réponse (pour nous) dans un français impeccable mais sans afficher de degré de certitude !

Quant à lui refuser l’accès à une conscience noétique, en d’autres termes “une conscience sémantique et conceptuelle sans conscience de soi“, le questionnement qui en découlerait est au cœur de cet article.

© Thomas Kuhlenbeck/Ikon Images/Corbis

Car, voilà, vous en savez autant que moi, maintenant, nous sommes plus malins, plus savants : nous savons tout de l’Intelligence Artificielle. Nous savons tout de l’intelligence, de la conscience, des rapports de cause à effet. Nous sommes des as de la noétique. Nous avons enregistré tous ces savoirs dans notre mémoire. Nous avons confiance en notre capacité logique. Nous sommes à même d’expliquer les choses en bon français et de répondre à toute question de manière acceptable, à tout le moins crédible, comme des vrais GPT !

D’accord, mais, en sommes-nous pour autant heureux d’être nous-mêmes ? Est-ce que limiter notre satisfaction à cela nous suffit ? Je n’en suis pas convaincu et j’ai l’impression que le trouble que l’on ressent face à la machine, les yeux dans l’objectif de la caméra digitale, cette froideur, ce goût de trop peu, nous pourrions l’attribuer à un doute salutaire qui ne porte pas sur les capacités de ladite machine mais bien sur le fait que le fonctionnement d’une Intelligence Artificielle, manifestement basé sur les mots et les concepts sans conscience de soi, pourrait bien servir de métaphore d’un fonctionnement déviant dont nous, humains, nous rendons trop souvent coupables…

Ce qu’il y a de terrible quand on cherche la vérité, c’est qu’on la trouve.

Quelles qu’aient été les intentions de Remy de Gourmont (un des fondateurs du Mercure de France, mort en 1915) lorsqu’il a écrit cette phrase, elle apporte de l’eau à mon moulin. Il est de fait terrible, quand on cherche la Vérité avec un grand T, d’interroger une Intelligence Artificielle et… de toujours recevoir une réponse. Et on frôle l’horreur absolue, humainement parlant, quand on réalise que cette Vérité tant désirée est statistiquement vraie… à 80% (merci Pareto). Bienvenue en Absurdie !

Ces 80% de ‘certitude statistique’ (un autre oxymore !) donneraient un sourire satisfait au GPT, s’il était capable de satisfaction : il lui faudrait pour cela une conscience de lui-même, de sa propre histoire. Qui plus est, les robots ne sont pas réputés pour être les rois de la passion et de l’affect. Surfant sur les mots et les concepts, une Intelligence Artificielle ne peut pas plus se targuer d’une conscience anoétique, non-verbalisée et reptilienne, on l’a assez dit maintenant.

Reste cette activité dite noétique, nourrie de structures verbales et de concepts, de rapports principalement logiques et de représentations intellectuelles du monde non-validées par l’expérience, bref, d’explications logiques !

C’est avec cette froideur explicative que le robot répond à nos requêtes, fondant son texte sur, postulons, 80% de données pertinentes selon sa programmation, des données exclusivement extraites de sa mémoire interne. Il nous vend la vérité pour le prix du 100% et les 20% qu’il a considérés comme hors de propos sont pour lui du bruit (données extraites non-pertinentes) ou du silence (absence de données). Le GPT nous vend la carte pour le territoire !

Mais n’avons-nous pas aussi, quelquefois, tendance à fonctionner comme des Intelligences Artificielles, à délibérer dans notre for intérieur comme des GPT et à nous nourrir d’explications logiques, générées in silico (c’est-à-dire dans le silicium de notre intellect), générant à volonté des conclusions dites rationnelles, des arguments d’autorité et des rapports de causalité bien éloignés de notre expérience vitale ? Pire encore, ne considérons-nous pas souvent qu’une explication peut tenir lieu de justification et que ce qui est expliqué est d’office légitime ? En procédant ainsi, ne passons-nous pas à côté des 20% restant, négligés par le robot, obsédé qu’il est par ses savoirs, ces 20% qui, pourtant, constituent, pour nous humains, le pourcentage de connaissance bien nécessaire à une saine délibération interne.

Qui plus est, ce faisant, nous ne rendons pas justice à notre Raison : nous clamons qu’elle n’est que science, nous la travestissons en machine savante, logique et scientifique, spécialisée qu’elle serait dans les seules explications intellectuelles. Dans ma vision de l’Honnête Homme, la Raison est autre chose qu’une simple intelligence binaire, synthétisée par un algorithme, verbalisant et conceptualisant tous les phénomènes du monde face auxquels je dois prendre action.

Non, la Raison que j’aime vit d’autre chose que des artifices de l’intellect, plus encore, elle s’en méfie et trempe sa plume dans les 100% de la Vie qui est la mienne, pour répondre à mes interrogations intimes ; elle tempère la froide indépendance de mes facultés logiques avec les caresses et les odeurs de l’expérience, et du doute, et des instincts, avec la peur et l’angoisse et avec la poésie et les symboles qui ne parlent pas la même langue que mes raisonnements, juchés qu’ils sont au sommet de la pyramide de l’intellect.

La Raison que j’aime est dynamique et je la vois comme un curseur intuitif entre deux extrêmes :

      • à une extrémité de la graduation, il y a ce que je baptiserais notre volonté de référence, notre soif inquiète d’explications logiques, de réponses argumentées qui nous permettent de ne pas décider, puisqu’il suffit d’être conforme à ce qui a été établi logiquement,
      • à l’autre extrémité, il y a la volonté d’expérience et le vertige qui en résulte. De ce côté-là, on travaillera plutôt à avoir les épaules aussi larges que sa carrure et on se tiendra prêt à décider, à émettre un jugement subjectif mais sincère.

La pensée libre naît du positionnement du bouton de curseur sur cette échelle, une échelle dont je ne connais pas l’étalonnage et dont la graduation nous permettrait de mesure l’écart entre volonté de référence et volonté d’expérience, plus simplement, entre les moments où je fais primer les explications et les autres où c’est la situation qui préside à mon jugement.

La Raison que j’aime veille en permanence (lorsqu’elle reste bien réveillée) à me rappeler d’où je délibère face aux phénomènes du monde intérieur comme extérieur. Elle m’alerte lorsque je cherche trop d’explications là où l’intuition me permettrait d’avancer ; elle me freine là où mes appétences spontanées manquent de recul. C’est peut-être en cela que la Raison me (nous) permet d’enfin renoncer à la Vérité (qu’elle soit vraie à 80% ou à 100%) !

Dans le beau texte d’Henri Gougaud avec lequel j’aimerais conclure, l’auteur du livre sur les Cathares d’où vient l’extrait compare l’influence du mythe et de la raison sur l’histoire ; mais, nous pouvons le lire en traduisant automatiquement mythe et raison par expérience et référence, la Raison que j’aime mariant les deux dans des proportions variables selon les circonstances. Je cite Gougaud :

Le mythe est accoucheur d’histoire. Il lui donne vie, force, élan. Il fait d’elle, en somme, un lieu à l’abri du non-sens, de l’objectif froid, de l’absurde. La raison s’accommode mal de ses extravagances. Elle fait avec, à contrecœur, comme d’un frère fou dont on craint les ruades et les emportements toujours intempestifs. Elle s’insurge parfois contre les excès de ce proche parent incontrôlable qu’elle nomme, avec un rien de gêne, “imagination populaire”. Elle a besoin d’ordre et d’appuis solides. Elle est sûre, et donc rassurante. Elle nous est à l’évidence un bien infiniment précieux, mais elle n’est guère téméraire. Elle se veut ceinte de remparts, elle tremble si l’on se risque à les franchir car elle ne voit, au-delà de ses territoires, que dangereuse obscurité. Elle sait déduire, analyser, bâtir théories et systèmes. Elle ne peut pas créer la vie. Elle ne peut accoucher d’un être. Le mythe, lui, est fort, mais intenable. Il crée ce que nul n’a prévu. Sur un Jésus crucifié que la science connaît à peine et dont la raison ne sait rien il a enfanté des croisades, des saint François, des cathédrales, deux mille ans de folle espérance, d’horreurs, d’effrois et de chefs-d’oeuvre, un monde, une histoire, la nôtre. Quel homme de raison pouvait prévoir cela?

Tout est dit : les 20% de Connaissance que nous ne partageons décidément pas avec les Intelligences Artificielles ont encore un bel avenir dans mon quartier. Il est vrai qu’entre voisins, nous ne tutoyons que les vivants !

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction, iconographie et documentation | auteur : Patrick Thonart | crédits illustrations : © NA ; © Metro Goldwyn Mayer / Collection Christophel ; © rtbf.be ; © Siemens AG ; © trados.com ; © BnF ; © Gary Larson ; © Thomas Kuhlenbeck/Ikon Images/Corbis.


Place au débat : pus de tribunes libres en Wallonie-Bruxelles…

 

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…