L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…