Les systèmes d’IA ne savent pas expliquer leurs décisions. Voici les pistes de recherche vers ‘l’explicabilité’

Temps de lecture : 6 minutes >

[THECONVERSATION.COM, 5 décembre 2024] L’utilisation d’intelligences artificielles, dans certains cas, génère des risques de discriminations accrues ou encore de perte de confidentialité ; à tel point que l’Union européenne tente de réguler les usages de l’IA à travers différents niveaux de risques. Ceci pose d’autant plus question que la plupart des systèmes d’IA aujourd’hui ne sont pas en mesure de fournir des explications étayant leurs conclusions. Le domaine de l’IA explicable est en plein essor.

À l’hôpital, des systèmes d’intelligence artificielle (IA) peuvent aider les médecins en analysant les images médicales ou en prédisant les résultats pour les patients sur la base de données historiques. Lors d’un recrutement, des algorithmes peuvent être utilisés pour trier les CV, classer les candidats et même mener les premiers entretiens. Sur Netflix, un algorithme de recommandation prédit les films que vous êtes susceptible d’apprécier en fonction de vos habitudes de visionnage. Même lorsque vous conduisez, des algorithmes prédictifs sont à l’œuvre dans des applications de navigation telles que Waze et Google Maps pour optimiser les itinéraires et prédire les schémas de circulation qui devraient assurer un déplacement plus rapide.

Au bureau, ChatGPT, GitHub Copilot et d’autres outils alimentés par l’IA permettent de rédiger des courriels, d’écrire des codes et d’automatiser des tâches répétitives ; des études suggèrent que jusqu’à 30 % des heures travaillées pourraient être automatisées par l’IA d’ici à 2030.

Ces systèmes d’IA sont très variés, mais ils ont un point commun : leur fonctionnement interne et leurs résultats sont difficiles à expliquer… pas seulement pour le grand public, mais aussi pour les experts. Ce manque d’explicabilité limite le déploiement des systèmes d’IA en pratique. Pour résoudre ce problème et s’aligner sur les exigences réglementaires croissantes, un domaine de recherche connu sous le nom d’IA explicable (ou explicabilité) a vu le jour.

IA, apprentissage automatique… des noms qui recouvrent des systèmes variés

Avec la médiatisation généralisée de l’intelligence artificielle et son déploiement rapide, il est facile de se perdre. En particulier, de nombreux termes circulent pour désigner différentes techniques d’IA, sans que l’on sache forcément bien ce que chacun recouvre, par exemple “apprentissage automatique”, “apprentissage profond” et “grands modèles de langage”, pour n’en citer que quelques-uns.

En termes simples, l’IA fait référence au développement de systèmes informatiques qui effectuent des tâches nécessitant une intelligence humaine, telles que la résolution de problèmes, la prise de décision et la compréhension du langage. Elle englobe divers sous-domaines tels que la robotique, la vision par ordinateur et la compréhension du langage naturel.

Un sous-ensemble important de l’IA est l’apprentissage automatique, qui permet aux ordinateurs d’apprendre à partir de données au lieu d’être explicitement programmés pour chaque tâche. Pour simplifier, la machine observe des schémas dans les données et les utilise pour faire des prédictions ou prendre des décisions. Dans le cas d’un filtre antispam par exemple, le système est entraîné à partir de milliers d’exemples de courriers électroniques indésirables et non indésirables. Au fil du temps, il apprend des éléments – des mots, des phrases ou des détails sur l’expéditeur – qui sont courants dans les spams.

Différentes expressions sont utilisées pour désigner un large éventail de systèmes d’IA © Elsa Couderc, CC BY

L’apprentissage profond est lui-même un sous-ensemble de l’apprentissage automatique et utilise des réseaux de neurones complexes composés de plusieurs couches afin de repérer et d’apprendre des motifs récurrents encore plus sophistiqués. L’apprentissage profond s’avère d’une valeur exceptionnelle pour travailler avec des données textuelles ou des images, et constitue la technologie de base de divers outils de reconnaissance d’images ou de grands modèles de langage tels que ChatGPT.

Réglementer l’IA

Les exemples du début de cet article montrent la grande variété d’applications possibles de l’IA dans différents secteurs. Plusieurs de ces applications, par exemple la suggestion de films sur Netflix, semblent relativement peu risquées, tandis que d’autres, comme le recrutement, l’évaluation d’éligibilité à un crédit bancaire ou le diagnostic médical, peuvent avoir un impact important sur la vie d’une personne. Il est donc essentiel que ces applications soient conformes à des critères éthiques partagés.

C’est à cause de ce besoin d’encadrement que l’Union européenne a proposé son AI Act. Ce cadre réglementaire classe les applications de l’IA en quatre niveaux de risque différents en fonction de leur impact potentiel sur la société et les individus : inacceptable, élevé, limité, et minimal. Chaque niveau mène à différents degrés de réglementation et d’exigences.

Ainsi, les systèmes d’IA à “risque inacceptable”, tels que les systèmes utilisés pour le score social ou la police prédictive, sont interdits en Union européenne, car ils représentent des menaces importantes pour les droits de l’homme.

Les systèmes d’IA à “haut risque” sont autorisés, mais ils sont soumis à la réglementation la plus stricte, car ils sont susceptibles de causer des dommages importants en cas d’échec ou d’utilisation abusive, par exemple dans les secteurs sensibles que sont l’application de la loi et le maintien de l’ordre, le recrutement et l’éducation.

Les systèmes d’IA à “risque limité” comportent un certain risque de manipulation ou de tromperie, par exemple les chatbots ou les systèmes de reconnaissance des émotions, dans lesquels il est primordial que les humains soient informés de leur interaction avec le système d’IA.

Les systèmes d’IA à “risque minimal” contiennent tous les autres systèmes d’IA, tels que les filtres antispam, qui peuvent être déployés sans restrictions supplémentaires.

Le besoin d’explications, ou comment sortir l’IA de la “boîte noire”

De nombreux consommateurs ne sont plus disposés à accepter que les entreprises imputent leurs décisions à des algorithmes à boîte noire. Prenons l’exemple de l’incident Apple Card, où un homme s’est vu accorder une limite de crédit nettement plus élevée que celle de sa femme, en dépit du fait qu’ils partageaient les mêmes biens. Cet incident a suscité l’indignation du public, car Apple n’a pas été en mesure d’expliquer le raisonnement qui sous-tend la décision de son algorithme. Cet exemple met en évidence le besoin croissant d’expliquer les décisions prises par l’IA, non seulement pour garantir la satisfaction des clients et utilisateurs, mais aussi pour éviter une perception négative de la part du public.

De plus, pour les systèmes d’IA à haut risque, l’article 86 de la loi sur l’IA établit le droit de demander une explication des décisions prises par les systèmes d’IA, ce qui constitue une étape importante pour garantir la transparence des algorithmes.

Au-delà de la conformité légale, les systèmes d’IA “transparents” présentent plusieurs avantages, tant pour les propriétaires de modèles que pour les personnes concernées par les décisions.

Une IA transparente

Tout d’abord, la transparence renforce la confiance (comme dans l’affaire de l’Apple Card) : lorsque les utilisateurs comprennent le fonctionnement d’un système d’IA, ils sont plus susceptibles de l’utiliser.

Deuxièmement, la transparence contribue à éviter les résultats biaisés, en permettant aux régulateurs de vérifier si un modèle favorise injustement des groupes spécifiques.

Enfin, la transparence permet l’amélioration continue des systèmes d’IA en révélant les erreurs ou les effets récurrents inattendus.

Globalement, il existe deux approches pour rendre les systèmes d’IA plus transparents.

Tout d’abord, on peut utiliser des modèles d’IA simples, comme les arbres de décision ou les modèles linéaires pour faire des prédictions. Ces modèles sont faciles à comprendre car leur processus de décision est simple.

Par exemple, un modèle de régression linéaire peut être utilisé pour prédire les prix des maisons en fonction de caractéristiques telles que le nombre de chambres, la superficie et l’emplacement. La simplicité réside dans le fait que chaque caractéristique est affectée d’un poids et que la prédiction est simplement la somme de ces caractéristiques pondérées : on distingue clairement comment chaque caractéristique contribue à la prédiction finale du prix du logement.

Cependant, à mesure que les données deviennent plus complexes, ces modèles simples peuvent ne plus être suffisamment performants.

C’est pourquoi les développeurs se tournent souvent vers des “systèmes boîte noire” plus avancés, comme les réseaux de neurones profonds, qui peuvent traiter des données plus importantes et plus complexes, mais qui sont difficiles à interpréter. Par exemple, un réseau de neurones profond comportant des millions de paramètres peut atteindre des performances très élevées, mais la manière dont il prend ses décisions n’est pas compréhensible pour l’homme, car son processus de prise de décision est trop vaste et trop complexe.

L’IA explicable

Une autre option consiste à utiliser ces puissants modèles malgré leur effet de “boîte noire” en conjonction avec un algorithme d’explication distinct. Cette approche, connue sous le nom d’”IA explicable”, permet de bénéficier de la puissance des modèles complexes tout en offrant un certain niveau de transparence.

Une méthode bien connue pour cela est l’explication contre-factuelle, qui consiste à expliquer la décision atteinte par un modèle en identifiant les changements minimaux des caractéristiques d’entrée qui conduiraient à une décision différente.

Par exemple, si un système d’IA refuse un prêt à quelqu’un, une explication contre-factuel pourrait informer le demandeur : “Si votre revenu annuel avait été supérieur de 5 000 euros, votre prêt aurait été approuvé“. Cela rend la décision plus compréhensible, tout en conservant un modèle d’apprentissage automatique complexe et performant. L’inconvénient est que ces explications sont des approximations, ce qui signifie qu’il peut y avoir plusieurs façons d’expliquer la même décision.

Vers des usages positifs et équitables

À mesure que les systèmes d’IA deviennent de plus en plus complexes, leur potentiel de transformer la société s’accroît, tout comme leur capacité à commettre des erreurs. Pour que les systèmes d’IA soient réellement efficaces et fiables, les utilisateurs doivent pouvoir comprendre comment ces modèles prennent leurs décisions.

La transparence n’est pas seulement une question de confiance, elle est aussi cruciale pour détecter les erreurs et garantir l’équité. Par exemple, dans le cas des voitures autonomes, une IA explicable peut aider les ingénieurs à comprendre pourquoi la voiture a mal interprété un panneau d’arrêt ou n’a pas reconnu un piéton. De même, en matière d’embauche, comprendre comment un système d’IA classe les candidats peut aider les employeurs à éviter les sélections biaisées et à promouvoir la diversité.

En nous concentrant sur des systèmes d’IA transparents et éthiques, nous pouvons faire en sorte que la technologie serve les individus et la société de manière positive et équitable.

David Martens & Sofie Goethals, Université d’Anvers


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © la.blogs.nvidia.com ; © Elsa Couderc, CC BY.


Plus de dispositifs en Wallonie…

L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…