Deepfakes, vidéos truquées, n’en croyez ni vos yeux ni vos oreilles !

Temps de lecture : 5 minutes >

[THECONVERSATION.COM, 8 juillet 2024] Les spécialistes en fact-checking et en éducation aux médias pensaient avoir trouvé les moyens de lutter contre les ‘deepfakes’, ou hypertrucages, ces manipulations de vidéos fondées sur l’intelligence artificielle, avec des outils de vérification comme Invid-Werify et le travail des compétences d’analyse d’images (littératie visuelle), avec des programmes comme Youverify.eu. Mais quelques cas récents montrent qu’une nouvelle forme de cyberattaque vient de s’ajouter à la panoplie des acteurs de la désinformation, le deepfake audio.

Aux États-Unis, en janvier 2024, un robocall généré par une intelligence artificielle et prétendant être la voix de Joe Biden a touché les habitants du New Hampshire, les exhortant à ne pas voter, et ce, quelques jours avant les primaires démocrates dans cet État. Derrière l’attaque, Steve Kramer, un consultant travaillant pour un adversaire de Biden, Dean Phillips.

En Slovaquie, en mars 2024, une fausse conversation générée par IA mettait en scène la journaliste Monika Tódová et le dirigeant du parti progressiste slovaque Michal Semecka fomentant une fraude électorale. Les enregistrements diffusés sur les réseaux sociaux pourraient avoir influencé le résultat de l’élection.

Le même mois, en Angleterre, une soi-disant fuite sur X fait entendre Keir Starmer, le leader de l’opposition travailliste, insultant des membres de son équipe. Et ce, le jour même de l’ouverture de la conférence de son parti. Un hypertrucage vu plus d’un million de fois en ligne en quelques jours.

Un seul deepfake peut causer de multiples dégâts, en toute impunité. Les implications de l’utilisation de cette technologie affectent l’intégrité de l’information et du processus électoral. Analyser comment les hypertrucages sont générés, interpréter pourquoi ils sont insérés dans les campagnes de déstabilisation et réagir pour s’en prémunir relève de l’Éducation aux médias et à l’information.

Analyser : un phénomène lié à la nouvelle ère des médias synthétiques

Le deepfake audio est une composante des médias synthétiques, à savoir des médias synthétisés par l’intelligence artificielle, de plus en plus éloignés de sources réelles et authentiques. La manipulation audio synthétisée par l’IA est un type d’imitation profonde qui peut cloner la voix d’une personne et lui faire dire des propos qu’elle n’a jamais tenus.

C’est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix qui permettent de produire une fausse voix, difficile à distinguer de la parole authentique d’une personne, sur la base de bribes d’énoncés pour lesquels quelques minutes, voire secondes, suffisent.

L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a contribué à son perfectionnement. La mise à disposition publique de ces technologies à bas coût, accessibles et performantes, ont permis, soit de convertir du texte en son, soit de procéder à une conversion vocale profonde. Les vocodeurs neuronaux actuels sont capables de produire des voix synthétiques qui imitent la voix humaine, tant par le timbre (phonation) que la prosodie (accentuation, amplitude…)

Comment repérer les « deepfakes » ? (France 24, mars 2023).

Les deepfakes sonores sont redoutablement efficaces et piégeants parce qu’ils s’appuient également sur les avancées révolutionnaires de la psycho-acoustique – l’étude de la perception des sons par l’être humain, notamment en matière de cognition. Du signal auditif au sens, en passant par la transformation de ce stimulus en influx nerveux, l’audition est une activité d’attention volontaire et sélective. S’y rajoutent des opérations sociocognitives et interprétatives comme l’écoute et la compréhension de la parole de l’autre, pour nous faire extraire de l’information de notre environnement.

Sans compter le rôle de l’oralité dans nos cultures numériques, appuyée sur des usages en ligne et en mobilité, comme en témoigne la vogue des podcasts. Les médias sociaux se sont emparés de cette réalité humaine pour construire des outils artificiels qui instrumentent la voix comme outil narratif, avec des applications comme FakeYou. La voix et la parole relèvent du registre de l’intime, du privé, de la confidence… et la dernière frontière de la confiance en l’autre. Par exemple, la radio est le média en qui les gens ont le plus confiance, selon le dernier baromètre de confiance Kantar publié par La Croix !

Interpréter : des opérations d’influence facilitées par l’intelligence artificielle

Le clonage vocal présente un énorme potentiel pour détruire la confiance du public et permettre à des acteurs mal intentionnés de manipuler les appels téléphoniques privés. Les deepfakes audio peuvent être utilisés pour générer des falsifications sonores et diffuser de la désinformation et du discours de haine, afin de perturber le bon fonctionnement de divers secteurs de la société, des finances à la politique. Ils peuvent aussi porter atteinte à la réputation des personnes pour les diffamer et les faire chuter dans les sondages.

Le déploiement de deepfakes audio présente de multiples risques, notamment la propagation de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Les risques ne sont pas particulièrement nouveaux mais néanmoins réels, contribuant à dégrader le climat politique, selon le Alan Turing Institute au Royaume-Uni.

Le deepfake, expliqué (Brut, 2021)

Il ne faut donc pas sous-estimer cette amplification à échelle industrielle. Les deepfakes audio sont plus difficiles à détecter que les deepfakes vidéo tout en étant moins chers et plus rapides à produire : ils se greffent facilement sur une actualité récente et sur les peurs de certains secteurs de la population, bien identifiés. En outre, ils s’insèrent avantageusement dans l’arsenal des extrémistes, lors de campagnes d’ingérence en temps de paix comme les élections.

Réagir : de la détection des fraudes à la régulation et à l’éducation

Il existe plusieurs approches pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et relèvent les fréquences plus ou moins élevées, pour filtrer et localiser les manipulations. D’autres entraînent des IA pour qu’elles distinguent des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, les solutions techniques existantes ne parviennent pas à résoudre complètement la question de la détection de la parole synthétique.

Cette détection reste un défi car les manipulateurs tentent de supprimer leurs traces de contrefaçon (par des filtres, des bruits…), avec des générateurs de deepfake audio qui sont de plus en plus sophistiqués. Face à ces vulnérabilités démocratiques restent donc des solutions humaines diverses, qui vont de l’autorégulation à la régulation et impliquent divers types d’acteurs.

Les journalistes et les fact-checkeurs ont augmenté leurs techniques de recherche contradictoire, pour tenir compte de cette nouvelle donne. Ils s’en remettent à leurs stratégies de vérification des sources et de validation du contexte d’émission. Mais ils font aussi appel, via Reporters sans Frontières, au corps juridique, pour la protection des journalistes, afin qu’ils créent un ‘délit de deepfake‘ capable de dissuader les manipulateurs.

Les plates-formes de médias sociaux (Google, Meta, Twitter et TikTok) qui les véhiculent et les amplifient par leurs algorithmes de recommandation sont soumises au nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et enjoint les plates-formes à utiliser leurs outils (modération, déplatformisation…) pour s’en assurer.

Les enseignants et les formateurs en Éducation aux Médias et à l’Information se doivent à leur tour d’être informés, voire formés, pour pouvoir alerter leurs étudiants sur ce type de risque. Ce sont les plus jeunes qui sont les plus visés. A leurs compétences en littératie visuelle, ils doivent désormais ajouter des compétences en littératie sonore.

Les ressources manquent à cet égard et réclament de la préparation. C’est possible en choisissant de bons exemples comme ceux liés à des personnalités politiques et en faisant attention aux 5D de la désinformation (discréditer, déformer, distraire, dévier, dissuader). S’appuyer sur le contexte et le timing de ces cyberattaques est aussi fructueux.

Aux personnalités politiques, somme toute concernées mais très peu formées, le Alan Turing Institute propose une stratégie partageable par tous, les 3I : informer, intercepter, insulariser. En phase de pré-élection, cela consiste à informer sur les risques des deepfakes audio ; en phase de campagne, cela implique d’intercepter les deepfakes et de démonter les scénarios de menace sous-jacents ; en phase post-électorale, cela oblige à renforcer les stratégies d’atténuation des incidents relevés et à les faire connaître auprès du public.

Toutes ces approches doivent se cumuler pour pouvoir assurer l’intégrité de l’information et des élections. Dans tous les cas, soignez votre écoute et prenez de l’AIR : analysez, interprétez, réagissez !

Divina Frau-Meigs


[INFOS QUALITE] statut : validé, republié à partir de The Conversation sous licence Creative Commons | mode d’édition : partage, édition et iconographie | sources : theconversation.com | contributeur : Patrick Thonart | crédits illustrations : en-tête, © DP ; © France 24 ; © Brut.


Plus de presse en Wallonie…

KLEIN : Les IA organisent le plus grand pillage de l’histoire de l’humanité

Temps de lecture : 8 minutes >

[THEGUARDIAN.COM, traduit par COURRIERINTERNATIONALCOM et publié intégralement par PRESSEGAUCHE.ORG, 30 mai 2023] Quand elles se fourvoient, les intelligences artificielles “hallucinent”, disent leurs concepteurs. Cet emprunt au vocabulaire de la psychologie leur permet de renforcer le mythe de machines douées de raison et capables de sauver l’humanité. Alors qu’elles sont de “terrifiants instruments de spoliation”, affirme l’essayiste Naomi Klein, dans cette tribune traduite en exclusivité par Courrier international.

“Au milieu du déluge de polémiques inspirées par le lancement précipité des technologies dites “d’intelligence artificielle” (IA), une obscure querelle fait rage autour du verbe “halluciner”. C’est le terme qu’emploient les concepteurs et défenseurs des IA génératives pour caractériser certaines des réponses totalement inventées, ou objectivement fausses, formulées par les robots conversationnels, ou chatbots.

En récupérant un terme plus communément utilisé dans les domaines de la psychologie, du psychédélisme ou dans diverses formes de mysticisme, les apôtres de l’IA reconnaissent certes le caractère faillible de leurs machines, mais, surtout, ils renforcent le mythe favori de cette industrie : l’idée qu’en élaborant ces grands modèles de langue [LLM] et en les entraînant grâce à tout ce que l’humanité a pu écrire, dire ou représenter visuellement, ils sont en train de donner naissance à une forme d’intelligence douée d’une existence propre et sur le point de marquer un bond majeur pour l’évolution de notre espèce.

Si les hallucinations sont effectivement légion dans le monde de l’IA, elles ne sont toutefois pas le produit des chatbots, mais des esprits fiévreux de certains grands pontes de la tech. Les IA génératives mettront fin à la pauvreté dans le monde, nous disent-ils. Elles vont résoudre le problème du dérèglement climatique. Et elles vont redonner du sens à nos métiers et les rendre plus intéressants.

Il existe bien un monde où les IA génératives pourraient effectivement être au service de l’humanité, des autres espèces et de notre maison commune. Encore faudrait-il pour cela qu’elles soient déployées dans un environnement économique et social radicalement différent de celui que nous connaissons.

Nous vivons dans un système conçu pour extraire le maximum de richesses et de profits – à la fois des êtres humains et de la nature. Et dans cette réalité où le pouvoir et l’argent sont hyper-concentrés, il est nettement plus probable que les IA se transforment en terrifiants instruments de vol et de spoliation.

Je reviendrai sur ce point, mais, dans un premier temps, il est utile de réfléchir au but que servent les charmantes hallucinations des utopistes de l’IA. Voici une hypothèse : sous leur vernis brillant, ces jolies histoires permettent de dissimuler ce qui pourrait se révéler le plus vaste pillage, et le plus conséquent, de l’histoire de l’humanité. Car ce que l’on observe, c’est que les entreprises les plus riches de l’histoire sont en train de faire main basse sur l’entièreté des connaissances humaines consignées sous forme numérique et de les enfermer dans des produits propriétaires, parmi lesquels bon nombre porteront préjudice à des hommes et femmes dont le travail aura été utilisé – sans leur consentement – pour fabriquer ces machines.

C’est ce que la Silicon Valley appelle couramment “disruption” – un tour de passe-passe qui a trop souvent fonctionné. On connaît le principe : foncez dans le Far West réglementaire ; clamez haut et fort que les vieilles règles ne peuvent pas s’appliquer à vos nouvelles technologies. Le temps de dépasser l’effet de nouveauté et de commencer à mesurer les dégâts sociaux, politiques et économiques de ces nouveaux jouets, la technologie est déjà si omniprésente que les législateurs et les tribunaux jettent l’éponge.

Voilà pourquoi les hallucinations sur tous les bienfaits qu’apporteront les IA à l’humanité prennent tant d’importance. Non seulement ces belles promesses tentent de faire passer un pillage à grande échelle comme un cadeau, mais en plus elles contribuent à nier les incontestables menaces que constituent ces technologies.

Comment justifie-t-on le développement d’instruments qui présentent des risques aussi catastrophiques ? Généralement, en affirmant que ces outils recèlent d’immenses bénéfices potentiels. Sauf que la plupart de ces bénéfices relèvent de l’hallucination, du mirage. Examinons-en quelques-uns.

Hallucination n° 1 : les IA résoudront la crise climatique

Le géant de fer (1999) © Warner

Parmi les qualités des IA, l’idée qu’elles pourront d’une manière ou d’une autre trouver une solution à la crise climatique figure presque invariablement en tête de liste. L’ancien PDG de Google Eric Schmidt résume cette conception dans un entretien paru dans The Atlantic, où il affirme qu’en matière d’IA, le jeu en vaut la chandelle : “Quand on pense aux principaux problèmes dans le monde, ils sont tous très compliqués – le changement climatique, les organisations humaines, etc. Et donc, je milite toujours pour que les gens soient plus intelligents.

Selon cette logique, l’absence de solution aux grands défis de notre époque – tels que la crise climatique – serait donc liée à un déficit d’intelligence. Sauf que cela fait des décennies que des gens très intelligents, bardés de doctorats et de prix Nobel, pressent les gouvernements de prendre des mesures impératives. Si leurs très judicieux conseils n’ont pas été écoutés, ce n’est pas parce qu’on ne les comprend pas. C’est parce qu’en suivant leurs recommandations, les gouvernements risqueraient de perdre des milliards et des milliards de dollars dans l’industrie des énergies fossiles et que cela ferait vaciller le modèle de croissance fondé sur la consommation, qui est la clé de voûte de nos économies interconnectées. L’idée qu’il vaut mieux attendre que des machines formulent des solutions plus acceptables et/ou profitables n’est pas un remède au mal, mais un symptôme de plus.

Balayez ces hallucinations et il apparaît nettement plus probable que le déploiement des IA contribuera au contraire à activement aggraver la crise climatique. D’abord parce que les immenses serveurs qui permettent à ces chatbots de produire des textes et des créations artistiques instantanés sont une source énorme et croissante d’émissions de CO2. Ensuite, parce qu’à l’heure où des entreprises comme Coca-Cola investissent massivement dans les IA génératives pour doper leurs ventes, il devient parfaitement évident que l’objectif n’est pas de sauver le monde, mais d’inciter les gens à acheter toujours plus de produits émetteurs de carbone.

Enfin, cette évolution aura une autre conséquence, plus difficile à anticiper. Plus nos médias seront envahis de deepfakes et de clones, plus les informations se transformeront en zone de sables mouvants. Lorsque nous nous méfions de tout ce que nous lisons et voyons dans un environnement médiatique de plus en plus troublant, nous sommes encore moins bien équipés pour résoudre les problèmes les plus pressants de l’humanité.

Hallucination n° 2 : les IA assureront une bonne gouvernance

Le géant de fer (1999) © Warner

Il s’agit ici d’évoquer un avenir proche dans lequel politiciens et bureaucrates, s’appuyant sur l’immense intelligence cumulée des IA, seront capables de “détecter des besoins récurrents et d’élaborer des programmes fondés sur des éléments concrets” pour le plus grand bénéfice de leurs administrés.

Comme pour le climat, la question mérite d’être posée : est-ce par manque d’éléments concrets que les responsables politiques imposent des décisions aussi cruelles qu’inefficaces ? Est-ce qu’ils ne comprennent vraiment pas le coût humain qu’impliquent les réductions budgétaires du système de santé en pleine pandémie ? Ne voient-ils pas le bénéfice pour leurs administrés de créer des logements non soumis aux règles du marché quand le nombre de sans domicile ne cesse d’augmenter ? Ont-ils vraiment besoin des IA pour devenir “plus intelligents” ou bien sont-ils juste assez intelligents pour savoir qui financera leur prochaine campagne ?

Ce serait merveilleux si les IA pouvaient effectivement contribuer à rompre les liens entre l’argent des entreprises et la prise de décision de politiques irresponsables. Le problème est que ces liens sont précisément la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à déployer leurs chatbots sur le marché en dépit d’une avalanche de mises en garde. L’an dernier, les grandes entreprises de la tech ont dépensé la somme record de 70 millions de dollars [65 millions d’euros] pour défendre leurs intérêts à Washington.

Alors qu’il connaît pertinemment le pouvoir de l’argent sur les politiques du gouvernement, Sam Altman, le PDG d’OpenAI – concepteur de ChatGPT –, semble halluciner un monde complètement différent du nôtre, un monde dans lequel les dirigeants politiques et les industriels prendraient leurs décisions sur la base des données les plus pertinentes. Ce qui nous amène à une troisième hallucination.

Hallucination n° 3 : les IA nous libéreront des travaux pénibles

Le géant de fer (1999) © Warner

Si les séduisantes hallucinations de la Silicon Valley semblent plausibles, la raison en est simple. Les IA génératives en sont pour l’heure à un stade de développement qu’on pourrait qualifier de “simili-socialisme”. C’est une étape incontournable dans la méthode désormais bien connue des entreprises de la Silicon Valley. D’abord, créez un produit attractif et mettez-le à disposition gratuitement ou presque pendant quelques années, sans apparent modèle commercial viable. Faites de nobles déclarations sur votre objectif de créer une “place publique” [Elon Musk à propos de Twitter] ou de “relier les gens”, tout en propageant la liberté et la démocratie. Puis, voyez les gens devenir accros à votre outil gratuit et vos concurrents faire faillite. Une fois le champ libre, faites de la place pour la publicité, la surveillance, les contrats avec l’armée et la police, la boîte noire des reventes de données utilisateurs et les frais d’abonnement croissants.

Des chauffeurs de taxi en passant par les locations saisonnières et les journaux locaux, combien de vies et de secteurs ont-ils été décimés par cette méthode ? Avec la révolution de l’IA, ces préjudices pourraient paraître marginaux par rapport au nombre d’enseignants, de programmeurs, de graphistes, de journalistes, de traducteurs, de musiciens, de soignants et tant d’autres professionnels menacés de voir leur gagne-pain remplacé par du mauvais code.

Mais n’ayez crainte, prophétisent les apôtres de l’IA – ce sera merveilleux. Qui a envie de travailler de toute manière ? Les IA génératives ne signeront pas la fin du travail, nous dit-on, seulement du travail “ennuyeux”. Pour sa part, Sam Altman imagineun avenir où le travail “recouvre une notion plus large ; [où] ce n’est pas quelque chose que l’on fait pour manger, mais pour laisser parler sa créativité, comme une source de joie et d’épanouissement.

Il se trouve que cette vision de l’existence qui fait la part belle aux loisirs est partagée par de nombreux militants de gauche. Sauf que nous, gauchistes, pensons également que si gagner de l’argent n’est plus le but de l’existence, il faut d’autres moyens pour satisfaire à nos besoins essentiels, tels que la nourriture et le logis. Dans un monde débarrassé des métiers aliénants, l’accès au logement doit donc être gratuit, de même que l’accès aux soins, et chaque individu doit se voir garantir des droits économiques inaliénables. Et soudainement, le débat ne tourne plus du tout autour des IA, mais du socialisme.

Or nous ne vivons pas dans le monde rationnel et humaniste que Sam Altman semble voir dans ses hallucinations. Nous vivons dans un système capitaliste où les gens ne sont pas libres de devenir philosophes ou artistes, mais où ils contemplent l’abîme – les artistes étant les premiers à y plonger.

Naomi Klein © Diario Sur

Alors que les géants de la tech voudraient nous faire croire qu’il est déjà trop tard pour revenir en arrière et renoncer aux machines qui supplantent les humains, il est bon de rappeler qu’il existe des précédents légaux démontrant le contraire. Aux États-Unis, la Commission fédérale du commerce (FTC) [l’autorité américaine de la concurrence] a contraint Cambridge Analytica, ainsi qu’Everalbum, propriétaire d’une application photographique, à détruire la totalité de plusieurs algorithmes entraînés avec des données et des photos acquises de manière illégitime.

Un monde de deepfakes et d’inégalités croissantes n’est pas une fatalité. Il est le résultat de choix politiques. Nous avons les moyens de réglementer les chatbots qui vampirisent aujourd’hui nos existences et de commencer à bâtir un monde où les promesses les plus fantastiques des IA ne seront pas que des hallucinations de la Silicon Valley.”

Naomi Klein


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | source : pressegauche.org (CA) | contributeur : Patrick Thonart | crédits illustrations : ALLEN Jason M., Théâtre d’opéra spatial (tableau réalisé via IA, avec le logiciel MIDJOURNEY, qui a gagné un premier prix contesté dans la catégorie “Arts numériques/Photographie manipulée numériquement” au Colorado State Fair : le débat porte sur le concept de “création”) © Warner ; © Diario Sur.


Plus de parole libre en Wallonie-Bruxelles…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

FN Meka, le robot-rappeur, abandonné par son label accusé de racisme

Temps de lecture : 3 minutes >

FN Meka, un robot rappeur noir star de TikTok, créé grâce à l’intelligence artificielle, a été remercié par Capitol Records après avoir été accusé de colporter des stéréotypes racistes sur les personnes noires.

Il avait “signé” un contrat il y a dix jours avec le label Capitol Records. Mais le robot rappeur noir FN Meka, star de TikTok créée grâce à l’intelligence artificielle, a été “congédié”, mercredi 24 août, après avoir été accusé de véhiculer des stéréotypes racistes sur les personnes noires. Selon le communiqué de sa maison de disques, le groupe Capitol Music a rompu ses liens avec le projet FN Meka, avec effet immédiat.” C’est le groupe d’activistes américains Industry Blackout qui, après une campagne sur les réseaux sociaux, a écrit mardi à Capitol Music, filiale d’Universal Music, pour dénoncer FN Meka, “une insulte directe à la communauté noire et à [sa] culture.” Industry Blackout avait dénoncé un amalgame de stéréotypes grossiers, d’appropriations [culturelles] d’artistes noirs et d’insultes contenues dans les paroles”. FN Meka est notamment accusé d’avoir utilisé le fameux “N-word”, expression devenue imprononçable aux Etats-Unis en raison du caractère jugé raciste, insultant et injurieux à l’égard des personnes noires.

Dix millions d’abonnés, plus d’un milliard de vues

“Nous présentons nos plus profondes excuses à la communauté noire pour notre absence de sensibilité en ayant signé pour ce projet sans nous être interrogés suffisamment sur son équité et sa créativité”, a reconnu la maison de disques. Sur les réseaux sociaux, une image numérique montre également le robot – sorte de cyborg noir au visage tatoué et au crâne à moitié rasé – se faire matraquer au sol par l’avatar d’un policier américain blanc.

Techniquement, le robot rappeur ne chante pas – c’est un vrai artiste noir anonyme qui le fait – mais la musique est, elle, générée par l’intelligence artificielle. FN Meka conserve toutefois son compte TikTok avec plus de dix millions d’abonnés et plus d’un milliard de vues pour ses vidéos.

d’après LEMONDE.FR


Peu de temps après avoir été qualifié de “premier artiste virtuel au monde à signer avec un gros label”, FN Meka a été abandonné par Capitol Records qui a annoncé le 23 août avoir “rompu les liens” avec le robot-rappeur suite aux accusations portées par Industry Blackout, un groupe d’artistes activistes. Lesdites accusations soulignent la perpétuation de stéréotypes et l’appropriation de la culture noire.

Dans un communiqué, via Billboard, Capitol Music Group a annoncé avoir rompu les accords récemment signés et a présenté ses excuses. “Nous présentons nos plus sincères excuses à la communauté noire pour notre insensibilité à signer ce projet sans poser suffisamment de questions sur l’équité et le processus créatif qui le sous-tend. Nous remercions ceux qui nous ont fait part de leurs commentaires constructifs au cours des deux derniers jours – votre contribution a été inestimable lorsque nous avons pris la décision de mettre fin à notre collaboration avec le projet.”, pouvons-nous lire d’après MusicTech.

Il est vrai que FN Meka, initié par Anthony Martini et Brandon Le, utilise le N-Word de manière décomplexée et est même victime de violences policières. Le rappeur virtuel, qui ne subit en aucun cas les oppressions qui poussent les Noirs à lever le poing et à scander des slogans pour rappeler que leurs vies comptent, semble s’en amuser dans ses clips. Dans une lettre ouverte publiée sur Twitter, le groupe Industry Blackout affirme que “Cette effigie numérique est une abomination négligente et irrespectueuse envers de vraies personnes qui font face à de vraies conséquences dans la vraie vie.”

Le groupe d’activistes décrit également le personnage “de caricature qui est une insulte à la culture noire” et “d’amalgame de stéréotypes grossiers, d’appropriation de manières qui dérivent des artistes noirs, avec des insultes infusées dans les paroles.”

La lettre se conclut par une demande d’excuses publiques et de retrait de FN Meka et ce, de toutes les plateformes. Capitol Records et le label virtuel d’Anthony Martini et Brandon Le, Factory New, sont également appelés à reverser tous les bénéfices générés par FN Meka à des œuvres caritatives soutenant la jeunesse noire dans les arts ainsi qu’à des musiciens noirs signés par Capitol.

lire la suite sur RTBF.BE


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercalisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations : © damrea.com ; © Capitol Record.


Plus de presse en Wallonie-Bruxelles…

META, la déclaration d’intention idéologique de Zuckerberg

Temps de lecture : 7 minutes >

Le relookage de Facebook n’est pas une affaire d’image : c’est une question de vision

En 2011, le joueur de basket professionnel Ron Artest a changé de nom pour se faire appeler Metta World Peace. «À mesure que je me suis mis à évoluer en tant que personne et que les choses ont commencé à influencer ma vie, je suis tombé amoureux de la méditation, du zen et de la culture indienne», a déclaré Metta Sandiford-Artest (son nouveau nom) en 2019. Le monde du basketball a plongé dans la perplexité. À l’époque, Artest sortait d’une longue période au cours de laquelle il s’était acquis une réputation d’agressivité (et d’excellence dans la défense). Il avait un jour frappé un fan des Detroit Pistons venu le défier sur le terrain. Pendant des années, quel que soit le match, le plus susceptible de commettre une faute technique, c’était toujours lui.

Aujourd’hui, c’est la planète entière qui tombe dans des abîmes de perplexité devant le changement de nom de l’entreprise Facebook rebaptisée META, préfixe dérivé du mot grec signifiant après ou au-delà. Son PDG, Mark Zuckerberg, qui a étudié l’antiquité grecque et romaine lorsqu’il était dans un collège privé, a écarté l’équivalent latin post, probablement pour éviter d’associer une entreprise de surveillance et de publicité mondiale notoire pour saper la démocratie et les droits humains avec une marque de céréales de petits déjeuner ou un journal basé dans la capitale américaine.

Si le nom de Metta World Peace détonnait avec la réputation du joueur sur le terrain, même s’il correspondait mieux à son état d’esprit zen du moment, META a exactement l’effet inverse. C’est l’accomplissement de la vision à long terme de l’entreprise et le prolongement de sa personnalité. En changeant de nom, World Peace tournait le dos à son passé et à sa réputation. En se baptisant META, Facebook persiste et signe dans tout ce qu’il est et tout ce qu’il est devenu.

Jusqu’au bout du rêve

META est la proclamation explicite d’un projet. Cela fait presque dix ans que Zuckerberg décrit sa vision et emmène son entreprise dans cette direction avec divers moyens et sous diverses formes. Son rêve –sa folie des grandeurs– n’a jamais été censé s’arrêter à la frontière de nos téléphones. Comme la gestion de nos vies sociales, culturelles et politiques à grands renforts d’algorithmes ne lui suffisait pas, Zuckerberg a acheté et développé des technologies qui introduisent le style Facebook dans les cryptomonnaies, la réalité virtuelle et les interactions commerciales. En gros, avec META et les plus vastes projets qu’il a exposés fin octobre, Zuckerberg a annoncé qu’il voulait dominer la vie elle-même. Il veut le faire totalement, partout, constamment et commercialement.

Si vous aimez la manière dont Facebook et Instagram semblent lire dans vos pensées ou écouter votre voix grâce à leur surveillance généralisée, leur collecte de données comportementales, l’apprentissage automatique prédictif et un design addictif, alors vous allez adorer vivre dans un métavers. Celui-ci ajoutera en effet des données biométriques, l’analyse des mouvements de vos yeux et un ensemble d’indices comportementaux bien plus riches au mélange qui guide déjà les algorithmes qui nous guident, nous.

Si l’influence toujours plus grande qu’exerce l’entreprise de Zuckerberg sur les opinions politiques et la vision du monde de votre tonton vous plaît, vous comme lui allez vraiment apprécier la manière dont les valeurs intrinsèques de META vont diriger sa vie sociale, commerciale et intellectuelle.

Si vous appréciez à quel point votre ado de fils est accro aux jeux vidéo, imaginez les profondeurs dans lesquelles il va plonger lorsqu’il découvrira la pornographie en réalité virtuelle grâce à un puissant système de recommandations guidé par l’intérêt manifesté par d’autres jeunes gens comme lui.

Et si l’influence excessive qu’exerce Instagram sur l’image que votre fille a d’elle-même vous enchante, alors vous adorerez constater à quel point la stimulation constante de messages immersifs d’un métavers va l’affecter.

Dystopie et utopie
Mark Zuckerberg en 2019 © Nicholas Kamm – AFP

Zuckerberg rêve depuis longtemps de construire ce que je décris dans mon livre, Antisocial Media, comme «le système d’exploitation de nos vies». Depuis plus de dix ans, il achète des entreprises et des technologies qu’il assimile à Facebook, auquel il ajoute la capacité d’exécuter des transactions financières et des recherches, d’abriter des vidéos et de lancer des mondes en réalité virtuelle. Il convoite depuis longtemps le statut dont jouit WeChat en Chine: celui des yeux omniscients du pouvoir à travers lesquels tout le monde doit effectuer ses tâches quotidiennes, de l’appel d’un taxi à son paiement en passant par l’utilisation d’un distributeur de nourriture, sans oublier la prise de rendez-vous chez le médecin.

Aujourd’hui, Zuckerberg a mis un nom sur sa vision, un nom bien plus évocateur que celui que j’avais choisi. Au lieu d’emprunter une analogie informatique du XXe siècle, il a sorti une vision dystopique de la science-fiction et lui a donné un petit aspect utopique –en tout cas, c’est ce qu’il croit.

META est supposé évoquer le métavers, un concept décrit par l’auteur de science-fiction Neal Stephenson dans son roman de 1992, Le samouraï virtuel. Pensez au métavers comme à un grand mélange de plateformes de réalité virtuelle d’une part, avec lesquelles les utilisateurs peuvent vivre des expériences au-delà de leurs environnements dits réels, et de réalité augmentée d’autre part, à travers laquelle la vision du monde réel inclut des stimulations et des informations supplémentaires, peut-être au moyen de lunettes, peut-être par le biais d’une autre interface qui n’a pas encore été inventée.

Le meilleur cas d’usage pour cette conscience à plusieurs niveaux, cette possibilité d’avoir le corps à un endroit tout en ayant l’attention divisée entre plusieurs interfaces et stimuli différents (avec une décomposition totale du contexte) semble être, à en croire Zuckerberg lui-même, que «vous allez pouvoir participer à un fil de messagerie pendant que vous serez au milieu d’une réunion ou en train de faire tout à fait autre chose et personne ne s’en rendra compte».

Je ne suis pas entrepreneur dans les nouvelles technologies, mais il me semble qu’investir des milliards de dollars par le biais de milliers d’experts extrêmement bien formés pour trouver la solution à un problème que personne ne semble avoir envie de résoudre est un mauvais emploi de ressources. Or il se trouve que les ressources comme l’argent, la formation et la main-d’œuvre sont extrêmement concentrées chez une poignée d’entreprises internationales, dont Facebook. Donc elles peuvent faire ce genre de choix ineptes et nous, nous devons vivre avec.

Une confiance inébranlable

Il importe de clarifier qu’il ne s’agit pas d’un changement de nom ou d’un rebranding autant que d’une déclaration d’intention idéologique. Imaginez, à l’aube de l’expansion de la Compagnie britannique des Indes orientales dans le sous-continent indien en 1757, que quelqu’un ait renommé l’entreprise «l’Empire britannique». Voilà qui aurait été osé. Eh bien ça, ça l’est aussi.

Il ne s’agit donc pas d’une démarche de relations publiques, d’une réaction à tous les puissants écrits critiques tant intellectuels que journalistiques qui ont révélé au cours des dix dernières années la nature toxique de Facebook. Malgré les occasionnelles réactions aux observations dont il fait l’objet, la confiance avec laquelle Zuckerberg façonne et dirige nos vies à notre place reste inébranlable. Malgré la foule d’enquêtes, de fuites, de plaintes, d’articles, de livres et d’indignation généralisée, l’usage de Facebook continue de croître à un rythme constant et l’argent continue de couler à flot.

Zuckerberg n’a jamais reçu de signal du marché lui intimant d’être plus modeste ou de changer sa façon de faire. Soyons clairs sur cette vision : elle a beau se construire sur les rails du vieil internet, il ne s’agit pas d’un internet nouveau ou remis au goût du jour. Les nœuds du nouveau réseau, ce sont des corps humains. Et la plus grande partie de l’architecture essentielle sera entièrement propriétaire.

Le changement vers META n’est pas non plus un rejet du nom Facebook. La principale application et le site, ce que les initiés de l’entreprise appellent Blue, resteront Facebook. Au bout d’un moment, nous pouvons nous attendre à ce qu’Instagram et WhatsApp fusionnent totalement avec Blue, ne laissant qu’une seule grande appli, totalement unifiée, avec des éléments distribuant des images et des vidéos grâce à une interface de style Instagram (ou TikTok) et un service de messagerie cryptée proposant des fonctionnalités de style WhatsApp.

Donc, ne vous attendez pas à de l’immobilisme. Mais n’espérez pas non plus que “Facebook” ne soit plus prononcé à brève échéance. Cela n’arrivera pas davantage que nous n’avons cessé d’utiliser et de dire “Google” malgré le changement de nom de la société rebaptisée Alphabet.

Des petits garçons et leurs jouets

Si META est peut-être l’annonce la plus affichée de cette intention de construire un métavers qui lui permettra de surveiller, monétiser et gérer tout ce qui concerne nos vies, il n’est pas le seul à le tenter, ni nécessairement le mieux placé. Alphabet introduit sa technologie de surveillance et d’orientation prédictive dans les véhicules, les thermostats et les produits à porter (comme des lunettes) depuis plus de dix ans. Il continue à imposer la manière de Google de collecter des données et de structurer notre relation à la géographie et au savoir dans un nombre croissant d’éléments de nos vies quotidiennes.

Apple vend la montre qui surveille le rythme cardiaque et l’activité sportive que je porte au poignet à ce moment même, et promet de protéger toutes mes données personnelles de la convoitise d’autres grandes méchantes entreprises accros aux données comme Alphabet et META. Son objectif à long terme est le même, mais sa stratégie est différente : construire un métavers de confiance avec des consommateurs riches des pays industrialisés soucieux du respect de leur vie privée. Il construit le métavers gentrifié.

Amazon investit directement dans la science des données et les projets de réalité virtuelle que d’autres entreprises pourraient développer mais qu’Amazon serait capable d’introduire sur le marché. En attendant, il pousse les systèmes de surveillance Echo et Echo Dot sur nos paillasses de cuisine et nous convainc que commander de la musique et des produits avec nos voix est un confort dont nous ne pouvons plus nous passer.

Et pendant ce temps, le milliardaire farfelu Elon Musk comble ses propres illusions de grandeur en finançant des projets d’intelligence artificielle et de réalité virtuelle qu’il espère contrôler.

En gros, nous avons au moins quatre des entreprises les plus riches et les plus puissantes de l’histoire du monde rivalisant pour construire un énorme système de surveillance et comportemental commercial dont ils sont sûrs et certains que nous ne voudrons pas nous passer ni dépasser. Ce sont des petits garçons qui vendent des jouets, mais ils ne rigolent pas. Et nous sommes tout à fait susceptibles de craquer, comme nous avons craqué pour tout ce qu’ils nous ont déjà vendu.

Les chances sont fort minces que nous trouvions la volonté politique de prévoir et de limiter les conséquences indésirables et la concentration des pouvoirs qui ne manqueront pas d’accompagner cette course à l’érection et à la domination d’un métavers. Il nous faudrait pour cela différer collectivement et mondialement une gratification immédiate pour privilégier notre sécurité sur le long terme. Or nous n’avons pas voulu le faire pour sauver la banquise arctique et les récifs coralliens. Nous ferions bien de ne pas faire trop confiance à notre volonté ou à nos capacités lorsqu’il s’agit de faire ralentir Mark Zuckerberg et consorts. On dirait bien qu’à la fin, ce sont toujours les petits garçons et leurs jouets qui gagnent.

Siva Vaidhyanathan

  • L’article original (avec pubs) est de Siva Vaidhyanathan. Traduit par Bérengère Viennot, il est paru sur SLATE.FR le 23 novembre 2021.
  • L’illustration de l’article est © slate.fr

S’informer encore…

Ada Lovelace, la première codeuse de l’histoire

Temps de lecture : 2 minutes >

“Comtesse de Lovelace, elle naît Ada Byron, d’une relation scandaleuse entre le poète Lord Byron et une aristocrate érudite. À 12 ans, elle écrit déjà un traité dédié aux ailes des volatiles. Sa mère, férue de mathématiques, surnommée “princesse des parallélogrammes” par Byron, veut contrecarrer la fascination d’Ada pour son père absent et son inclination pour la passion amoureuse en focalisant son attention sur les sciences dures. Ses tuteurs, parmi les plus brillants scientifiques, l’éduquent dans la rigueur et l’exigence. À 16 ans, Ada rencontre Mary Somerville, éminente astronome du XIXe siècle, qui l’encourage et l’aide à progresser en mathématiques. Ada veut déjà développer une “science poétique“, germe d’une future intelligence artificielle.

“Mon travail mathématique implique une imagination  considérable.” Ada Lovelace

À 17 ans, Ada rencontre dans un salon mondain le mathématicien Charles Babbage, inventeur de la calculatrice mécanique. Il écrira à son propos : “Cette enchanteresse des nombres a jeté son sort magique autour de la plus abstraite des sciences et l’a saisie avec une force que peu d’intellects masculins – dans notre pays au moins – auraient pu exercer.”

Pendant 20 ans, ils amélioreront constamment ensemble “la machine analytique“, l’ancêtre de l’ordinateur moderne, avec 100 ans d’avance.

“Son rôle est de nous aider à effectuer ce que nous savons déjà dominer” écrira-t-elle. Ada pressent tout l’impact que pourra avoir l’informatique sur la société. Elle veut faire des calculateurs des “partenaires de l’imagination” en programmant musique, poésie ou peinture.

Selon Nicolas Witkowski, physicien et auteur de l’essai d’histoire des sciences au féminin Trop belles pour le Nobel (Le Seuil), interviewé dans l’émission “La Marche des sciences”, consacrée à Ada Lovelace en 2016 : “Ce qu’elle cherche, c’est plus une métaphysique qu’une science ou une technique. Une façon de vivre. À un moment, elle propose d’utiliser son propre corps comme laboratoire moléculaire. Non seulement elle anticipe l’informatique et l’ordinateur, mais elle anticipe les neurosciences”. 

Le 1er programme informatique

À 27 ans, Ada traduit l’article d’un ingénieur italien consacré aux machines à calculer. Dans ses longues notes de traduction, elle esquisse ce qui permettrait à une machine d’agir seule. Elle décrit l’enchaînement d’instructions qu’il faut donner pour réaliser une suite mathématique, jusqu’à la position des rouages.

Selon elle, la machine pourrait manipuler des nombres mais aussi des lettres et des symboles, au-delà du calcul numérique. La machine “tisse des motifs algébriques comme le métier de Jacquard tisse des fleurs et des feuilles”. La première programmation informatique est née. Comme les autres femmes scientifique de son temps, elle signe son article de ses seules initiales.

Alternant phases d’exaltation et de dépression, Ada s’adonne aux paris hippiques pour financer ses recherches et celles de Babbage. Malgré ses efforts pour concevoir un algorithme servant ses paris, elle dilapide son argent. À 36 ans, elle meurt d’un cancer de l’utérus. Son ami Charles Dickens lit un texte à son enterrement.

Négligences et postérité

Il faudra attendre 1930 pour qu’Alan Turing formalise à son tour un calculateur universel manipulant des symboles. Ada est restée longtemps oubliée, négligée, malgré une reconnaissance progressive et inattendue. En 1979, le département de la Défense américain appelle de son nom un langage de programmation “Ada”, de même, le CNRS nomme en son hommage un de ses supercalculateurs.” [d’après FRANCECULTURE.FR]

  • image en tête de l’article : Ada Lovelace © sciencesetavenir.fr

[INFOS QUALITE] statut : actualisé | mode d’édition : compilation par wallonica.org  | contributeur : Philippe Vienne | crédits illustrations : © sciencesetavenir.fr


D’autres dispositifs ?