L’intelligence artificielle à l’épreuve de la laïcité

Temps de lecture : 5 minutes >

[EDL.LAICITE.BE, 14 mai 2024] L’IA révolutionne nos vies mais soulève des questions éthiques. Des chatbots religieux aux risques de discrimination, la régulation devient essentielle. Le Centre d’Action Laïque propose la création d’un comité indépendant pour assurer une IA éthique dans une société laïque.

Depuis l’apparition de ChatGPT, l’intelligence artificielle n’a cessé de faire parler d’elle. Rapidement, les médias se sont emparés du sujet, tantôt en saluant une nouvelle technologie révolutionnaire, tantôt en alertant sur les risques d’un remplacement de l’humain par la machine. Et aujourd’hui, on ne compte plus le nombre de dispositifs d’IA développés avec des agents conversationnels plus farfelus les uns que les autres. Parmi les plus surprenants : AI Jesus, un chatbot donnant vie au Christ pour qu’il prêche la bonne parole sur Twitch, tout en partageant son opinion sur la géopolitique, les relations amoureuses et même les voitures. Plus récemment, le MR a carrément accompagné son programme aux élections 2024 du robot Victor, accessible auprès de tous les électeurs cherchant à obtenir rapidement des informations sur les propositions du parti.

C’est quoi, une intelligence artificielle laïque ?

Face à ce foisonnement technologique, comment le Centre d’Action Laïque peut-il se positionner ? En créant sa propre intelligence artificielle laïque ? L’idée est amusante mais faut-il encore y trouver un réel intérêt. En revanche, avant de définir une position, nous pouvons nous demander si l’IA est en elle-même laïque. Et qui de mieux que ChatGPT pour nous éclairer sur cette question ? Voici sa réponse : “L’intelligence artificielle elle-même n’a pas de croyances religieuses ou spirituelles, donc elle est intrinsèquement laïque. Cependant, les personnes qui créent et utilisent l’intelligence artificielle peuvent avoir des croyances religieuses diverses, et cela peut influencer la manière dont elles conçoivent et appliquent l’IA. En fin de compte, la laïcité ou le caractère religieux d’un système d’IA dépendra des valeurs et des intentions de ses créateurs et utilisateurs.

La réponse a ceci d’intéressant qu’elle nous rappelle que l’IA n’est pas une entité autonome qui se serait auto-engendrée, mais bien un outil conçu par et pour des êtres humains. Et comme le démontre l’exemple d’AI Jesus, elle est le résultat des idées et croyances de ses créateurs. Or cela pose des difficultés, notamment en matière de discriminations. En effet, les recherches en sciences sociales nous prouvent l’existence de biais dans le raisonnement humain. Dès lors, de tels biais se retrouvent inévitablement dans le mode de pensée des intelligences artificielles puisqu’ils coïncident avec celui de leurs concepteurs.

De nombreux exemples illustrent ce phénomène, comme celui du logiciel américain COMPAS consacré à la justice prédictive qui attribuait à des prévenus noirs une probabilité plus élevée de récidive qu’aux prévenus blancs. Autre exemple, celui des algorithmes utilisés par les entreprises lors des processus de recrutement. En fonction du poste à pourvoir et des stéréotypes de genre associés, l’IA privilégie la candidature soit d’une femme, soit d’un homme. De cette façon, les femmes se retrouveront plus systématiquement exclues des postes à haute responsabilité, puisque ceux-ci sont toujours majoritairement occupés par des hommes.

Ces exemples démontrent l’ampleur des nouveaux défis soulevés par l’intelligence artificielle en matière de lutte contre les discriminations. Alors que les laïques aspirent à une société réellement égalitaire, voilà que les algorithmes risquent d’accentuer davantage les inégalités. Mais gardons néanmoins à l’esprit que cela est loin d’être une fatalité. Il est tout à fait possible de supprimer la présence de ces biais par la mise en place d’un cadre éthique qui oblige les concepteurs à respecter un certain nombre de principes humanistes dans la configuration des algorithmes. Par ailleurs, l’investissement dans la recherche peut aider à prévenir les éventuels problèmes éthiques et sociaux liés à l’usage de l’intelligence artificielle. De cette façon, si les laïques doivent rester attentifs aux soucis de discriminations engendrés par l’IA, ils peuvent en même temps soutenir sa régulation éthique afin d’en faire un instrument de lutte contre ces mêmes discriminations. Si nous revenons à notre exemple d’égalité à l’embauche, un algorithme entraîné aux enjeux féministes pourrait tout à fait garantir une chance égale à une femme d’accéder à un poste à haute responsabilité ; là où les ressources humaines continueraient d’employer des raisonnements sexistes. Une IA éthique qui applique les valeurs associées à la laïcité pourrait donc être vectrice d’émancipation à l’égard de tous les individus.

L’aliénation de l’humain par la machine

Mais cette question de l’émancipation ne se pose pas uniquement pour des enjeux liés aux discriminations. La multiplication des outils d’intelligence artificielle offre aux individus des avantages considérables en matière de rigueur et d’efficacité. Citons l’exemple des algorithmes d’aide au diagnostic. Leur précision en fait des alliés de choix dans la détection et la prévention de certaines maladies graves et qui nécessitent une prise en charge rapide. Mais qu’en est-il lorsqu’ils se substituent carrément à l’expertise du prestataire de soins ? Le Wall Street Journal a récemment publié un fait divers sur l’issue dramatique à laquelle peut mener une utilisation aveugle de l’usage des algorithmes. Il évoque le cas d’une infirmière californienne, Cynthia Girtz, qui a répondu à un patient se plaignant de toux, de douleurs thoraciques et de fièvre en suivant les directives du logiciel d’IA de son institution. Le logiciel n’autorisant une consultation urgente qu’en cas de crachement de sang, elle a fixé un simple rendez-vous téléphonique entre un médecin et le patient. Or celui-ci est décédé d’une pneumonie quelques jours plus tard, et l’infirmière a été tenue responsable pour n’avoir pas utilisé son jugement clinique. Cet exemple malheureux démontre bien les risques d’aliénation du jugement des utilisateurs de l’IA. L’opacité des algorithmes et la complexité de leur fonctionnement rendent difficile la gestion totale de ceux-ci. Si l’utilisateur cesse de s’interroger sur la méthode qui a permis à l’algorithme de produire des résultats, il risque alors de se voir doublement déposséder de son jugement. D’abord, au regard des outils qu’ils ne maîtrisent pas, mais aussi par rapport à des conclusions auxquelles il ne serait désormais plus capable d’aboutir par lui-même. Un tel impact de l’IA sur l’autonomie humaine attire nécessairement l’attention des laïques qui militent pour l’émancipation des citoyens par la diffusion des savoirs et l’exercice du libre examen. La transparence des algorithmes et la connaissance de leur fonctionnement par tous les usagers deviennent donc des enjeux laïques à part entière.

Face aux enjeux et risques précités mais aussi à tous ceux liés encore à la désinformation, le cyber-contrôle, la cybersécurité, aux coûts environnementaux, etc., le Centre d’Action Laïque a décidé de reprendre un contrôle humaniste sur la technologie. Les enjeux étant de taille pour parvenir à une IA laïque, le CAL propose de doter la Belgique d’un comité consultatif indépendant relatif à l’éthique en matière d’intelligence artificielle et d’usages du numérique dans tous les domaines de la société.

Ce comité serait chargé, par saisine ou autosaisine, de rendre des avis indépendants sur les questions éthiques liées à l’utilisation de l’intelligence artificielle, de la robotique et des technologies apparentées dans la société, en prenant en compte les dimensions juridiques, sociales et environnementales. Il serait aussi chargé de sensibiliser et d’informer le public, notamment grâce à un centre de documentation et d’information tenu à jour. Mieux qu’un chatbot laïque, non ?

Lucie Barridez, Déléguée Étude & Stratégie


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : edl.laicite.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, © Anne-Gaëlle Amiot – Le Parisien.


Plus d’engagement en Wallonie…