BIAIS COGNITIFS : Nous sommes tous biaisés au travail !

Temps de lecture : 23 minutes >

[WELCOMETOTHEJUNGLE.COM, 2020] C’est un fait : nous sommes tou.te.s victimes des biais cognitifs. Vous savez ces raccourcis de pensée de notre cerveau, faussement logiques, qui nous induisent en erreur dans nos décisions quotidiennes, et notamment au travail. À travers cette série, notre experte du Lab Laetitia Vitaud identifie les biais à l’oeuvre afin de mieux comprendre comment ils affectent votre manière de travailler, recruter, manager… et vous livre ses précieux conseils pour y remédier.

01. l’effet Dunning-Kruger

[WELCOMETOTHEJUNGLE.COM, 2 décembre 2019] C’est l’un des effets qui affectent le plus l’évaluation des compétences. On l’appelle aussi effet de surconfiance. C’est le biais cognitif qui fait que les moins qualifiés ont tendance à surestimer leurs compétences et les plus qualifiés à les sous-estimer. Le phénomène est assez naturel : moins on connaît un sujet, moins on sait ce que l’on ne sait pas, tandis que lorsqu’on apprend à maîtriser un sujet, on en visualise davantage toute la richesse et la complexité.

Par exemple, un.e touriste qui a été une fois dans un pays (et dira qu’il / elle a fait ce pays) aura plus souvent tendance à dire qu’il / elle le connaît que quelqu’un qui y retourne régulièrement, en explore les différentes facettes et prend conscience des différences culturelles et de la richesse de son histoire.

Le phénomène a été mis en évidence par deux psychologues américains, David Dunning et Justin Kruger, dont l’étude référence a été publié en 1999 dans le Journal of Personality and Social Psychology. Mais on connaît intuitivement cet effet depuis longtemps. Charles Darwin écrivait déjà que “l’ignorance engendre plus fréquemment la confiance en soi que ne le fait la connaissance.”

L’effet Dunning-Kruger est double. D’une part, les personnes non qualifiées ont tendance à ne pas reconnaître leur incompétence et savoir évaluer leurs capacités réelles. D’autre part, les personnes les plus qualifiées ont tendance à sous-estimer leur niveau de compétence et penser que des tâches faciles pour elles le sont aussi pour les autres. [Lire la suite…]

02. Le biais des “coûts irrécupérables”

[WELCOMETOTHEJUNGLE.COM, 9 décembre 2019] Vous est-il déjà arrivé de vous ennuyer au cinéma mais d’hésiter à partir pour ne pas gâcher l’argent dépensé pour l’achat du billet ? Vous avez sans doute été victime du biais des coûts irrécupérables. En économie comportementale, les coûts irrécupérables (Sunk Cost en anglais) sont les coûts qui ont déjà été engagés, qui ne sont ni remboursables ni récupérables, et que l’on craint de voir gaspillés.

Pour un agent rationnel, les coûts ne devraient pas influencer les choix qui seront réalisés après qu’ils ont été engagés. Pourtant, ils interviennent dans les décisions à cause du phénomène d’aversion à la perte : le fait qu’on attache plus d’importance à une perte qu’à un gain du même montant. Mais en réalité, il y a là une erreur de raisonnement. Le choix offert dans l’exemple ci-dessus est entre deux options :

      1. Avoir dépensé un billet de cinéma et partir faire autre chose de moins ennuyeux ;
      2. Avoir dépensé un billet de cinéma et s’ennuyer une heure de plus.

Dans les deux cas, il est impossible de récupérer l’argent du billet. C’est donc la première option qui serait objectivement la meilleure. Pourtant, nous sommes nombreux à opter pour la seconde.

Le biais des coûts irrécupérables est très courant dans les grandes organisations. L’exemple le plus parlant : l’effet Concorde qui fait référence à l’entêtement des gouvernements français et britannique à poursuivre le projet du Concorde, pour le prestige, mais aussi à cause des dépenses immenses déjà engagées. Pourtant, on savait dès 1973 que son exploitation commerciale n’était pas rentable. [Lire la suite…]

03. l’effet de compensation morale

[WELCOMETOTHEJUNGLE.COM, 10 décembre 2019] Est-ce qu’il vous est déjà arrivé, après une séance de sport intense (et pénible) de vous dire que, quand même, vous aviez bien mérité ce pain au chocolat ? Ou bien d’envoyer bouler quelqu’un sans précaution parce que vous aviez été particulièrement gentil avec quelqu’un d’autre plus tôt dans la journée ? L’effet de compensation morale (Moral Licensing, en anglais), c’est le biais qui concerne l’effet d’une bonne action à l’instant T sur les actions faites à T+1.

On pourrait penser que des actions entreprises à différents moments sont déconnectées, mais, en réalité, de nombreuses études ont montré qu’une bonne action pourrait nous désinhiber par la suite pour en commettre de mauvaises. La réalisation d’un acte moralement valorisable légitime en quelque sorte un acte moins valorisable commis plus tard. Une fois qu’on a pu faire la preuve (à soi-même et au monde) de ses bonnes valeurs morales, on peut se sentir légitimé à enfreindre ces valeurs par la suite.

On trouve des illustrations de cet effet dans le monde du marketing. Par exemple, les programmes des compagnies aériennes qui offrent aux clients la possibilité d’acheter des crédits carbone pour limiter le rôle des avions dans le changement climatique ont surtout réduit la culpabilité des clients et contribué à augmenter le trafic aérien. [Lire la suite…]

04. Le biais d’échantillonnage

[WELCOMETOTHEJUNGLE.COM, 7 janvier 2020] Un échantillon est biaisé quand le groupe d’individus censés représenter une population ne permet pas de tirer des conclusions fiables sur cette population car les individus ont été sélectionnés de manière non représentative.

Ce biais est le principal problème des instituts de sondage. En 1936, lors de l’élection présidentielle américaine, alors que l’art du sondage était encore balbutiant, le magazine Literary Digest a appelé deux millions de numéros de téléphone pour interroger les gens sur leurs intentions de vote. La prédiction qui en est sortie s’est hélas révélée à côté de la plaque (alors pourtant que 2 millions, c’est un échantillon gigantesque !) parce que les gens qui possédaient un téléphone à l’époque n’étaient pas représentatifs de la population. En moyenne plus riches et plus urbains que l’ensemble de la population, les possesseurs de téléphone étaient un échantillon biaisé. À la même période, George Gallup fit une prédiction correcte concernant l’élection à partir d’un petit échantillon de 50 000 personnes qu’il avait pris soin de rendre représentatif de la population américaine.

Aujourd’hui statisticiens et sociologues connaissent bien les problèmes liés aux biais d’échantillonnage. Pourtant, les enquêtes et études y restent exposées. Bien que tous les individus (ou presque) disposent aujourd’hui d’un téléphone, les sondages téléphoniques restent fortement biaisés car les personnes qui répondent au téléphone pour ces sondages sont souvent plus âgées, moins actives et plus disponibles que la population dans son ensemble.

En fait ce sont les sondages reposant sur la bonne volonté des répondants qui souffrent du même biais car le fait même de répondre à un sondage représente un filtre en soi. Ceux qui ne répondent pas ne sont pas représentés. On parle alors de biais d’auto-sélection. [Lire la suite…]

05. Le biais de projection

[WELCOMETOTHEJUNGLE.COM, 14 janvier 2020] On a toujours tendance à croire que nos opinions, valeurs, goûts et autres caractéristiques sont également partagés par les autres (même quand rien n’indique que c’est effectivement le cas). Le biais de projection se rapporte à cette tendance à projeter sur les autres ce que l’on connaît en soi-même. Il est très lié au biais de confirmation qui nous fait toujours rechercher les informations qui confirment les idées que nous avons déjà, et interpréter les nouvelles informations dans ce sens.

C’est une tendance égocentrique à estimer le comportement d’autrui à partir de notre propre comportement. On surestime le degré d’accord que les autres ont avec nous. C’est pourquoi le biais est aussi parfois appelé effet de faux consensus. Il vaut aussi pour des groupes dans lesquels un consensus a émergé. Les membres de ce groupe pensent que tout le monde, y compris en dehors du groupe, sera d’accord avec eux. La perception d’un consensus qui n’existe pas, c’est un faux consensus. Ce biais a des explications psychologiques et anthropologiques. Il vient du désir profond que nous avons de nous conformer et d’être aimés par les autres dans notre environnement social. Et il augmente l’estime de soi. Il est très répandu dans les groupes qui se sentent représentatifs de la population (et qui trouvent des relais importants dans les médias). Mais même dans les groupes minoritaires, les religieux fondamentalistes par exemple, on surestime le nombre de gens qui partagent la vision du groupe. Lorsqu’on est face à quelqu’un qui pense différemment, on le/la voit comme défectueux : une anomalie non représentative.

Dans l’ensemble, ce biais nous conduit à prendre des décisions avec trop peu d’informations et à utiliser nos connaissances personnelles a priori pour faire des généralisations. [Lire la suite…]

06. L’effet Hawthorne

[WELCOMETOTHEJUNGLE.COM, 15 janvier 2020] Les physiciens l’ont constaté depuis longtemps : le simple fait d’observer un phénomène change le phénomène en question, ne serait-ce que parce que les instruments de mesure peuvent altérer ce qui est observé. Mais ce qu’on appelle en physique l’effet de l’observateur est également vrai en sciences sociales et en psychologie. Ainsi, l’effet Hawthorne désigne le fait que les résultats d’une expérience ne soient pas dus aux facteurs expérimentaux, mais à la conscience qu’ont les acteurs concernés d’être observés, de faire partie d’une expérience dans laquelle ils sont mis à l’épreuve.

L’effet Hawthorne tient son nom des études menées par Elton Mayo (1880-1949), un psychologue et sociologue australien à l’origine du mouvement des relations humaines en management. Avec ses comparses Fritz Roethlisberger et William Dickson, Mayo a mené des enquêtes à l’usine Western Electric de Cicero, la Hawthorne Works, près de Chicago, de 1924 à 1932.

L’expérience a débuté autour de la question de l’influence de l’environnement (en particulier de l’éclairage) sur la performance des travailleuses. Le contexte est celui de la montée en puissance de l’organisation scientifique du travail (OST), promue par Frederick Taylor, et du développement de la discipline reine de l’OST, l’ergonomie.

Au début de l’expérience, en 1923, des chercheurs se sont aperçus qu’en faisant varier l’éclairage de l’usine, la productivité augmentait. Ils ont ensuite multiplié les paramètres à modifier — pauses, durées de travail, prix des repas, etc. Étrangement, ils ont enregistré une hausse de la productivité même quand les conditions n’étaient pas plus favorables aux ouvrières. C’est alors que Mayo et son équipe de psychologues ont tenté de percer le mystère. Pourquoi la productivité augmentait-elle quoi que fassent les chercheurs ?

C’est en observant plusieurs groupes de travailleuses dans des conditions différentes et en menant des entretiens qualitatifs qu’ils ont mis en évidence l’effet Hawthorne : le simple fait de participer à une expérience ou une étude peut être un facteur qui a une influence sur la motivation au travail. En psychologie, on sait que les gens sont capables de mieux faire quand on s’intéresse à eux. Tout ce qui permet une augmentation de l’estime de soi permet d’améliorer la performance. [Lire la suite…]

07. L’effet de halo

[WELCOMETOTHEJUNGLE.COM, 3 février 2020] C’est un biais cognitif qui affecte la perception que l’on a d’une personne quand on fait une interprétation sélective des premiers signaux que l’on perçoit de cette personne. On a tendance à donner trop de poids à une caractéristique que l’on juge positive (l’apparence physique, par exemple) et à en déduire que les autres caractéristiques de la personne sont également positives (même sans les connaître). Par exemple, il a été montré que l’on prête de multiples qualités aux personnes dont on juge positivement l’apparence physique. On a tendance à percevoir les personnes belles comme plus intelligentes que les autres.

L’effet de halo peut être positif ou négatif. Si la première impression sur la personne est positive, on va interpréter favorablement tout ce que cette personne dit ou fait. En revanche, si la première impression est négative, on va voir la personne sous un prisme négatif. C’est le cas quand il y a racisme, sexisme, ou encore grossophobie.

L’effet de halo a d’abord été mis en évidence empiriquement en 1920, puis démontré scientifiquement en 1946 par Solomon Asch, un pionnier de la psychologie sociale. Dans les années 1970, plusieurs études ont montré que les enfants étaient jugés plus intelligents que les autres par leurs enseignants sur la base de leur attrait physique. [Lire la suite…]

08. Le biais du survivant

[WELCOMETOTHEJUNGLE.COM, 4 février 2020] Le biais du survivant consiste à tirer des conclusions trop hâtives à partir d’un jeu de données incomplet. C’est une forme de biais de sélection consistant à surévaluer les chances de succès d’une initiative en concentrant l’attention sur les sujets ayant réussi mais qui sont des exceptions statistiques (des survivants) plutôt que sur des cas représentatifs.

L’illustration la plus célèbre (et la plus claire) concerne les avions alliés envoyés pour bombarder les zones occupées pendant la Seconde guerre mondiale. Une étude avait recommandé, au vu des dommages causés aux avions qui revenaient de mission, de blinder les endroits de l’avion qui recevaient le plus de balles.

Mais le statisticien Abraham Wald, déterminé à minimiser la perte de bombardiers sous les feux ennemis, a identifié une dangereuse erreur dans ce raisonnement. En effet, les études ne tenaient compte que des aéronefs qui avaient survécu et étaient revenus de mission. Elles ne tenaient aucun compte de ceux qui s’étaient écrasés. Pour lui, il fallait au contraire blinder les endroits des appareils qui présentaient le moins de dommages car les endroits endommagés des avions revenus à la base sont ceux où l’avion peut encaisser des balles et survivre. À l’inverse, sa supposition était que lorsqu’un avion était endommagé ailleurs, il ne revenait pas. Ce sont donc les endroits non endommagés chez les survivants qui devaient être blindés !

En matière d’interprétation des chiffres, nous sommes tous victimes de biais de sélection qui nous rendent aveugles aux réalités sous-jacentes. Il faut donc toujours se demander d’où viennent les chiffres, comment ils sont sélectionnés et ce qu’ils signifient réellement. Par exemple, doit-on interpréter la baisse du nombre de plaintes pour viol comme quelque chose de positif ? Pas forcément, car il est possible qu’il y ait davantage de viols qui n’ont pas donné lieu à une plainte parce que les victimes ont peur de s’exposer en portant plainte. À l’inverse, une augmentation du nombre de plaintes peut être le signe d’un climat de confiance où il est plus facile de parler. [Lire la suite…]

09. L’effet McNamara

[WELCOMETOTHEJUNGLE.COM, 18 février 2020] Ce que les Américains appellent la McNamara Fallacy est un phénomène bien connu dans les entreprises : dans des situations complexes, on a tendance à se focaliser exclusivement sur certains indicateurs, aux dépens de la vision d’ensemble et des objectifs réels.

Robert McNamara (1916-2009) était secrétaire à la Défense sous les présidences Kennedy et Johnson entre 1961 et 1968, au plus fort de la guerre du Vietnam. Avant d’être recruté par John F. Kennedy, il faisait partie du groupe des Whiz Kids (les petits génies), dix vétérans de l’armée de l’air ayant ensuite rejoint la Ford Motor Company en 1946. Pendant la Seconde guerre mondiale, ce groupe s’était fait connaître en mettant en place une approche dite de contrôle statistique afin de coordonner toutes les informations opérationnelles et logistiques nécessaires à la conduite de la guerre. Ils ont ainsi contribué à la révolution de la logistique qui, dans les décennies suivantes, a transformé la plupart des grandes organisations.

Devenu secrétaire à la Défense, McNamara a cherché à répliquer les processus et indicateurs qui lui avaient si bien réussi en tant que dirigeant de Ford Motor. Aujourd’hui, cependant, cet héritage est controversé car l’indicateur choisi à l’époque pour mesurer l’efficacité des opérations au Vietnam était… le nombre de morts vietnamiens. L’usage d’armes chimiques, comme le tristement célèbre agent orange, était mis au seul service de cet indicateur. Obsédé par l’idée qu’il fallait tuer le plus de Vietnamiens possibles, les militaires américains ont fini par oublier les objectifs stratégiques de l’engagement au Vietnam, la détermination croissante de l’ennemi et de la situation politique américaine (la guerre du Vietnam devenait de plus en plus impopulaire aux Etats-Unis). [Lire la suite…]

10. Les biais mnésiques

[WELCOMETOTHEJUNGLE.COM, 25 février 2020] On connaît tous l’expression “ma mémoire me joue des tours“. Les biais mnésiques se réfèrent aux tours que nous joue notre mémoire. La mémoire est liée à la perception (elle-même biaisée) car on se souvient consciemment de ce qu’on a bien perçu. Elle ajoute des distorsions supplémentaires car quand on accède au souvenir, on le modifie. Les émotions que l’on éprouve au moment de se souvenir de quelque chose peuvent transformer le souvenir de cette chose. Les biais mnésiques sont donc multiples. Les souvenirs sont altérés par la manière dont on traite l’information et les émotions.

L’effet de récence désigne le fait qu’on se souvient mieux du dernier élément d’une liste de stimuli que l’on doit mémoriser. Dans les années 1960, plusieurs chercheurs ont fait des expériences en demandant à des individus de se rappeler des listes de mots. Ils ont conclu qu’il existait une mémoire de court-terme et une mémoire de long terme. L’effet de récence est le biais de court terme, mais il existe un biais de long terme : l’effet de primauté rend plus vivace le souvenir des premières impressions.

Également mis en lumière dans les années 1960, l’effet de simple exposition est bien connu des publicitaires. Plus on est exposé à un stimulus, plus il est probable qu’on se mette à l’aimer. On a plus de chance d’avoir un sentiment positif à l’égard de quelqu’un qu’on a déjà croisé une fois. Enfin, le biais rétrospectif est une erreur du jugement cognitif qui se produit parce qu’on a tendance à penser rétrospectivement qu’on aurait pu anticiper un événement avec plus de prévoyance. C’est un mécanisme de déni du hasard. [Lire la suite…]

11. Le biais du statu quo

[WELCOMETOTHEJUNGLE.COM, 25 février 2020] En finance comme en politique, on connaît bien ce biais. Dans nos prises de décisions, nous avons naturellement tendance à préférer le statu quo. Il s’agit souvent d’un comportement irrationnel qui nous empêche de saisir des opportunités nouvelles ou de sortir d’une situation sous-optimale.

Les économistes comportementaux (dont Richard Thaler, prix Nobel d’économie en 2017 pour sa “Compréhension de la psychologie de l’économie”) ont mené de nombreuses études pour comprendre le biais de statu quo. Ils/elles l’expliquent par la combinaison de deux phénomènes : l’aversion à la perte — le fait qu’on attache plus d’importance à une perte qu’à un gain de même valeur — et l’effet de dotation — le fait que les gens accordent plus de valeur à une chose qui leur appartient qu’à une chose de même valeur qui ne leur appartient pas.

Un individu appréhende les pertes éventuelles liées à la fin du statu quo plus fortement qu’il/elle n’en espère des gains futurs. C’est pour cela qu’il/elle préférera le plus souvent ne pas changer de situation. En d’autres termes, nous avons tendance à nous opposer au changement, à moins d’être totalement convaincu.e.s que les gains dépassent largement les pertes.

Ce biais n’est pas toujours irrationnel : s’en tenir à ce qui marche déjà n’est pas forcément une mauvaise idée. En l’absence d’informations fiables sur les conséquences possibles d’une alternative, le statu quo reste le choix le plus rationnel. [Lire la suite…]

12. Le biais de négativité

[WELCOMETOTHEJUNGLE.COM, 10 mars 2020] À niveau d’intensité égal, les choses négatives (interactions, événements, pensées, remarques…) ont plus d’effet sur notre état psychologique que les choses positives. Cognitivement et émotionnellement, le biais de négativité nous fait donner plus d’importance à ce qui est négatif qu’à ce qui est positif. Par exemple, il nous faudrait au moins cinq compliments pour compenser une critique.

Dans une étude de 2001 intitulée Bad is stronger than good, plusieurs chercheurs ont montré que nous cherchons davantage à préserver notre réputation (éviter le négatif) qu’à en construire une nouvelle (chercher le positif). Si dans la mythologie et la fiction, les forces du bien l’emportent (presque) toujours sur les forces du mal, dans la réalité du cerveau humain, il est plus fréquent que le mal l’emporte.

Les chercheurs voient dans le biais de négativité un biais d’évolution de l’espèce : nous prêtons instinctivement plus d’attention à ce qui peut menacer notre survie. Les hommes/femmes préhistoriques faisaient plus attention aux bruits signalant la proximité d’un prédateur qu’à ceux venant des petits oiseaux qui chantent. Nous avons gardé ce biais bon pour la survie, mais, hélas, il est souvent mauvais pour la santé.

Dans le monde de l’entreprise, ce biais est bien connu : on sait à quel point un événement négatif peut détruire rapidement la réputation d’une entreprise. Les conséquences d’une affaire sur une marque peuvent être dévastatrices. Il faut parfois des années de bonnes actions pour compenser un événement négatif (scandale financier, problème d’hygiène, etc.). [Lire la suite…]

13. Irrationnels devant la pandémie

[WELCOMETOTHEJUNGLE.COM, 17 mars 2020] La crise sanitaire que traverse le monde avec le COVID-19 comporte son lot de biais cognitifs, qui expliquent certains de nos comportements irrationnels. Face à cette épidémie difficile à cerner, à des données incomplètes, et à un virus méconnu, nous tombons dans au moins quatre biais connus :

      • L’heuristique de disponibilité : en psychologie, cela désigne un mode de raisonnement qui se base uniquement sur les informations immédiatement disponibles en mémoire. Quand on vous parle de COVID-19 à longueur de journée, vous avez tendance à céder à la panique. La viralité de la maladie n’a d’égale que la viralité (numérique) des fake news et des polémiques. Ça n’aide pas à avoir les idées claires !
      • Le biais du survivant : il consiste à tirer des conclusions trop hâtives à partir d’un jeu de données incomplet. C’est un biais de sélection qui fait surévaluer la probabilité d’un scénario en concentrant son attention sur les sujets à propos desquels des informations nous sont parvenues (survivants). En l’occurrence, le nom de ce biais semble ici peu approprié… car il nous amène à surévaluer la mortalité du virus : on a surtout des données sur les malades aux symptômes graves et ceux qui décèdent, tandis que les malades aux symptômes légers ne sont pas allés consulter (les données les concernant n’ont pas survécu).
      • Le biais de normalité : c’est la tendance à croire que les choses fonctionneront toujours normalement et à sous-estimer la probabilité d’un désastre complètement inattendu et fou. C’est pourquoi la plupart des gens ne se préparent pas de manière adéquate aux catastrophes. Les entreprises (et les individus) tombent dans le biais de normalité après un désastre inattendu. Cela conduit à une mauvaise préparation (équipements, assurances, etc.). Cela conduit également à la paralysie et à ce que l’on appelle l’effet de l’autruche.
      • Le biais de nouveauté nous fait craindre davantage un risque nouveau (méconnu) que d’autres risques que l’on connaît. Les accidents de la route sont toujours aussi mortels— mais ils nous intéressent moins. Or les autres risques (et autres virus) ne devraient pas être ignorés ! [Lire la suite…]

14. L’effet Cobra

[WELCOMETOTHEJUNGLE.COM, 6 avril 2020] L’effet Cobra désigne un effet pervers qui survient lorsqu’on tente de résoudre un problème. “L’enfer est pavé de bonnes intentions” : l’effet Cobra illustre bien ce dicton.

À l’origine, le terme effet Cobra vient d’une histoire qui s’est produite en Inde sous domination britannique. Le gouvernement, décidé à lutter contre le fléau des cobras à Delhi, offrit une prime pour chaque cobra mort. Très vite, des petits malins ont alors commencé à élever des cobras pour gagner de l’argent facilement sur le dos des autorités coloniales. Quand le gouvernement apprit la chose, il mit fin au programme de récompenses… ce qui eut pour effet d’amener les éleveurs de cobras à lâcher leurs serpents dans la nature. La population de cobras sauvages devint donc encore plus importante par la suite.

En entreprise, on s’expose à l’effet Cobra quand on fixe des objectifs, et en particulier quand on choisit les indicateurs pour mesurer la réalisation de ces objectifs. Par exemple, si l’on choisit de mesurer l’efficacité du support client en regardant le nombre d’appels téléphoniques effectués, on encourage les employés qui font le support à passer moins de temps par appel… et à ne pas résoudre les problèmes qui leur sont soumis par les clients. Cela aura pour effet une plus grande insatisfaction des clients et une dégradation de l’expérience client. [Lire la suite…]

15. Les effets Pygmalion et Golem

[WELCOMETOTHEJUNGLE.COM, 2 avril 2020] Et si à défaut de trouver la perle rare, on pouvait la façonner selon son bon désir ? C’est un fantasme ancien dont la littérature nous avertit depuis longtemps qu’il est dangereux – le monstre du docteur Frankenstein en reste l’illustration la plus édifiante. Dans la mythologie grecque, Pygmalion est un sculpteur qui tombe si éperdument amoureux de la statue qu’il vient de créer qu’il finit par lui donner vie. La figure de Pygmalion devient emblématique grâce à la pièce de théâtre éponyme de George Bernard Shaw (1913), puis la comédie musicale My Fair Lady qui en est l’adaptation. Elle raconte l’histoire d’un professeur de phonétique (Higgins) qui entreprend de transformer une fille du peuple (Eliza Doolittle) en lady pour gagner un pari. Il lui apprend à bien parler, à se comporter en société, et gagne son pari. Pygmalion reste une figure controversée : les féministes y voient un phallocrate à l’ego surdimensionné qui voit les femmes comme des enfants à éduquer.

Naturellement, il ne s’agit pas de dire que les managers doivent se comporter comme Pygmalion ! Les employés sont des adultes libres, déjà formés, qu’il ne s’agit pas de façonner. Mais le concept de l’effet Pygmalion, étudié depuis longtemps par les psychologues, est néanmoins important : c’est un phénomène qui fait que les attentes élevées engendrent une amélioration des performances. C’est prouvé, le simple fait de croire en la réussite de quelqu’un peut améliorer ses chances de succès.

À l’inverse, l’effet Golem est le phénomène psychologique dans lequel des attentes moins élevées placées sur un individu le conduisent à une moins bonne performance. De nombreux stéréotypes engendrent cet effet : par exemple, si le seul fait que vous soyez une femme fait qu’on pense que vous serez mauvaise en mathématiques, cela peut affecter négativement votre performance lors d’un test de mathématiques.

L’effet Pygmalion et l’effet Golem sont des prophéties auto-réalisatrices. C’est au sociologue Robert K. Merton, auteur en 1948 d’un article fondateur sur ce sujet, que l’on doit le concept. La croyance auto-réalisatrice est une croyance fausse qui finit par devenir vraie à mesure que le temps passe, à cause d’un effet de rétroaction. Nous sommes persuadés d’avoir eu raison parce que a posteriori les faits semblent nous avoir donné raison. [Lire la suite…]

16. Les biais de genre

[WELCOMETOTHEJUNGLE.COM, 17 juillet 2020] Les biais de genre sont multiples. Il s’agit de tous les biais cognitifs (notre liste est déjà longue) qui nous font préférer les hommes au pouvoir — à la tête des grandes entreprises, aux plus hauts postes de l’Etat ou en position d’expert. On ne compte que 3 femmes sur 120 dirigeants dans les plus grandes entreprises françaises. Pendant la période de la crise du Covid, les expert.e.s interrogé.e.s dans les médias ont été à 80% des hommes, selon l’INA.

En France, des lois récentes obligent les entreprises à mesurer et révéler les chiffres sur les inégalités entre hommes et femmes. Face à des chiffres parfois désespérants, il semble difficile de nier que les femmes sont victimes de discriminations importantes, en termes de salaires, promotions et probabilités d’embauche. Pourtant, quand on parle des biais de genre à certain.e.s managers, on rencontre souvent des personnes qui nient l’existence des biais dans leur organisation. “Chez nous, les hommes et les femmes sont traités pareillement. Il n’y a pas de problème.”Moi, je ne suis pas sexiste, donc passons à un autre sujet.” “En tant que parent, j’élève mon fils et ma fille de la même manière, donc je fais ma part.“Etc.

Or une étude édifiante parue en juin 2020 dans Sciences Advances révèle que les biais de genre sont perpétués précisément par ceux qui les nient ! L’étude publiée par des chercheurs/chercheuses de l’Université d’Exeter et Skidmore College montre, chiffres et enquête à l’appui, que les biais sont plus forts parmi celles/ceux qui les nient. “Ceux qui pensent qu’il n’y a pas de biais dans leur organisation ou leur discipline sont les moteurs principaux de ces biais — un groupe à ‘haut risque’ composé d’hommes et de femmes que l’on peut aisément identifier,” expliquent les auteur.e.s de l’article.

Dans les organisations qu’on pourrait penser plus égalitaires, où la représentation féminine a (un peu) avancé, il est fréquent que les dirigeant.e.s tombent dans le déni et affirment que les biais et différences de traitement n’existent plus. Cela cause un ralentissement des progrès futurs, voire provoque une régression. Les progrès en matière d’égalité, de diversité et d’inclusion ne sont en rien linéaires et inéluctables. Ils sont le plus souvent le fruit de ruptures historiques et de mesures contraignantes. [Lire la suite…]

17. L’heuristique d’affect

[WELCOMETOTHEJUNGLE.COM, 14 septembre 2020] En psychologie, une heuristique de jugement est une opération mentale rapide et intuitive. Le mot vient du grec ancien eurisko (je trouve). Quand nous sommes pressés par le temps, peu motivés ou fatigués, nous nous reposons davantage sur notre mode de pensée rapide et instinctif. L’heuristique d’affect est le raccourci mental qui nous permet de prendre des décisions et de résoudre des problèmes en utilisant nos émotions. Par exemple, si avant de prendre une décision de recrutement, vous voyez une photo d’un·e candidat·e avec un large sourire, la petite émotion provoquée aura une influence sur votre jugement.

C’est un processus inconscient qui se produit à de nombreux moments de la journée. La plupart du temps, cela n’est d’ailleurs pas une mauvaise chose ! Il ne nous serait pas possible de passer par des réflexions lentes pour chaque décision qui doit être prise au quotidien. C’est ce qu’expliquait très bien Daniel Kahneman, prix Nobel d’économie, dans son livre Système 1 / Système 2 : Les deux vitesses de la pensée (Thinking, Fast and Slow, 2011) : le Système 1 est rapide, instinctif et émotionnel, tandis que le Système 2 est plus lent, réfléchi, contrôlé et logique.

L’heuristique d’affect fait l’objet de nombreux travaux depuis les années 1980, lorsque le psychologue américain Robert Zajonc a montré que les réactions affectives à des stimuli influencent la manière dont nous traitons l’information. Dans les années 2000, d’autres chercheurs se sont intéressés au lien entre l’heuristique d’affect et la perception du risque. Ils ont montré que quand quelque chose nous est plaisant, nous minimisons le risque qui y est associé. Par exemple, nous ne pensons plus aux risques de contamination quand il s’agit de partir en vacances. [Lire la suite…]

18. Le syndrome d’Hubris

[WELCOMETOTHEJUNGLE.COM, 28 juillet 2020] Pour mieux comprendre la définition du syndrome d’Hubris, faisons un petit cours de mythologie grecque : l’hubris, c’est ce qui vous vaut la colère des dieux. Traduit le plus souvent par démesure, l’hubris est une ambition personnelle trop forte, une soif de pouvoir inextinguible, mais aussi le vertige que provoque le succès que l’on rencontre dans la recherche du pouvoir. Un exemple célèbre de syndrome d’Hubris est celui d’Icare, ce personnage mort de s’être trop approché du soleil alors qu’il s’échappait du labyrinthe avec des ailes créées par son père avec de la cire et des plumes.

Chez les Grecs anciens, il y avait une morale de la mesure, la modération et la sobriété : il fallait savoir rester conscient de sa place dans l’univers (et de sa mortalité face aux dieux immortels). Dans cette démesure, se trouve aussi l’ambition d’accomplir des grandes choses et la vocation artistique que l’on sait valoriser aujourd’hui. Mais ce que l’on déplore, ce sont les conséquences humaines de cet orgueil. Dans une équipe, le syndrome d’Hubris fait des ravages.

Les Grecs anciens comprenaient bien la nature humaine. Ce n’est pas pour rien que la psychologie et la psychanalyse puisent abondamment dans la mythologie pour décrire nos traits, travers et passions. Narcisse, Oedipe et Cassandre n’ont pas fini de nous inspirer ! Dans le monde de l’entreprise, ces concepts éclairent des comportements et des dynamiques et offrent un cadre d’analyse précieux.

Comme dans l’univers politique, on trouve dans l’entreprise des individus ivres de pouvoir qui perdent le sens des réalités et ne supportent plus la contradiction. Si on a souvent comparé cette ivresse à une drogue (voire un aphrodisiaque), c’est qu’il y a effectivement des mécanismes hormonaux à l’œuvre qui affectent la chimie du cerveau et le comportement.

L’un des effets du syndrome d’Hubris, c’est une perte d’empathie et d’intérêt pour les autres, un narcissisme extrême, un sentiment d’invincibilité qui peut conduire à prendre des risques inutiles et un sentiment d’impunité qui fait que l’on ne se sent pas concerné par les règles. Cela mène à la corruption, l’abus de bien social, le vol et la maltraitance. Dans le monde de la finance, par exemple, on a souvent fait l’expérience du syndrome d’hubris. On sait l’importance des freins et contrepoids pour limiter le pouvoir et le risque que peut prendre un individu. [Lire la suite…]

19. Loi de Brooks

[WELCOMETOTHEJUNGLE.COM, 17 mars 2021] “Trop de cuisiniers gâtent la sauce“, dit le proverbe. C’est en substance ce qu’énonce aussi la loi de Brooks, du nom de Frederick Brooks, un informaticien américain à qui l’on doit un ouvrage de 1975 devenu culte intitulé Le Mythe du mois-homme. Brooks y démontre que le fait d’allouer de nouvelles ressources humaines à un projet accentue généralement le retard de la complétion de ce projet : “Ajouter des personnes à un projet en retard accroît son retard.”

En bref, 3 mois-hommes n’équivalent pas à 3 mois de travail d’un seul homme (il faut dire que l’unité mois-homme n’est pas des plus inclusives ; les mois-femme n’étaient guère envisagés à l’époque où on a créé l’unité) car les trois personnes doivent se former, échanger entre elles et prendre du temps pour se mettre d’accord (voire gérer des conflits). L’utilisation de cette unité de mesure est donc fallacieuse, car elle laisse penser que le travail d’une personne sur X mois peut indifféremment être réalisé par X personnes sur un mois. Brooks résume cela ainsi : “Neuf femmes ne font pas un enfant en un mois.

Les réflexions sur le caractère non linéaire de la productivité d’une équipe ne sont pas sans rappeler la théorie des coûts de transaction, cette idée que toute transaction induit des coûts cachés qui concernent la prospection, la négociation, ou encore la surveillance. Avoir recours aux prestations de plusieurs personnes sur un marché, cela n’est pas non plus équivalent au fait de confier tout ce travail à un nombre plus restreint de prestataires.

Le problème soulevé par Brooks a beau avoir été pensé dans le contexte du développement des logiciels à une époque déjà lointaine, la loi de Brooks n’en est pas moins toujours d’actualité. Elle rappelle l’existence de ces frictions naturelles liées au travail en équipe. [Lire la suite…]

20. L’illusion de planificaton

[WELCOMETOTHEJUNGLE.COM, 26 mars 2021] Nous avons tendance à surestimer notre rythme de travail et/ou sous-estimer le temps nécessaire pour réaliser une tâche ou un projet. Vous est-il déjà arrivé de promettre de finir un projet “d’ici la fin du mois” et de vous retrouver obligé en fin de mois, soit de faire des nuits blanches non prévues pour finir dans les temps, soit de devoir envoyer, tout.e penaud.e, un message à votre supérieur.e ou client.e pour demander plus de temps ? Si oui, vous n’êtes pas seul.e !

L’illusion de planification est la traduction française du concept de Planning Fallacy que l’on doit aux chercheurs Daniel Kahneman et Amos Tversky, qui l’ont mis en évidence en 1979. C’est une sous-catégorie du biais d’optimisme, le biais qui vous amène à croire que vous êtes moins exposé.e à un événement négatif que d’autres personnes (par exemple, que vous êtes moins à risque que les autres de développer une dépendance à l’alcool).

Ce qui est étonnant avec l’illusion de planification, c’est qu’on en est victime même quand on a déjà fait à plusieurs reprises l’expérience d’un décalage entre le plan et la réalité. Parfois, pour des tâches identiques, pour la réalisation desquelles on devrait pouvoir parfaitement quantifier le temps de travail nécessaire, on tombe encore et encore dans l’illusion de planification. Il en va de même pour l’estimation des coûts d’un projet, et l’estimation des risques encourus.

Le dépassement des coûts est donc l’une des conséquences fréquentes de cette illusion pour les entreprises. Il existe de nombreux exemples de projets qui en ont fait les frais. L’Opéra de Sydney devait être achevé en 1963, mais n’a finalement ouvert qu’en 1973 (avec un dépassement supérieur à 100 millions de dollars). L’aéroport international de Denver a coûté 2 milliards de plus que prévu. Le nouvel aéroport de Berlin a coûté plus de 8 milliards de plus que prévu, et n’est ouvert qu’en 2021 (14 ans après le début des travaux)… [Lire la suite…]

Laetitia Vitaud


[INFOS QUALITE] statut : validé | mode d’édition : compilation, édition et iconographie | sources : welcometothejungle.com | contributeur : Patrick Thonart | crédits illustrations : en-tête © David Plunkert ; © welcometothejungle.com.


Plus de presse en Wallonie-Bruxelles…

Les émotions et l’intellect, un dialogue continu

Temps de lecture : 8 minutes >

[SCIENCESHUMAINES.COM, 17 février 2022] Après plusieurs siècles de dualisme, la psychologie révèle l’imbrication entre émotions et intelligence.

© TV5 Monde

En opposant radicalement l’esprit et le corps, René Descartes (1596-1650) a profondément influencé notre conception des relations entre l’intelligence et les émotions. Pour Descartes, l’esprit est une “substance pensante” immatérielle, alors que le corps est une “substance étendue“, c’est-à-dire physique. Dans le cadre de ce dualisme radical, les émotions, nommées “passions“, sont conçues comme des actions du corps sur l’esprit. Descartes distingue six passions primitives : l’admiration, l’amour, la haine, le désir, la joie et la tristesse. Il considère que toutes ces passions aveuglent l’esprit et n’apportent rien de positif à la pensée. Par conséquent, il est essentiel de sauvegarder l’indépendance de la pensée en connaissant les passions pour mieux les contrôler. Bien que plusieurs philosophes, en particulier Baruch Spinoza (1632-1677), aient mis en question le dualisme cartésien et la théorie des passions qui y est associée, la conception cartésienne des émotions reste dominante jusqu’à la fin du XIXe siècle et imprègne encore les représentations contemporaines des émotions.

Darwin contre Descartes

La publication par Charles Darwin en 1872 de L’Expression des émotions chez l’homme et les animaux est le point de départ d’un changement majeur de regard sur les émotions. Dans cet ouvrage, Darwin analyse l’expression des émotions d’un point de vue évolutionniste. Il défend l’idée que les diverses formes d’expression émotionnelle ont été sélectionnées au cours de l’évolution des espèces du fait de leur valeur adaptative. En s’appuyant sur de nombreux dessins et photographies, il montre que l’expression des émotions est universelle, indépendante de l’âge, de l’ethnie et de l’espèce, les animaux manifestant des émotions tout autant que les humains. Pour Darwin, l’expression physique des émotions a une importante fonction de communication et d’adaptation dans nos interactions avec autrui.

La fonction sociale positive que Darwin attribue aux émotions a été confirmée par de nombreuses recherches contemporaines. Ainsi, Frans de Waal, éthologue néerlandais, a développé les idées de Darwin sur le rôle social et adaptatif des émotions en étudiant les interactions des chimpanzés et des bonobos. Dans L’Âge de l’empathie (2010), il démontre que l’expression des émotions est à la base de comportements prosociaux comme l’empathie et la coopération. Il considère que “les émotions sont notre boussole“, s’écartant ainsi radicalement de la conception cartésienne des émotions, source de perturbations de l’esprit.

De leur côté, les théories psychologiques de l’intelligence, apparues au début du XXe siècle dans la foulée de la création du premier test d’intelligence par Alfred Binet (1857-1911), ont longtemps négligé ses relations avec les émotions. Ainsi la théorie piagétienne du développement intellectuel, basée sur la construction progressive des structures logiques de la pensée suite aux interactions du sujet avec son environnement, ne donne qu’un rôle périphérique aux émotions.

Jean Piaget dans son bureau © Fondation Jean Piaget

Pour Jean Piaget (1896-1980), les émotions ne sont qu’une source d’énergie. Leur statut est comparable à celui de l’essence au regard du moteur : “Le fonctionnement d’une automobile dépend de l’essence, qui actionne le moteur, mais ne modifie pas la structure de la machine.” De leur côté, les différents modèles psychométriques de l’intelligence proposés au cours du XXe siècle passent largement sous silence les facteurs émotionnels et motivationnels qui peuvent influencer son fonctionnement. Toutefois, dans les années 1940, David Wechsler (1896-1981), créateur des échelles d’intelligence du même nom, publie plusieurs articles sur les facteurs non intellectuels de l’intelligence, en l’occurrence les traits de personnalité, la motivation et les émotions. Sur la base de sa longue expérience clinique, il souligne qu’il est impossible d’éliminer ces facteurs dans les performances aux tests d’intelligence. Il est dès lors nécessaire de les prendre en compte et d’estimer à leur juste valeur leur influence sur le fonctionnement.

L’anxiété perturbatrice

À partir des années 1950, des études empiriques de plus en plus nombreuses sont réalisées sur les relations entre émotions et intelligence. Elles se focalisent sur les émotions négatives, qui perturbent l’activité cognitive, tout particulièrement sur l’anxiété. Dans une méta-analyse publiée en 1988, Hembree identifie 562 études réalisées depuis 1950 à propos des effets négatifs de l’anxiété sur les performances aux tests cognitifs et aux évaluations scolaires. La corrélation moyenne entre les performances aux tests de QI et le degré d’anxiété est négative et d’ampleur modérée (- 0,23), ce qui signifie que plus l’anxiété est élevée, plus le QI a tendance à être faible, et réciproquement. Cette corrélation ne permet cependant pas de déterminer le sens de la relation entre les deux variables. Il se peut que l’anxiété perturbe les performances intellectuelles, mais il est également possible qu’un faible niveau d’intelligence génère une grande anxiété en situation de test. De nombreuses recherches récentes ont montré que les relations entre l’anxiété et le fonctionnement cognitif sont circulaires. C’est, par exemple, le cas de l’anxiété mathématique, qui a été largement étudiée. L’anxiété perturbe l’attention et la mémoire de travail, ce qui réduit l’efficacité du calcul mental et du raisonnement. Les piètres performances qui en découlent conduisent le sujet à développer une perception négative de ses compétences et de sa capacité à réussir en mathématiques, ce qui, en retour, stimule son anxiété mathématique.

Émotions et cognition

Le développement de la neuropsychologie à partir des années 1980 conduit à une révision profonde des relations entre émotions et pensée rationnelle. L’étude de patients cérébrolésés présentant des dissociations cognitives, c’est-à-dire la perte de certaines fonctions habituellement associées à d’autres qui, elles, restent intactes, a permis de mieux comprendre le rôle que jouent les émotions dans le développement et le fonctionnement normal de nos aptitudes intellectuelles. En 1994, Antonio Damasio offre une première synthèse de ces recherches dans son ouvrage L’Erreur de Descartes. Il y montre que les processus neuraux qui sous-tendent la raison et les émotions sont imbriqués au niveau du cortex préfrontal et de l’amygdale. Les systèmes impliqués dans le raisonnement et la prise de décision sont les mêmes que ceux qui interviennent dans la perception et l’expression des émotions. Les émotions sont des expériences conscientes (le “ressenti“) qui associent des réactions physiologiques, expressives et comportementales. Bien avant l’apparition du langage, elles constituent une première forme de vie mentale. Elles sont la représentation de l’état plaisant ou déplaisant de notre corps. Sur cette base, nous pouvons déclencher un comportement d’approche, pour prolonger ou renouveler un état plaisant, ou de fuite, pour interrompre ou éviter un état déplaisant. Les émotions guident ainsi nos premiers comportements et nos premières prises de décision. Elles sont non seulement à l’origine de notre pensée, mais aussi de notre conscience d’exister et du sentiment d’être soi.

L’intelligence émotionnelle, une notion débattue

Parallèlement aux recherches neuropsychologiques sur les émotions, Peter Salovey et John Mayer publient en 1990 un premier modèle de l’intelligence émotionnelle (IE). Cette dernière est conçue comme une composante de l’intelligence générale en charge de la gestion des émotions. Les deux chercheurs identifient quatre aptitudes coordonnées au sein de l’IE. La première est la perception de ses propres émotions et de celles d’autrui au travers du visage, de la voix, des images et des productions culturelles. La seconde est la régulation de ses émotions et de celles d’autrui (par exemple, le contrôle de leur intensité). La troisième est l’utilisation des émotions pour faciliter différentes activités cognitives (par exemple, pour stimuler sa créativité ou pour soutenir sa motivation). La quatrième enfin est la compréhension des émotions (par exemple, la capacité de distinguer la joie de l’extase, ou la compréhension de la manière dont évoluent les émotions au cours du temps).

Pour P. Salovey et J. Mayer, ces différentes aptitudes font la jonction entre les émotions et la cognition. Elles contribuent à l’objectif général de l’intelligence qui est de permettre à l’individu de s’adapter à son environnement et de résoudre les problèmes rencontrés sur sa route. Il n’est pas ici question de contrôler ou d’étouffer les émotions, mais de les utiliser intelligemment. De ce point de vue, toutes les émotions ont leur importance, même celles que nous jugeons a priori négatives. Ainsi, notre capacité à percevoir la tristesse d’autrui, à comprendre ce qu’elle recouvre et comment elle peut évoluer est à la base de nos comportements d’empathie et de soutien social. De même, une colère bien canalisée peut porter un discours politique et lui donner un impact considérable.

Compétence émotionnelle

Alors que P. Salovey et J. Mayer conçoivent l’intelligence émotionnelle comme un ensemble d’aptitudes intellectuelles, d’autres chercheurs, comme Konstantinos Petrides (2001), la définissent comme un trait de personnalité. K. Petrides souligne que les émotions sont, avant tout, des expériences subjectives. Selon lui, l’intelligence émotionnelle correspond à la manière spécifique de chaque individu de percevoir ses émotions et d’y réagir de manière cohérente et systématique. Il s’agirait donc bien d’un trait de personnalité, c’est-à-dire d’une façon de penser, de ressentir et d’agir propre à chacun et stable au cours du temps. Dans cette perspective, les différences interindividuelles d’intelligence émotionnelle seraient des dispositions largement déterminées par nos gènes et donc peu modifiables. Ainsi, certains individus seraient naturellement sensibles aux émotions d’autrui et empathiques, alors que d’autres le seraient beaucoup moins.

Le débat à propos de la nature de l’intelligence émotionnelle (aptitude versus trait) s’est actuellement dissipé. La plupart des chercheurs utilisent à présent le terme “compétence émotionnelle“, plutôt que “intelligence émotionnelle“. L’utilisation de ce terme a permis de circonscrire un champ de recherche relativement indépendant des débats qui agitent le domaine de l’intelligence, tout en soulignant la dimension cognitive du traitement des émotions. La liste des compétences émotionnelles identifiées aujourd’hui correspond à peu de chose près aux aptitudes décrites par P. Salovey et J. Mayer. La seule différence concerne la perception des émotions pour laquelle une distinction est maintenant faite entre l’identification des émotions et leur expression appropriée. Les recherches récentes se sont intéressées aux facteurs qui influencent ces compétences et leur développement. On considère aujourd’hui que le développement des compétences émotionnelles est sous-tendu par de multiples facteurs génétiques et environnementaux en interaction. Plusieurs études se sont aussi penchées sur la possibilité de développer les compétences émotionnelles des adultes et ont pu montrer que des améliorations substantielles et durables sont possibles. Toutes ces recherches soulignent la valeur adaptative des émotions, pour autant que les processus cognitifs chargés de leur gestion soient correctement développés. D’évidence, nous avons dépassé l’opposition cartésienne entre pensée et émotions en concevant celles-ci en termes d’intégration.

Les HPI sont-ils hypersensibles ?

Les personnes présentant un haut potentiel intellectuel (HPI) ont la réputation d’être hypersensibles et certains praticiens en font même un critère d’identification. Mais qu’en est-il vraiment ? Le concept d’hypersensibilité lui-même fait débat. Il a été introduit par Elaine Aron (1996) pour décrire une grande sensibilité aux stimuli extérieurs. Des études empiriques ont montré que l’hypersensibilité recouvre en réalité deux grandes dimensions : un seuil bas de réactivité sensorielle et une propension à réagir fortement aux événements. Un concept voisin, celui d’hyperexcitabilité, a été utilisé par Michael Piechowski (1995) pour identifier les HPI. Il désigne une réactivité très élevée aux stimuli pouvant se manifester dans cinq domaines : la motricité, la sensorialité, l’intelligence, l’imagination et les émotions. Les concepts d’hypersensibilité et d’hyperexcitabilité sont d’évidence très proches, mais restent mal définis. Leur utilisation pour décrire les personnes HPI est dès lors sujette à caution.

© DP

Si nous nous focalisons sur la dimension émotionnelle de l’hypersensibilité, nous devons vérifier que les réactions émotionnelles des HPI sont significativement plus élevées que celles des individus tout-venant. Les exemples cités par les cliniciens ne peuvent pas être retenus comme des preuves, car ils souffrent d’un biais de recrutement. Les individus HPI vus en consultation ne peuvent en effet pas être considérés a priori comme représentatifs de la population des HPI. Et même s’ils l’étaient, il faudrait encore vérifier à quel point leur degré de sensibilité émotionnelle diffère de celle des individus tout-venant. Les études empiriques sur cette question sont rares. On peut citer celle de Sophie Brasseur (2013) où les réactions émotionnelles ont été induites à partir de films et mesurées à l’aide de cinq marqueurs physiologiques et d’un questionnaire. Les résultats de cette étude ne montrent aucune différence de réactivité émotionnelle entre les personnes HPI et non HPI. Cette seule étude ne permet toutefois pas de rejeter l’hypothèse de certaines formes d’hypersensibilité des personnes HPI. Pour pouvoir trancher, une clarification conceptuelle et une modélisation plus subtile des relations entre intelligence et émotions seraient d’abord nécessaires. Sur cette base, des études empiriques pourraient ensuite être menées.

Jacques Grégoire, scienceshumaines.com


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : scienceshumaines.com | contributeur : Patrick Thonart | crédits illustrations : © psychology today ; © TV5-Monde ; © Fondation Jean Piaget ; DP.


La vie encore ? En Wallonie-Bruxelles ?

CASTELLANOS : Nous avons 7 sens et les 5 plus connus sont les moins importants

Temps de lecture : 11 minutes >

[BBC.COM/AFRIQUE, 18 février 2023] En lisant ces lignes, comment est votre corps – droit ou voûté ? Et votre visage, est-il détendu ou froncé ? Notre posture et notre visage envoient des signaux importants à notre cerveau, et c’est à ces informations que notre cerveau réagit, explique la neuroscientifique espagnole Nazareth Castellanos, chercheure au Nirakara-Lab, une chaire extraordinaire de l’université Complutense de Madrid.

Si j’ai un visage en colère, le cerveau interprète ce visage comme étant en colère et active donc les mécanismes de colère“, a déclaré Mme Castellanos. De la même manière, “lorsque le corps a une posture triste, le cerveau commence à activer les mécanismes neuronaux de la tristesse.” Notre cerveau interagit avec le reste du corps de bien plus de façons qu’on ne le pensait auparavant. “Nous n’avons pas seulement cinq sens, nous en avons sept“, a-t-elle déclaré. Et les cinq sens les plus connus, le goût, l’odorat, etc., “sont les moins importants pour le cerveau“.

Nazareth Castellanos a expliqué à BBC Mundo comment la posture et les expressions faciales influencent le cerveau, le pouvoir d’un sourire et comment apprendre à écouter “les murmures du corps“.

Dr. Gentileza Nazareth Castellanos © bbc.com
Comment en êtes-vous venue à étudier la relation entre la posture et le cerveau ?

J’ai commencé à repenser les neurosciences après 20 ans de recherche sur le cerveau uniquement. Il me semblait étrange que le comportement humain ne dépende que d’un seul organe, celui de la tête. Avant cela, j’avais commencé à étudier l’influence d’organes comme l’intestin sur le cerveau. Et j’ai dit, ça ne peut pas être la même chose pour le cerveau si mon corps est courbé ou si mon corps est droit. J’ai donc commencé à enquêter, à voir ce que la littérature scientifique avait à dire ; j’ai découvert des choses que j’ai trouvées absolument étonnantes et je me suis dit que c’était quelque chose que tout le monde devrait savoir.

Pourriez-vous expliquer pourquoi la posture est importante et comment elle influence le cerveau ?

Ce qu’il faut comprendre, c’est que les neurosciences reconnaissent désormais que nous avons sept sens. À l’école, on nous a toujours appris que nous en avions cinq – l’odorat, la vue, l’ouïe, le toucher et le goût – qui sont les sens de l’extéroception, c’est-à-dire de ce qui est extérieur. Et c’est très symbolique, car jusqu’à présent, la science s’est plutôt intéressée à l’étude de la relation de l’être humain avec l’extérieur. Depuis cinq ans environ, les neurosciences affirment qu’il faut élargir ce champ d’action. Nous n’avons pas seulement cinq sens, nous en avons sept. Et il s’avère que les cinq sens de l’extéroception – l’ouïe, etc. – sont les moins importants. Le premier sens, le plus important, est l’interoception.

Que signifie l’interoception ?

C’est l’information qui parvient au cerveau sur ce qui se passe à l’intérieur de l’organisme. Ce qui se passe à l’intérieur des organes. Nous parlons du cœur, de la respiration, de l’estomac, de l’intestin. C’est le sens numéro un, car parmi tout ce qui se passe, c’est ce à quoi le cerveau va accorder le maximum d’importance, c’est une priorité pour le cerveau.

Et la deuxième priorité est le sens de la proprioception, c’est-à-dire les informations qui parviennent au cerveau sur la façon dont mon corps est à l’extérieur, la posture, les gestes et les sensations que j’ai dans tout mon corps. Par exemple, les sensations dans les intestins lorsque nous sommes nerveux, ou une boule dans la gorge, ou la lourdeur des yeux lorsque nous sommes fatigués. Et puis viennent les cinq.

Que signifie le fait que l’interoception et la proprioception sont les premier et deuxième sens du cerveau ?

On savait déjà que le cerveau devait savoir comment se porte l’ensemble du corps, mais on pensait auparavant qu’il s’agissait d’une information passive, alors qu’aujourd’hui, il s’agit d’un sens. En d’autres termes, un sens est une information que le cerveau reçoit et à laquelle il doit répondre. En fonction de ce qui se passe, le cerveau doit agir d’une manière ou d’une autre, et c’est là le grand changement.

Où, dans le cerveau, percevons-nous notre posture ou nos gestes ?

Dans notre cerveau, il y a une zone qui ressemble à un bandeau, comme celui que l’on met pour s’épiler. C’est ce qu’on appelle le cortex somatosensoriel, et c’est là que mon corps est représenté. Ce phénomène a été découvert en 1952, et l’on pensait que les zones les plus grandes de notre corps avaient plus de neurones dans le cerveau. On a donc pensé que le cerveau consacrait beaucoup plus de neurones au dos, qui est très grand, qu’à mon petit doigt, par exemple.

© DP

Mais on a découvert que non, que le cerveau donne plus d’importance à certaines parties du corps qu’à d’autres, et que ce à quoi le cerveau donne plus d’importance dans l’ensemble du corps, c’est le visage, les mains et la courbure du corps. Ainsi, mon petit doigt a environ cent fois plus de neurones qui lui sont dédiés que l’ensemble du dos, que l’ensemble de la jambe, car les mains sont très importantes pour nous. Remarquez que lorsque nous parlons, nous utilisons nos mains, nous activons ces zones du cerveau.

Comment les expressions faciales influencent-elles le cerveau ?

Le cerveau attache une importance considérable à ce qui se passe sur le visage. Nous avons vu ici des choses qui sont très importantes. D’une part, on a vu que les personnes qui froncent les sourcils – et c’est quelque chose que nous faisons beaucoup avec les téléphones portables qui ont de petits écrans – activent une zone liée à l’amygdale. C’est une partie du cerveau qui se trouve dans les zones profondes et qui est plus impliquée dans les émotions. Lorsque je fronce les sourcils, j’active mon amygdale, donc si une situation stressante se présente, je serai plus excité, je réagirai davantage, parce que j’ai déjà préparé cette zone. L’amygdale, qui ressemble à une amande, est une zone qui s’active lorsqu’une situation stressante arrive, elle se développe davantage.

C’est donc un domaine où il vaut mieux rester calme. Mais s’il est déjà activé, lorsqu’une situation stressante arrive, il va s’hyper-activer, et cela va me faire hyper-réagir. Essayer d’adoucir cette partie, le froncement de sourcils, désactive un peu notre amygdale, elle se détend.

Dans un exposé, vous avez mentionné une étude fascinante sur les stylos qui montre comment le fait de froncer les sourcils ou de sourire change notre façon d’interpréter le monde. Pourriez-vous expliquer cette étude ?

En plus de la musculature autour des yeux, la deuxième partie du visage importante pour le cerveau est la bouche. Nous ne sommes pas conscients de la puissance qu’il a, c’est impressionnant. Pour examiner l’hypothèse du feedback facial, les chercheurs ont pris un groupe de personnes et leur ont mis un stylo dans la bouche.

Ils devaient d’abord le tenir entre leurs dents, ils simulaient un sourire, mais sans sourire, ce qui était l’important. On leur a ensuite montré une série d’images et ils ont dû dire à quel point ils les trouvaient belles. Lorsqu’ils avaient le stylo dans la bouche en simulant un sourire, les images leur semblaient plus agréables. Mais lorsqu’ils tenaient le stylo entre leurs lèvres, simulant un visage en colère, les mêmes images ne semblaient pas aussi agréables. Il s’agit d’une étude datant des années 1980, mais de très nombreuses études ont été réalisées depuis.

Il a été constaté, par exemple, que lorsque nous voyons des personnes souriantes, nous sommes plus créatifs, notre capacité cognitive augmente, la réponse neuronale à un visage souriant est beaucoup plus forte qu’à un visage non souriant ou à un visage en colère. L’insula, qui est l’une des zones du cerveau les plus impliquées dans l’identité, est activée lorsque nous voyons quelqu’un sourire ou lorsque nous sourions nous-mêmes. Sourire n’est pas rire, c’est différent. Nous voyons donc le pouvoir qu’un sourire a sur nous, car le cerveau, comme nous l’avons dit, dédie un grand nombre de neurones au visage.

Comment le cerveau réagit-il lorsque nous sourions ou fronçons les sourcils ?

Comme nous l’avons dit, la proprioception – qui est l’information qui parvient au cerveau sur l’état de mon corps et en particulier de mon visage – est une information à laquelle le cerveau doit réagir. Si je suis triste, si je suis en colère, si je suis heureux, mon visage le reflète, mais aussi l’inverse. Si j’ai un visage en colère, le cerveau interprète “ce visage est typique de la colère, donc j’active des mécanismes de colère“, ou “ce visage est typique du calme, donc j’active des mécanismes de calme.” En d’autres termes, le cerveau est toujours à la recherche de ce que l’on appelle la congruence corps-esprit.

Et c’est intéressant car que se passe-t-il si je suis triste ou en colère, stressé, et que je commence à faire un visage détendu ? Au début, le cerveau dit “ça ne colle pas, elle est nerveuse mais elle fait un visage détendu“. Et ensuite il commence à générer quelque chose appelé migration d’humeur. Le cerveau dit : “OK, j’essaie d’adapter l’humeur au visage“. Regardez donc quelle ressource nous avons.

Vous avez également parlé d’un autre aspect de la proprioception, la courbure du corps. De nos jours, avec les téléphones portables, nous sommes souvent courbés. Comment cela influence-t-il le cerveau ?

Le cerveau – et c’est une découverte faite il y a trois mois – possède une zone exclusivement dédiée à la vision de la posture de mon corps. On a constaté qu’il existe des postures corporelles que le cerveau associe à un état émotionnel. Si, par exemple, je bouge mes bras de haut en bas, le cerveau n’enregistre pas que lever la main est une émotion, car nous ne le faisons pas habituellement, n’est-ce pas ?

© un-dos-en-paix

Cependant, être avachi est quelque chose qui vient avec le fait d’être triste, et c’est comme ça, quand on est mal, on est avachi. Nous sommes tous avachis ces derniers temps, car nous passons, entre autres, huit heures par jour devant un ordinateur.

Cela fait-il référence à une étude célèbre que vous mentionnez dans vos conférences, celle sur l’ordinateur ?

Lorsque nous avons une posture voûtée, cela affecte notre perception émotionnelle du monde et notre mémoire. Et c’est là qu’ils ont réalisé une expérience célèbre où ils ont pris des gens et ont mis un ordinateur portable au niveau de leurs yeux, et une série de mots est apparue. A la fin, vous fermez l’ordinateur et vous leur dites, dites-moi combien de mots vous avez mémorisés. Et ils ont fait la même chose, mais ils ont mis l’ordinateur sur le sol de telle sorte que cela obligeait les gens à se pencher.

Qu’est-ce qu’on a vu ? Que lorsque le corps était penché vers le bas, les gens se souvenaient de moins de mots, c’est-à-dire qu’ils perdaient leur capacité de mémorisation et se souvenaient de plus de mots négatifs que de mots positifs. En d’autres termes, tout comme lorsque nous sommes tristes, nous sommes moins agiles sur le plan cognitif et nous nous concentrons davantage sur le négatif, lorsque le corps adopte une posture caractéristique de la tristesse, le cerveau commence à activer les mécanismes neuronaux caractéristiques de la tristesse.

Alors, que nous dit la science, en fin de compte ? Eh bien, ce n’est pas que vous devez être comme ceci ou comme cela, mais que tout au long de la journée, vous devez être plus conscient de votre propre corps et corriger les tendances que vous avez acquises. Par exemple, je m’observe beaucoup et je découvre de temps en temps que je suis à nouveau avachi. Vous corrigez donc cette habitude et, au fil du temps, vous en acquérez de moins en moins.

Mais si vous n’avez pas cette capacité à observer votre propre corps, vous pouvez rester comme ça pendant des heures sans vous rendre compte que vous êtes comme ça.

Comment nous entraînons-nous alors à écouter davantage notre corps ? On dit souvent que le corps ne crie pas, il murmure, mais on ne sait pas l’écouter.

Je crois que la première chose à faire pour savoir comment est notre corps est d’apprendre à l’observer. Et ce que les études nous disent, c’est qu’une grande partie de la population a une conscience corporelle très faible. Par exemple, chaque fois que nous ressentons une émotion, nous la ressentons dans une partie du corps ; les émotions sans le corps ne seraient qu’une idée intellectuelle.

Il existe des études dans lesquelles on demande aux gens : lorsque vous êtes nerveux, où dans votre corps localiseriez-vous cette sensation ? La plupart d’entre eux ne connaissent pas la réponse, car ils ne se sont jamais arrêtés pour regarder leur propre corps. La première chose à faire est donc, tout au long de la journée, de s’arrêter et d’observer, comment est mon corps ? Et lorsque nous ressentons une émotion, arrêtons-nous un instant et disons-nous : “Où est-ce que je la trouve ? Comment est-ce que je sens mon corps à cet instant ? C’est-à-dire de faire beaucoup plus d’observation corporelle.”

Et cette conscience du corps aide-t-elle à gérer les émotions difficiles ?

Lorsque je suis nerveux, par exemple, je sens quelque chose dans mon estomac ou une boule dans ma gorge. Tout cela est ressenti par mon cerveau, il le reçoit. Lorsque je suis conscient de ces sensations, l’information qui a atteint le cerveau est plus claire et, par conséquent, le cerveau est mieux à même de discerner une émotion d’une autre. C’est-à-dire que c’est une chose de chuchoter presque sans conscience, et une autre d’en faire un mot.

Et nous le faisons avec la conscience, qui est aussi un allié dans la gestion des émotions. Parce que lorsque nous sommes impliqués dans une émotion, quelle qu’elle soit, si nous nous arrêtons à ce moment-là et que nous portons notre attention sur les sensations du corps, cela nous soulage beaucoup. C’est l’une des façons de se détendre, d’arrêter ce maelström dans lequel nous nous mettons quand nous avons une émotion. C’est ce qu’on appelle la conscience du corps.

© tiandi

Dans les années 1990, Antonio Damasio, le grand neuroscientifique de notre époque, nous a parlé des avantages de ce marqueur somatique. Il a réalisé de nombreuses expériences dans lesquelles il a été démontré que les personnes qui sont plus conscientes de leur corps prennent de meilleures décisions. À mon avis, il en est ainsi car ce n’est pas le corps qui vous dit où vous devez aller, mais il vous dit où vous êtes. Et si nous sommes dans une situation complexe et qu’il y a des émotions en jeu, et que moi-même je ne sais même pas où je suis ou quelle émotion j’ai, il m’est plus difficile de savoir où je dois aller.

Les émotions sont très complexes et elles sont généralement mélangées. Pouvoir identifier une émotion par la seule analyse mentale est plus difficile que si je le fais en observant mon propre corps. Mais bien sûr, pour cela nous avons dû nous entraîner, tout au long de la journée à observer les sensations du corps, quand je suis fatigué, quand je suis heureux, quand je suis plus neutre, quand je suis en colère, quand je me sens accablé… Où est-ce que je le ressens ? Cela nous aide beaucoup à nous connaître.

Le fait de s’avachir nous fait mal respirer. Pouvez-vous nous parler de la respiration et du cerveau ?

La respiration est un allié que nous avons entièrement entre nos mains, mais nous ne savons pas comment respirer. La posture et la respiration sont intimement liées. Si vous prenez soin de votre posture, vous prenez soin de votre respiration. Ce qui a été observé dans la neuroanatomie de la respiration, c’est que celle-ci influence la mémoire, l’attention et la gestion des émotions.

Mais attention, si elle est nasale, si l’inspiration se fait par le nez. Si nous inspirons par la bouche, et une grande partie de la population respire par la bouche, nous n’avons pas autant de capacité à activer le cerveau.

Le cerveau a besoin d’être réglé sur des rythmes et la respiration est l’un des pacemakers dont dispose notre cerveau pour que les neurones génèrent leurs rythmes, leurs décharges électriques. Si nous respirons par la bouche, c’est un pacemaker atténué. Il faut que l’inspiration passe par le nez. Lorsque nous inspirons, par exemple, le moment où nous avons le plus de mémoire est celui où nous inspirons par le nez, à ce moment-là l’hippocampe est activé.

Si on vous dit quelque chose, un mot, au moment qui coïncide avec l’inspiration, on a plus de chances de s’en souvenir que si on vous le dit au moment de l’expiration, au moment où vous expirez. Cela nous renseigne sur une chose très intéressante, la respiration lente. Normalement, nous respirons très vite.

Quelle est l’importance de la respiration lente ?

Nous venons de publier une étude scientifique sur le pouvoir de la respiration lente comme analgésique dans les cas de douleurs chroniques dues à une discopathie (détérioration des disques entre les vertèbres).

Et pour les émotions, l’important est que le temps qu’il faut pour expirer, pour sortir l’air, soit plus long que le temps qu’il faut pour inspirer. Regardez comme il est important, combien de choses nous pouvons faire avec notre propre corps. Notre corps est l’instrument avec lequel notre vie sonne, mais c’est un instrument dont nous ne savons pas jouer. Nous devons d’abord apprendre à le connaître, puis à le jouer.

Alejandra Martins, BBC News Mundo


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition et iconographie | sources : bbc.com/afrique | contributeur : Patrick Thonart | crédits illustrations : en-tête © scripps research magazine ; © bbc.com ; © domaine public ; © tiandi.


Vivre encore en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…

THONART : Suis-je une infox ? (2022)

Temps de lecture : 21 minutes >

Chère lectrice, cher lecteur, je commencerai par te donner une bonne nouvelle : “Non, tu n’es pas une fake news (ou, désormais, en bon français : tu n’es pas une infox) !” Sur ce, comment puis-je l’affirmer ? Comment puis-je être certain que cette information sur un phénomène du monde qui m’est extérieur est bel et bien réelle ? Comment valider ma perception du phénomène “il y a un.e internaute qui lit mon article” auquel mes sens sont confrontés ? Comment puis-je m’avancer avec conviction sur ce sujet, sans craindre de voir l’un d’entre vous se lever et demander à vérifier d’où je tiens cette certitude, que nous avons devant nous un “lecteur curieux” en bonne et due forme ?

Ouverture en Si majeur

Eh bien, ce n’est pas très compliqué. Tout d’abord : peut-être nous connaissons-nous déjà dans la vie réelle (pas dans le métavers) et je t’ai serré la main ou fais la bise, j’ai physiquement identifié ta présence et, dans la mesure où je n’ai vécu, dans les secondes qui suivirent, aucune tempête hormonale me signalant qu’il fallait fuir immédiatement, mon corps a libéré les phéromones de la reconnaissance de l’autre, dont je ne doute pas que tes organes sensoriels aient à leur tour détecté la présence. Ton cerveau a pu régler immédiatement le taux d’adrénaline dans ton sang. Peut-être avons-nous même pu nous asseoir autour d’une table et déguster une bière spéciale car… nous avions soif. Peut-être même t’ai-je entendu commenter cet article, que tu avais lu en avant-première. Tu es un phénomène réel, cher lecteur, car mon cerveau te reconnaît comme tel.

Ensuite, tu n’es pas une infox non plus et j’en ai eu la preuve quand, à cause de toi, j’ai dû interroger mes monstres intérieurs, mes instances de délibération psychologique, mon Olympe personnel (celui où je me vis comme un personnage mythique, tout comme dans mes rêves), alors que tu t’attendais à ce que (parmi d’autres blogueurs) je publie sur cette question qui nous taraude tous depuis sa formulation par Montaigne : “Comment vivre à propos ?” Ma psyché a alors dû aligner

      1. une répugnance naturelle à m’aligner sur un groupe (ici, les blogueurs qui s’expriment sur un auteur, sans faire autorité),
      2. la douce vanité que tisonnait l’impatience que je sentais chez toi, lecteur, et
      3. ma sentimentalité face à la perspective de tes yeux ébahis devant mes commentaires éclairés.

Là, ce sont nos deux personnalités qui ont interagi : preuve est faite de ton existence, parce que c’est toi, parce que c’est moi. Tu es un être humain réel, cher lecteur, car ma psyché te reconnaît comme tel.

Enfin, tu es là, virtuellement face à moi, lectrice, comme le veut ce grand rituel qu’est notre relation éditoriale en ligne. Nous jouons ensemble un jeu de rôle qui nous réunit régulièrement et dans lequel ton rôle est défini clairement. Dans la relation éditeur-lecteur sans laquelle wallonica.org n’a pas de sens, ton rôle doit être assuré, par toi ou par ta voisine. C’est là notre contrat virtuel et je vis avec la certitude que, à chaque publication, un lecteur ou une lectrice lira mon article. Cette certitude est fondée sur notre relation, sur notre discours à son propos, qui prévoit des rôles définis, des scénarios interactifs qui se répètent, qui raconte des légendes dorées sur cette interaction, qui met en avant une batterie de dispositifs qui deviennent, article après article, nos outils de partage en ligne et sur les statistiques de visite de cette page web. Tu es donc là parce qu’il est prévu -par principe- que tu y sois. Tu es une idée réelle, chère lectrice, car ma raison te reconnaît comme telle.

Donc, qu’il s’agisse de mon corps, de ma psyché ou de mes idées, à chaque niveau de mon fonctionnement, de ma délibération, j’acquiers la conviction que tu es là, bien réel.le face à moi ou, du moins, quelque part dans le monde réel (que n’appliquons-nous les mêmes filtres lorsque nous traitons les actualités et les informations quotidiennes dont le sociologue Gérald Bronner affirmait que, au cours des deux dernières années, nous en avons créé autant que pendant la totalité de l’histoire de l’humanité jusque-là !).

Pour conclure ce point, je rappellerai que, traditionnellement, on exige d’une information cinq qualités essentielles : la fiabilité, la pertinence, l’actualité, l’originalité et l’accessibilité… C’est la première de ces cinq qualités que nous validons lorsque nous nous posons la question : info ou infox ?

Dans la même veine : cette question, je peux la poser à propos de… moi-même. Qui me dit que je ne suis pas une infox, pour les autres ou… pour moi-même ? Comment vérifier, avec tout le sens critique que j’aurais exercé pour lire une info complotiste sur FaceBook, comment vérifier que je suis un phénomène fiable pour moi et pour les autres ? Plus précisément, comment vérifier que l’image que j’ai de moi correspond à mon activité réelle (Diel), à ce que je fais réellement dans le monde où je vis avec vous, mes lectrices, mes lecteurs ? Pour mémoire, selon Montaigne, voilà bien les termes dans lesquels nous devons travailler car : “Notre bel et grand chef-d’œuvre, c’est vivre à propos.” C’est-à-dire : sans décalage entre nous et le monde.

Ma proposition est donc de présenter brièvement une clef de lecture de nous-mêmes, un test critique que chaque lecteur ou lectrice de ces lignes pourrait effectuer afin d’éclaircir un des éléments déterminants du fonctionnement de sa raison au quotidien : soi-même.

Tant qu’à prendre des selfies, autant qu’ils soient les plus fiables possibles et tant qu’à exercer notre sens critique, pourquoi pas commencer par nous-mêmes… ?

Aussi, commençons par le commencement : Copernic, Galilée et Newton n’ont pas été les derniers penseurs à transformer fondamentalement notre vision du monde. A son époque, pendant le siècle des Lumières, Kant a remis une question philosophique sur le tapis qui n’est pas anodine ici, à savoir : “Que puis-je connaître ?” (rappelez-vous : nous travaillons sur comment se connaître soi-même).

Kant (anon., ca 1790) © Bucknell University

Kant est un imbuvable, un pas-rigolo, un illisible (il l’a dit lui-même et s’en est excusé à la fin de sa vie) mais nous ne pouvons rester insensibles à sa définition des Lumières, je cite :

La philosophie des Lumières représente la sortie de l’être humain de son état […] de mineur aux facultés limitées. Cette minorité réside dans son incapacité à utiliser son entendement de façon libre et indépendante, sans prendre l’avis de qui que ce soit. Il est seul responsable de cette minorité dès lors que la cause de celle-ci ne réside pas dans un entendement déficient, mais dans un manque d’esprit de décision et du courage de se servir de cet entendement sans s’en référer à autrui. Sapere aude ! (“aie le courage de faire usage de ton propre entendement !”) doit être la devise de la philosophie des Lumières.

Le message est clair : si tu veux grandir, pense librement et par toi-même. C’est sympa ! Mais comment faire, quels sont mes outils et comment les maîtriser ?

Premiers outils : nos cerveaux…

Pourquoi parler du cerveau d’abord ? En fait, pour interagir avec le monde, nos outils de base sont multiples et nous pensons les connaître mais les neurologues sont aujourd’hui en train de bousculer pas mal de nos certitudes à propos de cet outil majeur qu’est notre cerveau. Le cerveau – et toute la vie de notre corps qu’il organise – est d’ailleurs longtemps resté notre soldat inconnu : seul aux premières lignes, il agit pour notre compte sans que nous nous en rendions compte. Je m’explique…

Kant – et les penseurs qui ensuite ont sorti la divinité du champ de leur travail – estiment que nous ne pouvons concevoir de la réalité que des phénomènes, c’est-à-dire les informations que nous ramènent nos sens (des goûts, des images, des textures, des odeurs, des sons…) et ce, à propos de faits que nous avons pu percevoir. A ces phénomènes, se limite la totalité du périmètre que nous pouvons explorer avec notre raison, explique Kant à son époque. Tout le reste est littérature…

© CNRS

Et le langage utilisé par notre cerveau (ou nos cerveaux si l’on tient compte des autres parties du corps qui sont quelquefois plus riches en neurones), ce langage est trop technique pour notre entendement : impulsions électriques, signaux hormonaux, transformations protéiques et j’en passe. De là peut-être, cette difficulté que nous avons à être bien conscients de l’action de notre cerveau, des modifications en nous qui relèvent seulement de son autorité ou de son activité…

Un exemple ? Qui ne s’est jamais injustement mis en colère après un coup de frein trop brutal ? Était-ce le Code de la route qui justifiait cette colère ? Non. La personne qui l’a subie méritait-elle les noms d’oiseaux qui ont été proférés ? Non. Simplement, un excellent réflexe physiologique s’est traduit dans un coup de frein qui a été déclenché par la peur d’une collision, provoquée par la vue d’un piéton dans la trajectoire du véhicule et l’adrénaline libérée devait trouver un exutoire dans un cri de colère proportionné, faute de quoi elle serait restée dans le sang et aurait généré du stress…

Un autre exemple ? Lequel d’entre nous n’a jamais grondé, giflé voire fessé son enfant juste après lui avoir sauvé la vie, en lui évitant d’être écrasé : on le rattrape par le bras, on le tire sur le trottoir, la voiture passe en trombe et on engueule le petit avec rage pour lui signifier combien on l’aime. On préfère dire que c’est un réflexe, non ?

Nombreuses sont les situations concrètes où nous fonctionnons ainsi, sur la seule base du physiologique, et c’est tant mieux, car nos cerveaux n’ont qu’un objectif : veiller à notre adaptation permanente au milieu dans lequel nous vivons, ceci afin de maintenir la vie dans cet organisme magnifique qui est notre corps.

Partant, il serait recommandé d’identifier au mieux la contribution de nos cerveaux et de notre corps, avant de se perdre dans la justification morale ou intellectuelle de certains de nos actes.

Couche n°2 : la conscience…

Ici, tout se corse. Pendant des millénaires, notre conscience, notre âme, notre soi, notre ego, ont été les stars de la pensée, qu’elle soit religieuse, scientifique ou philosophique. De Jehovah à Freud, le succès a été intégral et permanent au fil des siècles. A l’Homme (ou à la Femme, plus récemment), on assimilait la conscience qu’il ou elle avait de son expérience.

La question du choix entre le Bien et le Mal y était débattue et l’ego était un grand parlement intérieur, en tension entre, en bas, la matière répugnante du corps et, en haut, la pureté des idées nées de l’imagination ou générées par l’intellect.

Or, voilà-t-y pas que nos amis neurologues shootent dans la fourmilière et nous font une proposition vertigineuse, aujourd’hui documentée et commentée dans les revues scientifiques les plus sérieuses : la conscience ne serait qu’un artefact du cerveau, une sorte d’hologramme généré par nos neurones, rien que pour nous-mêmes !

Plus précisément : trois régions du cerveau ont été identifiées, dont la mission commune est de nous donner l’illusion de notre libre-arbitre, l’illusion d’être une personne donnée qui vit des expériences données. Ici, plus question d’une belle conscience autonome, garante de notre dignité et flottant dans les airs ou ancrée dans notre cœur.

Et c’est évidemment encore un coup du cerveau, qui fait son boulot : “si je suis convaincu que j’existe individuellement, je vais tout faire pour ma propre survie.”

Pour illustrer ceci simplement, prenons l’exemple d’un pianiste qui lit une note sur une partition, enfonce une touche du piano et entend la corde vibrer. Il a l’impression de faire une expérience musicale unique alors que ce sont précisément les trois zones du cerveau dont je parlais qui ont œuvré à créer cette impression. Elles ont rassemblé en un seul événement conscient, le stimulus visuel de la note lue, l’action du doigt sur l’ivoire et la perception de la note jouée. L’illusion est parfaite alors que ce sont des sens distincts du cerveau qui ont été activés, à des moments différents et sans corrélation entre eux a priori. C’est vertigineux, je vous le disais : ma conscience, n’est en fait pas consciente.

Je pense qu’on n’a pas encore conscience non plus, des implications d’une telle découverte et je serais curieux de pouvoir en parler un jour avec Steven Laureys.

Reste que, factice ou pas, la conscience que j’ai de moi-même accueille la deuxième couche du modèle que je vous propose : la psyché. Qu’ils soient illusoires ou non, ma psyché, ma personnalité psychologique, ma mémoire traumatique, ma vanité, mes complexes, mon besoin de reconnaissance, mes accusations envers le monde, mes habitudes de positionnement dans les groupes, ma volonté d’être sublime… bref, mes passions, mes affects conditionnent mon interaction avec le monde.

J’en veux pour preuve toutes les fois où je suis rentré dans un local où je devais animer une réunion, donner une conférence ou dispenser une formation : à l’instant-même où je rentrais dans la pièce, il était évident que j’aurais une confrontation avec celui-là, celui-là et celui-là. Je n’ai pas toujours eu du bide mais j’ai commencé grand… en taille, très tôt. Le seul fait de ma stature physique provoquait systématiquement une volonté de mise en concurrence chez les participants les plus arrogants de virilité. Il me revenait alors d’établir ma position d’animateur sans qu’elle ne vienne contrarier le statut des mâles alpha présents ou… de m’affirmer moi-même en mâle alpha quand les mâles en question étaient beaucoup moins baraqués que moi…

Ici, pas de grands idéaux pédagogiques, pas de réflexes physiologiques mais simplement un positionnement affectif, un moment où chacun se vit comme un héros mythique et sublime, dans une confrontation authentiquement héroïque.

J’ai le sentiment que le débat intérieur, à ce moment-là, utilise le même langage que les rêves où, également, chacun se vit comme un personnage mythologique, hors de tout détail accidentel ou quotidien. Regardez la colère d’un informaticien quand un ordinateur ne fait pas ce qu’il veut : elle est homérique et n’est possible que si, l’espace d’un instant, l’informaticien en question a eu l’illusion d’être un dieu tout-puissant, créateur de ce dispositif qui a l’arrogance satanique de lui résister. Encore un coup de la psyché vexée !

Combien de fois -il faut le reconnaître- n’avons-nous pas discuté, disputé, débattu ou polémiqué sur des sujets qui n’en étaient pas mieux éclairés, car force nous était d’abord d’avoir raison devant témoins de la résistance de l’autre, simplement parce qu’il ressemblait trop à notre contrôleur des impôts ou à une collègue carriériste ! C’est un exemple. Passion, quand tu nous tiens… nous, nous ne savons pas nous tenir. On pourra énumérer longuement ces situations où la psyché tient les rênes de nos motivations, alors que nous prétendons agir en vertu de principes sublimes ou d’idées supérieures. Dans ces cas regrettables, les sensations captées par notre cerveau n’ont même pas encore fait leur chemin jusqu’à notre raison que déjà nous réagissons… affectivement.

Il ne s’agit pas ici, par contre, de condamner notre psyché, qui se débat en toute bonne foi dans un seul objectif : obtenir et maintenir la satisfaction que nous pouvons ressentir lorsque nos désirs sont réalisables et notre réalité désirable. Bref, quand l’image que nous avons de nous-même correspond à notre activité réelle. C’est une joie profonde qui en résulte.

Juste à côté, mais en version brouillée : les idées…

A ce stade, résumons-nous : un cerveau hyperconnecté qui nous permet de percevoir et d’agir sur le monde, une psyché mythologisante qui nous positionne affectivement face à ses phénomènes. Il nous manque encore le troisième étage du modèle : les idées, les discours, autrement dit les formes symboliques.

C’est le philosophe Ernst Cassirer qui a concentré ses recherches sur notre formidable faculté de créer des formes symboliques : le Bien, le Mal, Dieu, le Beau, le Vrai, le Juste, le Grand Architecte, le Carré de l’hypoténuse, Du-beau-du-bon-Dubonnet, la Théorie des cordes, “Demain j’enlève le bas”, “Le Chinois est petit et fourbe”, “This parrot is dead”, la Force tranquille, Superman, le Grand remplacement, “Je ne sais pas chanter”, “Mais c’est la Tradition qui veut que…”, “On a toujours fait comme ça”, “les Luxembourgeois sont tellement riches…” Autant de formes symboliques, de discours qui ne relèvent ni de notre physiologie, ni de notre psychologie ; autant de convictions, de systèmes de pensée, de vérités qui, certes, prêtent au débat mais ne peuvent constituer une explication exclusive et finale du monde qui nous entoure (s’il y en avait une, ça se saurait !).

Cassirer ne s’est pas arrêté à un émerveillement bien naturel face à cette faculté généreusement distribuée à l’ensemble des êtres humains : créer des formes symboliques. Il a également averti ses lecteurs d’un danger inhérent à cette faculté : la forme symbolique, l’idée, le discours, a la fâcheuse tendance à devenir totalitaire. En d’autres termes, chacun d’entre nous, lorsqu’il découvre une vérité qui lui convient (ce que l’on appelle une vérité, donc) s’efforce de l’étendre à la totalité de sa compréhension du monde, voire à l’imposer à son entourage (que celui qui n’a jamais observé ce phénomène chez un adolescent vienne me trouver, j’ai des choses à lui raconter…).

© F. Ciccollela

Qui plus est, les fictions et les dogmes qui nous servent d’œillères ne sont pas toujours le fait de la société ou de notre entourage : nous sommes assez grands pour générer nous-mêmes des auto-fictions, des discours qui justifient nos imperfections ou qui perpétuent des scénarios de défense, au-delà du nécessaire.

Il reste donc également important d’identifier les dogmes et les discours qui entravent notre liberté de penser, afin de rendre à chacune de nos idées sa juste place : rien d’autre qu’une opportunité de pensée, sans plus. A défaut, nous risquons de la travestir en vérité absolue, à laquelle il faudrait se conformer !

Mais quel langage utilise-t-on pour échanger sur ces formes symboliques, qu’il s’agisse de réfléchir seul ou de débattre avec des tiers, qu’il s’agisse de fictions personnelles ou de discours littéraires, poétiques, scientifiques, mathématiques, religieux ou philosophiques ?

Il semblerait bien qu’il s’agisse là de la langue commune, telle qu’elle est régie par la grammaire et l’orthographe, codifiée par nos académies. On ne s’étendra pas ici sur les différents procédés de langage, sur la différence entre signifiant et signifié, sur l’usage poétique des mots, sur la différence entre vocabulaire et terminologie. Ce qui m’importe, c’est simplement d’insister sur deux choses, à propos des formes symboliques :

    • d’abord, le discoursvoulu raisonnable- que l’on tient à propos du monde ou d’un quelconque de ses phénomènes, n’est pas le phénomène lui-même. C’est Lao-Tseu qui disait : “Le Tao que l’on peut dire, n’est pas le Tao pour toujours.» Pour faire bref : c’est impunément que l’on peut discourir sur n’importe quel aspect de notre réalité car notre discours n’est pas la chose elle-même (sinon, il serait impossible de parler d’un éléphant lorsqu’on est assis dans une 2CV, par simple manque de place).
    • Ensuite : impunément peut-être pas, car notre formidable faculté de créer des formes symboliques pour représenter le monde (qu’il soit intérieur ou extérieur) sert un objectif particulier bien honorable : celui de nous permettre de construire une image du monde harmonieuse, à défaut de laquelle il sera difficile de se lever demain matin.
Mystère et boules de gomme

Nous voici donc avec un modèle de lecture de nous-mêmes à trois étages : le physiologique, le psychologique et les formes symboliques (ou les discours). Jusque-là, nous avons travaillé à les décrire, à reconnaître leur langage et à identifier leur objectif, c’est-à-dire, leur raison d’être :

    1. l’adaptation à l’environnement, pour le cerveau ;
    2. la satisfaction née de l’équilibre entre désirs intérieurs et possibilités extérieures, pour la psyché, et
    3. l’harmonie dans la vision du monde pour les discours, pour la raison.

Tout cela est bel et bon, mais où est le problème, me direz-vous ? Mystère ! Ou plutôt, justement, le mystère et la tradition qu’il véhicule. Je vous l’ai proposé : à moins d’être croyant, gnostique ou un dangereux gourou, la tradition est à prendre comme un discours, une opportunité de pensée : ce qui n’en fait pas une vérité ! Notre tradition occidentale agence nos trois étages de manière rigoureuse : le corps, notre prison d’organes, est au rez-de-chaussée de la maison ; notre conscience, nécessairement plus élevée que nos seuls boyaux, fait “bel étage” et les idées, sublimes, dominent un étage plus haut, elles rayonnent au départ d’un magnifique penthouse sur la terre entière !

      • raison, splendeur, esprit, idéaux, lumière infinie et vie éternelle en haut ;
      • corps, limitations, affects, déchéance et mort, en bas.

C’est du Platon, du Jehovah, du Jean-Sébastien Bach ou du Louis XIV ! Et c’est cette même tradition idéaliste qui positionne le mystère dans des zones transcendantes, dans un au-delà que notre raison ne peut cerner et dont nous ne possédons pas le langage, sauf “initiation”, bref : le mystère est ineffable tant il est supérieur, bien au-delà de notre entendement.

Face à cette “mystique du télésiège”, qui, depuis des lustres, entrelarde notre culture judéo-chrétienne de besoins d’élévation sublime, il existe une alternative, qui est la vision immanente du monde.

L’immanence, c’est la négation de tout au-delà : tout est déjà là, devant nous, au rez-de-chaussée, qui fait sens, qui est magnifiquement organisé et vivant, qui est prêt à recevoir notre expérience mais seulement dans la limite de nos capacités sensorielles et de notre entendement.

Et c’est bel et bien cette limite qui fournit la signification que nous pourrions donner au mot mystère : “au-delà de cette limite, nos mots ne sont plus valables.” Souvenez-vous de Lao-Tseu quand il évoque l’ordre universel des choses et le silence qu’il impose. Contrairement aux définitions des dictionnaires qui nous expliquent que le “Mystère est une chose obscure, secrète, réservée à des initiés”, le mystère serait cet ordre des choses que nous pouvons appréhender mais pas commenter.

Pas de mots pour décrire le mystère : non pas parce qu’il est par essence un territoire supérieur interdit, réservé aux seuls dieux ou aux initiés, pas du tout, mais parce que, tout simplement, notre entendement a ses limites, tout comme le langage rationnel qu’il utilise.

Nous pouvons donc expérimenter le mystère mais, c’est notre condition d’être humain que d’être incapables de le décrire avec nos mots. J’en veux pour exemple la sagesse de la langue quand, face à un trop-plein de beauté (un paysage alpin, la mer qu’on voit danser, la peau délicate d’un cou ou une toile de Rothko), nous disons : “cela m’a laissé sans mots“, “je ne trouve pas les mots pour le dire“, “je suis resté bouche-bée…”

© ElectroFervor
Sapere Aude versus Amor Fati

Au temps pour le mystère. Le questionner aura permis de dégager deux grosses tendances dans notre culture (et, donc, dans notre manière de penser) : d’une part, l’appel vers l’idéal du genre “mystérieux mystère de la magie de la Sainte Trinité” et, d’autre part, la jouissance pragmatique du “merveilleux mystère de la nature, que c’est tellement beau qu’on ne sait pas comment le dire avec des mots.” Dans les deux cas, le mystère a du sens, on le pressent, mais, dans les deux cas, le mystère est ineffable, que ce soit par interdit (première tendance) ou par simple incapacité de notre raison (seconde tendance).

Dans les deux cas, chacun d’entre nous peut se poser la “question du mystère” : quand, seul avec moi-même, je veux accéder à la connaissance, percer le mystère et goûter au sens de la vie, est-ce que je regarde au-delà des idées ou au cœur de mes sensations ?

Merveille de notre qualité d’humains, nous pratiquons les deux mouvements : de l’expérience au monde des idées, du monde des idées à l’expérience ; en d’autres termes, de l’action à la fiction, et de la fiction à l’action.

Pour mieux vous expliquer, j’appelle à la barre deux penseurs qui y ont pensé avant moi : Emmanuel Kant et Friedrich Nietzsche.

Avec son Sapere Aude (“Ose utiliser ton entendement”), Kant représente le mouvement qui va de l’action à la fiction. Ce n’est pas pour rien qu’il vivait au Siècle des Lumières, siècle qui a substitué aux pouvoirs combinés du Roi et de l’Eglise, l’hégémonie de la Raison. Pour reprendre la métaphore, dans la maison de Kant, l’ascenseur s’arrête bel et bien à nos trois étages (cerveau, psyché et formes symboliques) mais le liftier invite ceux qui cherchent la connaissance à monter vers la Raison, dont j’affirme qu’elle est également une forme symbolique, un discours, pas une réalité essentielle. Pour Kant, le mouvement va de l’expérience à la Raison.

Dans la maison de Nietzsche par contre, le liftier propose le trajet inverse, fort de la parole de son maître qui invite à l’Amor Fati (“Aime ce qui t’arrive“). Pour le philosophe, il importe de se libérer des discours communs, des idées totalitaires et ankylosantes, ces crédos que ruminent nos frères bovidés, et de devenir ce que nous sommes intimement, dans toute la puissance et la profondeur de ce que nous pouvons être (ceci incluant nos monstres !).

© Asep Syaeful/Pexels

Il nous veut un peu comme un samouraï qui, par belle ou par laide, s’entraînerait tous les jours pour être prêt à affronter sans peur… quoi qu’il lui arrive pratiquement. Cela implique pour lui le sérieux, l’hygiène de vie et l’attention au monde : trois disciplines qui ne sont pas des valeurs en soi, mais des bonnes pratiques.

Le mouvement préconisé va donc des idées, des fictions, vers l’action, vers l’expérience, vers le faire, comme le chante l’éternel Montaigne, grand apôtre de l’expérience juste. Je le cite :

Quand je danse, je danse ; et quand je dors, je dors. Et quand je me promène seul dans un beau jardin, si mes pensées se sont occupées d’autre chose pendant quelque temps, je les ramène à la promenade, au jardin, à la douceur de cette solitude, et à moi. La Nature nous a prouvé son affection maternelle en s’arrangeant pour que les actions auxquelles nos besoins nous contraignent nous soient aussi une source de plaisir. Et elle nous y convie, non seulement par la raison, mais aussi par le désir. C’est donc une mauvaise chose que d’enfreindre ses règles.

Un modèle pour humains modèles

Le mot est lâché : la règle ! A tout propos philosophique, une conclusion éthique ? Quelle règle de vie est proposée ici ? Nous visons la connaissance (cliquez curieux !), nous cherchons la lumière dans le Mystère ; nous avons un cerveau, une psyché, des idées ; nous pouvons aller de l’un à l’autre et de l’autre à l’un. Soit. Mais encore ?

Souvenez-vous : nous nous étions donné comme objectif de bien nous outiller pour vérifier si nous étions une infox à nous-mêmes, ou non. Dans les films, cela s’appelle une introspection si un des deux acteurs est allongé sur un divan et une méditation quand l’acteur principal se balade en robe safran, avec les yeux un peu bridés sous un crâne poli.

Pour Nietzsche, ce n’est pas être moral que de viser systématiquement la conformité avec des dogmes qui présideraient à notre vie, qui précéderaient notre expérience et qui se justifieraient par des valeurs essentielles, stockées quelque part dans le Cloud de nos traditions ou de nos légendes personnelles.

Vous me direz : “Être conforme, c’est immoral, peut-être, môssieur le censeur ?

      • Je réponds oui, si la norme que l’on suit se veut exclusive, définitive et n’accepte pas de révision (souvenez-vous : les formes symboliques deviennent facilement totalitaires. Méfiance, donc) ; la respecter serait trahir ma conviction que la vie est complexe et que la morale ne se dicte pas ;
      • oui encore, si la norme suivie me brime intimement, qu’elle fait fi de ma personne et de mes aspirations sincères, qu’elle m’est imposée par la force, la manipulation ou la domination ; la respecter serait ne pas me respecter (souvenez-vous : ma psyché a des aspirations, qui peuvent être légitimes) ;
      • oui enfin, si la norme suivie limite l’expression de ma vitalité, de ma puissance physique (souvenez-vous : mon cerveau travaille au service de ma survie).

En un mot comme en cent : la Grande Santé n’est décidément pas conforme et viser la conformité à un idéal est définitivement une négation de sa propre puissance !

Aussi, faute de disposer d’un catéchisme (tant mieux), je vous propose donc une règle du jeu, des bonnes pratiques, plus précisément une clef de détermination qui n’a qu’un seul but : ne pas mélanger les genres.

Par exemple : ne pas déduire d’un mauvais état de santé des opinions trop sombres, que l’on n’a pas sincèrement. Ne pas expliquer à ses enfants que le monde est moche, alors qu’on est simplement dans un mauvais jour. Ne pas expliquer à ses enfants que le monde est super, alors qu’on est simplement dans un bon jour. Ne pas accepter d’être brimé par quelqu’un parce que c’est toujours comme ça. Ne pas demander quelqu’un en mariage avec sept Triple Karmeliet derrière le col. Accepter d’écouter l’autre même s’il fait trop chaud dans la pièce. Ne pas tirer de conclusion sur la nature essentielle de la femme après une altercation houleuse avec une contractuelle qui posait un pv sur le pare-brise…

Ces exemples sont accidentels, quotidiens, et n’ont qu’une vertu : chacun peut a priori s’y reconnaître. Reste que la même clef de lecture peut probablement s’avérer utile pour des questions plus fondamentales, qui n’ont pas leur place ici, parce qu’elles nous appartiennent à chacun, individuellement.

© audiolib.fr

Allons-y avec un peu plus de légèreté, même si la clef proposée peut être le point de départ d’un travail plus approfondi. On va faire comme avant de tirer les lames du tarot : chacun doit choisir un problème qui le tracasse. Vous êtes prêts ? On y va ?

    1. Est-ce que la question que je me pose est essentielle et influence effectivement le sens de ma vie ?
      1. Oui ? Je cherche une solution au problème sans état d’âme ou je laisse passer la pensée inconfortable et je l’oublie (personne n’a jamais dit qu’il fallait croire tout ce que l’on pense) ;
      2. Sinon, je passe à la question 2.
    2. Est-ce que le déplaisir que je ressens peut-être lié à mon corps (digestion difficile, flatulences, chaleur, vêtements mouillés, posture inconfortable maintenue trop longtemps…)
      1. Oui ? Je prends d’abord un verre de bicarbonate de soude ou un godet de Liqueur du Suédois. Je reviens ensuite à la question 1.
      2. Sinon, je passe à la question 3.
    3. Est-ce que la manière dont je vis le problème est influencées par mes légendes personnelles, ma mémoire traumatique ou peut-elle être influencée par un positionnement psychologique que je crois nécessaire face à ses protagonistes ?
      1. Oui ? Je fais la part des choses et je me reformule le problème. Re-oui ? J’en parle à mon psy en donnant la situation comme exemple.
      2. Sinon, je passe à la question 4.
    4. Est-ce qu’en cherchant une solution au problème je fais appel à des évidences, des certitudes, des principes, des arguments d’autorité, des traditions, des routines de pensée ou des autofictions qui déforment mon analyse ?
      1. Oui ? Je pars au Népal, j’attends quelques années et, une fois apaisé, je me repose la même question avec l’esprit plus clair.
      2. Sinon, je passe à la question 5.
    5. Est-ce que, si je localise lucidement l’étage auquel se situe le nœud de mon problème, cette analyse me procurera une vision du monde plus apaisée ?
      1. Non ? Je recommence le cycle à la question 2.
      2. Oui ? Je passe à la question 6.
    6. Est-ce qu’une solution apportée au problème limiterait mes frustrations et me rendrait suffisamment confiance en mes capacités et en la bienveillance de mes frères humains ?
      1. Oui ? J’analyse, seul ou avec mon psy, l’exagération qui génère ma frustration et je travaille dessus avant de conclure quoi que ce soit à propos de moi ou des autres humains.
      2. Sinon, bonne nouvelle mais pas suffisant pour sauter la question 7.
    7. Est-ce que mon hygiène physique est suffisante pour que mon état de santé ne colonise pas la clarté de ma pensée ?
      1. Oui ? Je renonce au restaurant de ce soir et je rentre manger une biscotte à la maison avant de prendre toute autre décision.
      2. Sinon, je m’en réjouis avec vous : rendez-vous à table !

J’insiste ici : ces questionnements ne sont évidemment valables qu’en cas d’expérience désagréable ou inconfortable, de manies suspectes, de regrets ou de remords, voire plus généralement de situations insatisfaisantes. Si votre situation est satisfaisante et que vous ne ressentez aucune souffrance : eh bien, arrêtez de vous torturer et vivez la Grande Santé !

Peut-on alors entendre raison ? Voire raison garder ?

Nous voici arrivés au terme de la promenade. Je voudrais, avant de conclure, me dédouaner d’une chose : il ne s’agissait pas ici de faire le procès de la raison mais bien de l’illusion de raison, voire des prétentions à la raison. Combien de fois n’entend-on pas habiller de raison un simple argument d’autorité, brandir avec véhémence des principes, des appels à la tradition ou les éternels “on a toujours fait comme ça”, alors que l’écoute et le débat pouvaient apporter des tierces solutions qui rendaient les lendemains partagés possibles et généreux !

Et que le ton badin du ‘fake questionnaire’ ne vous trompe pas : je pense sincèrement que nous sommes souvent en défaut d’identifier lucidement les vrais moteurs de nos motivations. Je pense également qu’identifier les instances qui président à nos prises de décision et bien ressentir leur poids dans ce qui fait pencher la balance, est un exercice plus exigeant qu’il n’y paraît. Je pense enfin que nous vivons dans un monde de représentations toxiques où nous devenons individuellement le dernier bastion de la raison et du sens : raison de plus pour explorer notre vie avec tous les outils disponibles et assainir (autant que faire se peut) ce que nous savons de nous-mêmes.

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction et documentation | auteur : Patrick Thonart | crédits illustrations : © Collection privée ; © Bucknell University ; © CNRS ; © F. Ciccollela ; © ElectroFervor ; © Asep Syaeful/Pexels ; © audiolib.fr | remerciements : Renaud Erpicum.


Libérons la parole !

LAUREYS : l’expérience de mort imminente est une réalité physiologique

Temps de lecture : 4 minutes >

“L’étude menée par des scientifiques des universités de Liège et de Copenhague, vient d’être publiée dans la revue Brain Communications [The evolutionary origin of near-death experiences: a systematic investigation, by Costanza Peinkhofer, Charlotte Martial, Helena Cassol, Steven Laureys, Daniel Kondziella]. Elle propose l’hypothèse que ces expériences de mort imminente chez l’humain seraient un mécanisme de défense, de survie, en cas de danger de mort. Ce mécanisme ressemblerait aux comportements de simulation de mort, de thanatose (expérience de mort imminente chez les animaux, ndlr), observés chez de nombreuses espèces animales quand elles sont confrontées à des prédateurs et en danger.

Mais qu’est-ce qu’une expérience de mort imminente ? “Pour moi, c’est une réalité physiologique. Elle se passe classiquement quand on est en danger de mort“, explique Steven Laureys, neurologue et responsable du Coma science group et Centre du cerveau de l’université de Liège. “Elle s’accompagne d’un sentiment de bien-être. On ne ressent plus son corps comme s’il y avait une ‘décorporation‘. Le phénomène est fascinant, il mériterait davantage de recherches scientifiques.

Ces expériences se manifestent de façon différente chez les personnes qui en font l’expérience. Mais le mythe de la lumière blanche ne serait pas nécessairement un mythe. Nombreux sont ceux qui en font état.

Malgré tout ce phénomène reste un mystère. Pour certains, ce phénomène pourrait être dû à un manque d’oxygène dans telle ou telle partie du cerveau. D’autres comme Steven Laureys ne sont pas d’accord avec toutes ces hypothèses. D’autant que c’est encore un phénomène qui nous échappe.

Un phénomène qui reste à ce point fascinant que les scientifiques ne sont pas les seuls à s’y intéresser. D’ailleurs, d’autres personnes y voient des explications religieuses, y voient une preuve d’une vie après la mort ou de l’âme qui quitterait notre corps. Il manque clairement une théorie pour l’expliquer ajoute Steven Laureys et pour comprendre à quoi il sert.

Pourquoi ce fascinant phénomène serait-il limité à l’homme ?
L’âge de glace © Blue Sky

Quand un animal fait face à un danger, par exemple un prédateur, en dernier recours, il peut se battre, fuir ou avoir une troisième réaction fascinante. Il va tomber et simuler sa mort. Ce qui se passe dans son cerveau est difficile à savoir. L’animal ne parle pas mais les scientifiques belges et danois pensent que les animaux ont une conscience comme nous. Ils ont donc épluché la littérature “animale” et ont exhumé 32 articles sur ce phénomène de simulation de la mort.

A chaque fois, il y avait cette sensation de bien-être, de ne plus sentir leur corps comme s’ils en étaient dissociés

Parallèlement, les chercheurs ont lancé un appel à témoins. 600 personnes des quatre coins de la planète qui avaient vécu cette expérience, leur ont raconté leur histoire. “Récits de confrontations avec des lions, des requins“, nous détaille le scientifique liégeois, “sept témoignages concernaient des agressions physiques ou sexuelles, mais il y avait aussi beaucoup d’accidents de voiture. A chaque fois, il y avait cette sensation de bien-être, de ne plus sentir leur corps comme s’ils en étaient dissociés.

L’expérience de mort imminente remonte peut-être à la nuit des temps

Ce sont ces témoignages et les publications sur les animaux qui les ont conduits à formuler leur hypothèse. Peut-être que la mort imminente fait partie de notre évolution depuis des millions d’années. Elle est observée de la même manière chez les humains et chez les autres mammifères. Et pas seulement, chez les poissons, les reptiles et même les insectes, on retrouve aussi cette réaction paradoxale de rester immobile, de ne plus réagir aux sollicitations tout en gardant tout de même une conscience.

D’un point de vue biologique, neurologique, tous les animaux ont eux aussi des pensées, des perceptions, des émotions, même si, je le concède, le sujet reste tabou. Il est complexe, il faut poursuivre les investigations.

Notre neurologue est clair : “Pour moi, cela pourrait être un mécanisme de défense qui permet de nous protéger dans une situation d’extrême danger et qui serait encore là aujourd’hui. Pas seulement en cas de traumatisme ou d’accidents de voitures mais aussi après un arrêt cardiaque avec manque d’oxygène global dans le cerveau.

Cherche de nouveaux témoins qui ont vécu cette expérience de mort imminente
BOSCH Hieronymus, Ascension des bienheureux au paradis (détail, 1500-1504) © Palais des Doges de Venise

La recherche est loin d’être finie. Aujourd’hui, l’équipe du Coma Science Group du CHU de Liège, est à la recherche de nouveaux témoins. Alors si, vous aussi, vous avez vécu cette expérience de mort imminente, vous pouvez la partager en envoyant un mail avec votre histoire. NDE@Uliege.be (Near Death Experience).

Nous voulons écouter ceux qui l’ont vécu. Il faut l’avoir vécu, moi je ne sais pas de quoi je parle, je n’ai jamais vécu pareille expérience. Pas trop d’arrogance scientifique, juste de la curiosité et la méthodologie d’essayer de confronter ce que l’on pense comprendre avec ce que l’on pense mesurer“, conclut, avec humilité, Steven Laureys.” [RTBF.BE]


Plus de presse en Wallonie-Bruxelles…

DESMURGET : La fabrique du crétin digital (Seuil, 2019)

Temps de lecture : 9 minutes >
Enfants et écrans, attention à “l’orgie numérique”

Face à la situation inédite du confinement lié à la lutte contre le COVID-19, Michel DESMURGET, directeur de recherche à l’Inserm (Institut National français de la Santé Et de la Recherche Médicale) et auteur de La fabrique du crétin digital (Paris : Seuil, 2019) estime qu’il est nécessaire de distinguer les écrans récréatifs de ceux utilisés pour la pédagogie [d’après ESTREPUBLICAIN.FR] :

A partir du moment où les enfants ne peuvent pas aller à l’école, l’apprentissage numérique est une béquille qui est mieux que rien. En ce qui concerne les écrans récréatifs (jeux vidéos, télévision, réseaux sociaux…), on a une explosion du temps passé sur ces écrans là au détriment d’autres activités beaucoup plus nourrissantes pour le cerveau. Les enfants sont aussi soumis à un bombardement sensoriel pour lequel le cerveau n’est pas fait et qui affecte la concentration. Cette période d’orgie d’écrans récréatifs, et d’écrans en général, risque de poser des problèmes pour la sortie” du confinement.


“S.M. Votre livre est un cri de colère. Contre quoi ?

Michel Desmurget : Ma colère vient du décalage entre ce qu’on dit aux parents et la réalité. Il y a une telle distorsion entre ce que l’on sait et ce qui est traduit dans les médias. Il se passe actuellement ce qui s’est passé avec le tabac, l’amiante, le changement climatique… C’est la première génération dont le QI va être inférieur à la précédente. Avec la surconsommation d’écrans, vous touchez au langage, au sommeil, à l’activité physique… tout ce qui est essentiel au développement. Vous allez toucher à tout ce que l’évolution a mis des millions d’années à façonner. Notre cerveau est un bon vieux cerveau. C’est encore un cerveau de vieux con… même chez les enfants ! Il n’est pas fait pour qu’on le bombarde sensoriellement, qu’on lui prenne du temps de sommeil, d’interactions…

S.M. Qu’est-ce que vous espérez avec ce livre ?

M.D. Que les parents soient honnêtement informés. Ils aiment leurs enfants. Si on leur dit « ça, c’est positif », ils le font. Je me fous qu’il y ait une législation comme à Taïwan où vous êtes verbalisés si votre enfant de 2 ans joue avec une tablette car ils considèrent cela comme de la maltraitance développementale. Dans son rapport, remis en juin au ministère de la Culture, la psychanalyste Sophie Marinopoulos parle de « malnutrition culturelle ». Ce concept me parle. Il faut qu’on nourrisse nos gamins comme il faut, qu’on arrête de faire passer l’intérêt économique avant l’intérêt des enfants.

S.M. Qu’est-ce qui vous a le plus choqué à la lecture de toutes ces études ?

M.D. C’est la masse d’études convergentes, quels que soient les méthodes et les usages retenus. Il est toujours mal vu de parler de certitudes en sciences, mais quand même… On sait ce dont l’enfant a besoin et ce qu’on lui propose aujourd’hui, ce n’est pas ce dont il a besoin.” [d’après LEPROGRES.FR mais sans publicité]


La multiplication des écrans engendre une décérébration à grande échelle.

“C’est ce qu’affirme le chercheur en neurosciences Michel Desmurget dans un entretien au Monde, […] à l’occasion de la sortie de son dernier ouvrage La Fabrique du crétin digital. Ce chercheur a aussi alerté dans de nombreux autres médias sur les risques de l’exposition des enfants aux écrans. Dans une interview, il s’inquiétait ainsi pour « la première génération dont le QI sera inférieur à la précédente ». Il expliquait que « plus les enfants regardent d’écrans, plus le QI diminue ». Ces formules-chocs résumées et alarmantes se propagent massivement auprès des parents, des enseignants et des générations exposées aux écrans, suscitant de nombreuses interrogations. Le point pour y voir plus clair dans un domaine où il existe beaucoup d’études mais où la science a bien du mal à trancher.

C’est le point de départ de certaines recherches concernant nos changements environnementaux (éducation, nutrition, pollutions diffuses, écrans, etc.) : on constaterait une baisse des capacités cognitives des dernières générations, plus précisément depuis le milieu des années 1990. « Depuis 2000, c’est la première fois que le QI commence à descendre », affirme ainsi Michel Desmurget. Mais ce point de départ est-il acquis ?

Pendant longtemps, dans les pays industrialisés, on a cru que le QI moyen ne ferait qu’augmenter, avec l’amélioration de la scolarisation, du niveau d’études, des conditions sanitaires… L’accroissement régulier du résultat moyen à des tests de QI avait même un nom : l’effet Flynn, en référence au chercheur néo-zélandais James Flynn à l’origine de ce calcul.

Cet effet se serait inversé dans les années 1990, selon plusieurs études faisant référence, menées en Finlande et en Norvège. En France, une étude montre une baisse de 3,8 points entre 1999 et 2009, mais elle est méthodologiquement peu robuste car basée sur un échantillon, trop restreint, de 79 personnes. A l’inverse, la Norvège et la Finlande sont les deux seuls pays disposant de données solides sur les capacités cognitives de leur population, grâce à des évaluations chez les jeunes appelés faisant leur service militaire.

En Norvège, le QI moyen des conscrits a ainsi augmenté régulièrement entre les années 1980 et 1990 (les tests sont menés par les cohortes nées entre 1962 et 1975), passant de 99,5 à 102,3 ; ensuite, le score a, au contraire, décru d’année en année pour arriver à 99,7 dans les années 2000 (cohorte née en 1991). En Finlande, même évolution, dévoilée par une autre méthode, le peruskoe (test de base), créé par l’armée, qui montre une hausse des résultats des jeunes soldats pendant dix ans, puis une baisse pendant les dix années suivantes (en 1988, le score moyen est de 22,27 points ; en 1997, il est de 23,92 ; en 2009, il descend à 22,52).

Ces résultats ne sont toutefois pas confirmés à l’échelle mondiale : il y a des signes de baisse de QI dans des pays occidentaux développés, mais on ne saurait généraliser à tous les pays ni exclure que ce soit un plateau qui a été atteint.

Le QI, une mesure incomplète des capacités cognitives

Élaboré au début du siècle, le QI est à l’origine une notion créée pour dépister les enfants en difficulté. On compare les résultats d’un enfant aux tests avec les résultats moyens de sa classe d’âge et, c’est pour cela qu’on parle de quotient, on met ensuite cette mesure en rapport avec son âge réel et on le multiplie par 100.

Peut-on mesurer les capacités cognitives avec un seul chiffre ? Des critiques se sont élevées concernant cette mesure. Ainsi, résumait Jacques Lautrey, du laboratoire Cognition et développement à l’université René-Descartes, le QI « entretient une conception de l’intelligence totalement dépassée sur le plan scientifique ». Décrivant une intelligence multidimensionnelle, le monde de la recherche s’accorde désormais pour dire que le QI est une mesure pertinente mais incomplète.

« Etant donné que la principale caractéristique actuelle de l’environnement est d’être en constante mutation, ne doit-on pas considérer (…) que nous devenons plutôt intelligents autrement comme si l’environnement faisait le tri des aspects de l’intelligence qui lui sont utiles ? », s’interrogent ainsi les chercheurs Serge LarivéeCarole Sénéchal et Pierre Audy. Par exemple, à la question « qu’ont en commun les chiens et les lapins », les citoyens du début du XXe siècle auraient fourni, une réponse concrète (« on utilise les chiens pour attraper les lapins »), alors que la réponse actuelle pour obtenir le maximum de points relève d’un raisonnement abstrait : « les deux sont des mammifères ». Autre difficulté : les données sur lesquelles on s’appuie portent sur les capacités cognitives des adultes d’aujourd’hui. Or, les inquiétudes se concentrent surtout sur les générations futures, générations pour lesquelles, par définition, nous ne connaissons pas encore les résultats. Impossible donc d’avoir une certitude absolue sur l’évolution des capacités cognitives. Mais il reste possible de s’interroger sur ce qui pourrait altérer le QI.

Quels facteurs explicatifs possibles ?

Parmi les chercheurs tentant d’expliquer une baisse de l’intelligence humaine, la controverse est vive et hautement sensible. Certains privilégient des explications biologiques : ils avancent l’existence d’un effet dit « dysgénique », qui voudrait que les familles les moins intelligentes procréent davantage et fassent baisser le niveau. Certains de ces chercheurs pointent les effets de l’immigration : selon un article faisant la synthèse de la littérature existante et un autre article analysant les données de treize pays, les ­migrants et leurs enfants, en moyenne moins éduqués, feraient diminuer la moyenne des performances. Mais cette piste est très polémique en raison de l’instrumentalisation qui peut être faite de tels résultats.

Affiche mexicaine de lutte contre la délinquance juvénile

L’étude norvégienne qui compare notamment les performances ­au sein de fratries va à l’encontre de ces explications. « Cette fois, toute différence [d’une génération par rapport à une autre] ­traduit un effet strictement environnemental, puisque les parents sont identiques », explique James Flynn, le chercheur à l’origine du concept étudié dans ces travaux.

Pendant la phase croissante du QI moyen des Norvégiens testés, l’indice « intrafamilial » a augmenté de 0,18 point par an (pour une hausse de 0,20 pour l’ensemble). A l’inverse, à partir de la génération 1975, le retournement de l’effet Flynn dans l’ensemble de la cohorte (baisse de 0,33 point) s’illustrerait par une baisse de 0,34 point par an à ­l’intérieur des familles. Les résultats des fratries évoluent de façon cohérente avec ceux de l’ensemble de la cohorte. On peut donc évacuer l’hypothèse d’une évolution liée à la personne (génétique) ou à la famille (éducation) et penser que les causes de ces évolutions sont plutôt environnementales.

Ainsi, certains métaux lourds (plomb, mercure, etc.) ou perturbateurs endocriniens (pesticides, retardateurs de flamme, etc.) pourraient altérer la construction cérébrale, assurent certains chercheurs. Plusieurs cohortes mère-enfant ont, par exemple, été suivies ces dernières années et précisent que les enfants les plus exposés in utero à des pesticides organophosphorés, des retardateurs de flamme (comme des PBDE ou des PCB), présentent des QI plus faibles que les moins exposés, toutes choses égales par ailleurs.

Mais parmi ces facteurs « environnementaux », au sens large, figurent aussi les évolutions de mode de vie, et en particulier l’exposition massive aux écrans – télévisions, ordinateurs, téléphones… Pour Michel Desmurget, c’est même la cause principale. Est-ce le temps passé devant les écrans qui diminue les capacités cognitives ? Est-ce que les enfants ayant des capacités cognitives plus limitées que les autres sont plus attirés par les écrans ? Existe-t-il d’autres facteurs non mesurés ?

Une étude récente a tenté de démêler corrélation et causalité grâce à un système d’analyse statistique incluant des effets aléatoires ; cinq chercheurs canadiens ont ainsi analysé des données provenant d’une cohorte de 2.441 enfants et montré un lien réel, mais ténu, entre exposition aux écrans et développement cognitif : ainsi, pour un enfant de 2 ans, davantage de temps passé devant les écrans provoquerait, lors du passage du test américain Ages and Stages Questionnaire (ASQ), une baisse du coefficient de variation de 0,08 point à 3 ans ; de même, une baisse de 0,06 point de ce coefficient standardisé serait observée entre 3 et 5 ans.

Comme le remarque le pédiatre Max Davie, interrogé par le Guardian sur cette étude, s’il existe un lien entre exposition aux écrans et capacités cognitives, ce lien reste moins fort que d’autres facteurs, comme le fait de lire à son enfant ou la qualité de son sommeil, facteurs mesurés pendant l’étude. En revanche, ne sont pris en compte ni l’activité de l’enfant ni son accompagnement éventuel devant les écrans.

« Ce qui est sûr, c’est que les écrans sont un facteur de risque de sédentarité ; pour le reste, on ne sait pas trop… En épidémiologie, il faut beaucoup de temps et d’efforts pour prouver la réalité d’un facteur de risque d’effet potentiellement faible. Or, nous ne sommes pas dans une situation où nous pouvons conclure… d’autant que les tests, normés, n’évoluent pas alors que les cohortes, elles, évoluent », estime le professeur Bruno Falissard, directeur du Centre de recherche en épidémiologie et santé des populations de l’Inserm.

Les écrans sont-ils en cause, ou leur usage actuel ?

Contacté par Les Décodeurs, Michel Desmurget tient à préciser que ce ne sont pas les écrans eux-mêmes qui sont en cause, mais leur usage.

Force est de constater que l’usage récréatif qui en est fait aujourd’hui par les jeunes est débilitant. La question n’est pas de les supprimer – professionnellement je les utilise moi-même largement – mais de limiter drastiquement ces consommations débilitantes.

Michel Desmurget

De son côté, M. Falissard craint que les écrans ne soient surtout un révélateur d’inégalités préexistantes entre les enfants de différents milieux socioculturels. « L’interaction est primordiale pour le développement de l’enfant, juge le pédopsychiatre et biostatisticien. La tablette ne doit pas être une solution pour que les parents puissent se détendre sans s’occuper de leur progéniture. L’ennui peut être fécond mais pas la sous-stimulation. »

« Les jeunes issus de milieux socio-économiques défavorisés bénéficient de moins de curiosité et de moins d’accompagnement de leurs parents, et leur utilisation des outils numériques s’en ressent », souligne aussi le rapport des trois Académies de médecine, des sciences et des technologies. D’où la nécessité, lorsqu’il s’agit d’édicter des recommandations par rapport à l’exposition aux écrans, de distinguer les activités (programmes conçus pour les enfants ou pas, éducatifs ou récréatifs, etc.), le temps passé et le contexte (enfants seuls ou accompagnés).

Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II, recommande aussi « de former les parents et les enseignants au numérique pour qu’ils soient vigilants sur les collectes de données, sur les mécanismes de captation de l’attention… L’idée est de transmettre une vraie culture du numérique aux enfants. » Une idée que soutient le Centre pour l’éducation aux médias et à l’information (Clemi), qui a édité un guide à cet effet : pas d’écrans avant 3 ans, limités et accompagnés à partir de cet âge. Une recommandation désormais inscrite sur le carnet de santé de l’enfant.” [d’après LEMONDE.FR]


“La consommation du numérique sous toutes ses formes – smartphones, tablettes, télévision, etc. – par les nouvelles générations est astronomique. Dès 2 ans, les enfants des pays occidentaux cumulent chaque jour presque 3 heures d’écran. Entre 8 et 12 ans, ils passent à près de 4 h 45. Entre 13 et 18 ans, ils frôlent les 6 h 45. En cumuls annuels, ces usages représentent autour de 1.000 heures pour un élève de maternelle (soit davantage que le volume horaire d’une année scolaire), 1.700 heures pour un écolier de cours moyen (2 années scolaires) et 2.400 heures pour un lycéen du secondaire (2,5 années scolaires).

EAN 9782021423310

Contrairement à certaines idées reçues, cette profusion d’écrans est loin d’améliorer les aptitudes de nos enfants. Bien au contraire, elle a de lourdes conséquences : sur la santé (obésité, développement cardio-vasculaire, espérance de vie réduite…), sur le comportement (agressivité, dépression, conduites à risques…) et sur les capacités intellectuelles (langage, concentration, mémorisation…). Autant d’atteintes qui affectent fortement la réussite scolaire des jeunes.

Ce que nous faisons subir à nos enfants est inexcusable. Jamais sans doute, dans l’histoire de l’humanité, une telle expérience de décérébration n’avait été conduite à aussi grande échelle

Michel Desmurget

Ce livre, première synthèse des études scientifiques internationales sur les effets réels des écrans, est celui d’un homme en colère. La conclusion est sans appel : attention écrans, poisons lents !” [SEUIL.COM]


Plus de dispositifs à maîtiser ?

CHATER: Théorie de l’esprit plat. L’intelligence n’est qu’une illusion

Temps de lecture : 5 minutes >
Couverture du Science & Vie n°1223 (août 2019)

Les sens sont nos propres juges et les premiers, et ils ne perçoivent les choses que par les événements externes [qui les affectent] ; alors il n’est pas étonnant si, dans tous les éléments qui servent à la bonne marche de notre société, il y a un si perpétuel et général mélange de cérémonies et de signes extérieurs superficiels, en sorte que la meilleure et la plus réelle part des règles sociales consiste en cela.

Montaigne (1580)

L’esprit n’est pas profond, il n’existe aucun moi intérieur.” Avec sa Théorie de l’esprit plat, Nick CHATER vient de jeter un énorme pavé dans la mare. Car ce professeur en sciences du comportement a découvert que notre esprit, loin d’être insondable, fonctionne de façon totalement… superficielle ! Ce que démontrent plusieurs expériences, qui prouvent l’incroyable platitude de notre intellect. Pire, elles remettent en cause ce que nous croyons être nos convictions, notre personnalité et même notre inconscient ! Nous l’ignorons, mais nous sommes tous bêtes ; et le savoir est un premier pas pour l’être moins.

On pensait que notre esprit était profond… alors qu’il est bêtement superficiel

Vu toutes les pensées qui vous viennent, vous êtes convaincu de la profondeur de votre esprit, au point qu’il vous paraît insondable? Désolé de vous le dire, mais votre esprit est vide, absolument superficiel, d’une platitude consternante. En un mot, vous êtes “bête”. Ne le prenez pas mal : ce jugement vaut pour tous les humains. Sans exception ! Telle est la conclusion de la théorie globale de l’esprit développée par le psychologue anglais Nick Chater : la “théorie de l’esprit plat”.

Présentée dans un livre paru fin 2018, cette théorie fait table rase de réflexions philosophiques millénaires, de travaux de psychiatrie séculaires et de dizaines d’années d’études scientifiques dédiées à notre psyché. Le tout en se fondant sur un constat tout simple: “L’esprit n’est pas profond, il n’existe pas de ‘moi intérieur’, ni de subconscient ou d’inconscient tels que nous les concevons; au contraire, l’esprit est plat, il élabore en temps réel chacune de nos pensées, mais il le fait avec une telle rapidité, une telle puissance que nous avons l’impression qu’elles ont toujours été là”, résume le professeur en sciences du comportement à l’université de Warwick.

Plat? L’esprit humain? Allons … En chacun de nous, à chaque décision, chaque sensation perçue, notre esprit semble puiser en ses tréfonds un caractère, des envies, des sentiments, des souvenirs pour les trier avant de les faire remonter à la surface, les mettre en balance et, in fine, produire notre pensée. Sans parler des parasitages de l’inconscient, du Moi, du Sur-Moi et du Ça chers à Freud.

Nick Chater balaie tout cela. Dans sa théorie, rien d’enfoui : l’esprit est exclusivement accaparé par les interprétations instantanées générées par ce sur quoi il porte son attention. Il improvise en permanence, sans s’appuyer sur des structures supposées être constitutives de notre identité. Mais il crée l’illusion de leur réalité par sa seule rapidité.

Personnalité, convictions, sentiments … Tout ce qui semble animer notre profondeur intellectuelle s’avère alors une illusion qui aurait émergé en même temps que l’esprit lui-même et grandi avec lui, comme un faux reflet. Une illusion si savamment orchestrée qu’elle nous aurait tous, et depuis toujours, floués, bêtes que nous sommes. “Pour moi, reprend le chercheur, le fait de ‘chercher en nous’, de ‘comprendre le moi profond’, est une bêtise. Notre pouvoir d’introspection est trop limité, nous ne voyons en nous-mêmes que les histoires que nous voulons bien nous raconter, c’est-à-dire des affabulations. Et nous ne leur donnons alors que trop d’importance en les entretenant.

APRÈS GALILÉE ET DARWIN

C’est à la suite d’un vaste travail de méta-analyse que Nick Chater en est venu à formuler la “platitude” de notre esprit. Et cette vision, pour le moins iconoclaste, a été bien accueillie par la communauté scientifique -son livre est lauréat 2019 du prix PROSE en psychologie clinique qui récompense les œuvres universitaires. “J’admire l’ambition de la théorie de Nick Chater. Nos recherches vont dans le même sens -même si elles sont moins catégoriques“, témoigne par exemple Petter Johansson, chercheur en psychologie expérimentale (université de Lund, Suède).

Depuis des décennies, de multiples observations psychologiques et neurologiques se sont en fait accumulées, détruisant petit bout par petit bout les idées que nous nous faisions sur notre esprit. Notre perception si riche? “Un mirage“, balaie Ronald Rensink, professeur en cognition visuelle (université de Colombie-Britannique, Canada). Notre pouvoir d’imagination illimité? “Une construction mensongère“, assure Stephen Kosslyn, professeur émérite en psychologie cognitive à Harvard. Nos connaissances, notre raison, notre libre arbitre? “Pour beaucoup des approximations, des interprétations et des histoires qu’on se raconte“, assène Albert Moukheiber, docteur en neurosciences cognitives (université Paris 13). La théorie de Nick Chater assemble pour la première fois toutes ces illusions mentales en un tout cohérent, qu’elles concernent l’introspection ou la perception.

La platitude de notre esprit expliquerait ainsi pourquoi nous sommes influençables, sensibles aux biais cognitifs, et même parfois insensés. D’où l’intérêt de s’en soucier. D’autant que le marketing et les sciences de l’information en jouent pour capter notre attention. Une humiliation anthropologique de plus -après que Galilée nous a éjectés du centre de l’Univers et Darwin fait tomber du sommet de l’évolution, nous voilà sans profondeur ?

Oui, mais dites-vous que si votre esprit n’est pas profond, il travaille à une vitesse si faramineuse qu’il réussit à en donner l’illusion. Qu’il est peut-être plat, mais qu’il est un improvisateur tout-puissant. Alors, embrassez votre vie intérieure à la platitude si exceptionnelle qu’elle a réussi à se tromper elle-même sur sa propre nature -des bravos sont de mise. Découvrez-la, votre bêtise, car elle est, aussi, votre véritable intelligence. On vous l’avait dit: il ne fallait pas le prendre mal […]

Lire la suite du dossier de Thomas CAILLE-FOL dans le SCIENCE-ET-VIE n°1223…


EAN 9782259265195

Nick Chater est professeur de sciences du comportement à la Warwick Business School. Il y a fondé le groupe d’étude des sciences du comportement, qui est le plus important du genre en Europe. Il est également conseiller auprès du Behavioral Insights Team, l’agence de mise en application des sciences du comportement rattachée au gouvernement britannique. Il est membre du Comité britannique sur le changement climatique et membre de la Cognitive Science Society et de la British Academy.

“Le subconscient et la « vie intérieure » ne seraient-ils qu’une illusion ? Dans cet essai novateur, le psychologue et comportementaliste Nick Chater propose une nouvelle approche révolutionnaire du fonctionnement de l’esprit humain. Nous aimons penser que nous avons une vie intérieure, que nos croyances et nos désirs proviennent des profondeurs obscures de notre esprit, et que si nous savions comment accéder à ce monde mystérieux, nous pourrions vraiment nous comprendre nous-mêmes. Pendant plus d’un siècle, les psychologues et les psychiatres se sont efforcés de découvrir les secrets de notre conscience. Nick Chater révèle que cette entreprise est vouée à l’échec. S’appuyant sur l’état de la recherche en neurosciences, en psychologie du comportement et de la perception, il démontre que notre esprit n’a pas de profondeurs cachées et que la pensée inconsciente est un mythe. Notre cerveau, tel un grand improvisateur, génère en fait nos idées, nos motivations et nos pensées dans le moment présent. À travers des exemples visuels et des expériences contre-intuitives, nous comprenons que notre esprit s’invente en permanence, improvisant constamment notre comportement à partir de nos expériences passées. Original et délicieusement provocateur, ce livre nous oblige à reconsidérer ce que nous pensions savoir sur le fonctionnement de notre esprit.” [source : LISEZ.COM]

A lire : CHATER Nick, Et si le cerveau était bête ? (Paris : Plon, 2018)


Plus de discours structurés sur nous et nos frères humains…