THONART : Suis-je une infox ? (conférence, 2022)

Temps de lecture : 21 minutes >

Chère lectrice, cher lecteur, je commencerai par te donner une bonne nouvelle : “Non, tu n’es pas une fake news (ou, désormais, en bon français : tu n’es pas une infox) !” Sur ce, comment puis-je l’affirmer ? Comment puis-je être certain que cette information sur un phénomène du monde qui m’est extérieur est bel et bien réelle ? Comment valider ma perception du phénomène “il y a un.e internaute qui lit mon article” auquel mes sens sont confrontés ? Comment puis-je m’avancer avec conviction sur ce sujet, sans craindre de voir l’un d’entre vous se lever et demander à vérifier d’où je tiens cette certitude, que nous avons devant nous un “lecteur curieux” en bonne et due forme ?

Ouverture en Si majeur

Eh bien, ce n’est pas très compliqué. Tout d’abord : peut-être nous connaissons-nous déjà dans la vie réelle (pas dans le métavers) et je t’ai serré la main ou fais la bise, j’ai physiquement identifié ta présence et, dans la mesure où je n’ai vécu, dans les secondes qui suivirent, aucune tempête hormonale me signalant qu’il fallait fuir immédiatement, mon corps a libéré les phéromones de la reconnaissance de l’autre, dont je ne doute pas que tes organes sensoriels aient à leur tour détecté la présence. Ton cerveau a pu régler immédiatement le taux d’adrénaline dans ton sang. Peut-être avons-nous même pu nous asseoir autour d’une table et déguster une bière spéciale car… nous avions soif. Peut-être même t’ai-je entendu commenter cet article, que tu avais lu en avant-première. Tu es un phénomène réel, cher lecteur, car mon cerveau te reconnaît comme tel.

Ensuite, tu n’es pas une infox non plus et j’en ai eu la preuve quand, à cause de toi, j’ai dû interroger mes monstres intérieurs, mes instances de délibération psychologique, mon Olympe personnel (celui où je me vis comme un personnage mythique, tout comme dans mes rêves), alors que tu t’attendais à ce que (parmi d’autres blogueurs) je publie sur cette question qui nous taraude tous depuis sa formulation par Montaigne : “Comment vivre à propos ?” Ma psyché a alors dû aligner

      1. une répugnance naturelle à m’aligner sur un groupe (ici, les blogueurs qui s’expriment sur un auteur, sans faire autorité),
      2. la douce vanité que tisonnait l’impatience que je sentais chez toi, lecteur, et
      3. ma sentimentalité face à la perspective de tes yeux ébahis devant mes commentaires éclairés.

Là, ce sont nos deux personnalités qui ont interagi : preuve est faite de ton existence, parce que c’est toi, parce que c’est moi. Tu es un être humain réel, cher lecteur, car ma psyché te reconnaît comme tel.

Enfin, tu es là, virtuellement face à moi, lectrice, comme le veut ce grand rituel qu’est notre relation éditoriale en ligne. Nous jouons ensemble un jeu de rôle qui nous réunit régulièrement et dans lequel ton rôle est défini clairement. Dans la relation éditeur-lecteur sans laquelle wallonica.org n’a pas de sens, ton rôle doit être assuré, par toi ou par ta voisine. C’est là notre contrat virtuel et je vis avec la certitude que, à chaque publication, un lecteur ou une lectrice lira mon article. Cette certitude est fondée sur notre relation, sur notre discours à son propos, qui prévoit des rôles définis, des scénarios interactifs qui se répètent, qui raconte des légendes dorées sur cette interaction, qui met en avant une batterie de dispositifs qui deviennent, article après article, nos outils de partage en ligne et sur les statistiques de visite de cette page web. Tu es donc là parce qu’il est prévu -par principe- que tu y sois. Tu es une idée réelle, chère lectrice, car ma raison te reconnaît comme telle.

Donc, qu’il s’agisse de mon corps, de ma psyché ou de mes idées, à chaque niveau de mon fonctionnement, de ma délibération, j’acquiers la conviction que tu es là, bien réel.le face à moi ou, du moins, quelque part dans le monde réel (que n’appliquons-nous les mêmes filtres lorsque nous traitons les actualités et les informations quotidiennes dont le sociologue Gérald Bronner affirmait que, au cours des deux dernières années, nous en avons créé autant que pendant la totalité de l’histoire de l’humanité jusque-là !).

Pour conclure ce point, je rappellerai que, traditionnellement, on exige d’une information cinq qualités essentielles : la fiabilité, la pertinence, l’actualité, l’originalité et l’accessibilité… C’est la première de ces cinq qualités que nous validons lorsque nous nous posons la question : info ou infox ?

Dans la même veine : cette question, je peux la poser à propos de… moi-même. Qui me dit que je ne suis pas une infox, pour les autres ou… pour moi-même ? Comment vérifier, avec tout le sens critique que j’aurais exercé pour lire une info complotiste sur FaceBook, comment vérifier que je suis un phénomène fiable pour moi et pour les autres ? Plus précisément, comment vérifier que l’image que j’ai de moi correspond à mon activité réelle (Diel), à ce que je fais réellement dans le monde où je vis avec vous, mes lectrices, mes lecteurs ? Pour mémoire, selon Montaigne, voilà bien les termes dans lesquels nous devons travailler car : “Notre bel et grand chef-d’œuvre, c’est vivre à propos.” C’est-à-dire : sans décalage entre nous et le monde.

Ma proposition est donc de présenter brièvement une clef de lecture de nous-mêmes, un test critique que chaque lecteur ou lectrice de ces lignes pourrait effectuer afin d’éclaircir un des éléments déterminants du fonctionnement de sa raison au quotidien : soi-même.

Tant qu’à prendre des selfies, autant qu’ils soient les plus fiables possibles et tant qu’à exercer notre sens critique, pourquoi pas commencer par nous-mêmes… ?

Aussi, commençons par le commencement : Copernic, Galilée et Newton n’ont pas été les derniers penseurs à transformer fondamentalement notre vision du monde. A son époque, pendant le siècle des Lumières, Kant a remis une question philosophique sur le tapis qui n’est pas anodine ici, à savoir : “Que puis-je connaître ?” (rappelez-vous : nous travaillons sur comment se connaître soi-même).

Kant (anon., ca 1790) © Bucknell University

Kant est un imbuvable, un pas-rigolo, un illisible (il l’a dit lui-même et s’en est excusé à la fin de sa vie) mais nous ne pouvons rester insensibles à sa définition des Lumières, je cite :

La philosophie des Lumières représente la sortie de l’être humain de son état […] de mineur aux facultés limitées. Cette minorité réside dans son incapacité à utiliser son entendement de façon libre et indépendante, sans prendre l’avis de qui que ce soit. Il est seul responsable de cette minorité dès lors que la cause de celle-ci ne réside pas dans un entendement déficient, mais dans un manque d’esprit de décision et du courage de se servir de cet entendement sans s’en référer à autrui. Sapere aude ! (“aie le courage de faire usage de ton propre entendement !”) doit être la devise de la philosophie des Lumières.

Le message est clair : si tu veux grandir, pense librement et par toi-même. C’est sympa ! Mais comment faire, quels sont mes outils et comment les maîtriser ?

Premiers outils : nos cerveaux…

Pourquoi parler du cerveau d’abord ? En fait, pour interagir avec le monde, nos outils de base sont multiples et nous pensons les connaître mais les neurologues sont aujourd’hui en train de bousculer pas mal de nos certitudes à propos de cet outil majeur qu’est notre cerveau. Le cerveau – et toute la vie de notre corps qu’il organise – est d’ailleurs longtemps resté notre soldat inconnu : seul aux premières lignes, il agit pour notre compte sans que nous nous en rendions compte. Je m’explique…

Kant – et les penseurs qui ensuite ont sorti la divinité du champ de leur travail – estiment que nous ne pouvons concevoir de la réalité que des phénomènes, c’est-à-dire les informations que nous ramènent nos sens (des goûts, des images, des textures, des odeurs, des sons…) et ce, à propos de faits que nous avons pu percevoir. A ces phénomènes, se limite la totalité du périmètre que nous pouvons explorer avec notre raison, explique Kant à son époque. Tout le reste est littérature…

© CNRS

Et le langage utilisé par notre cerveau (ou nos cerveaux si l’on tient compte des autres parties du corps qui sont quelquefois plus riches en neurones), ce langage est trop technique pour notre entendement : impulsions électriques, signaux hormonaux, transformations protéiques et j’en passe. De là peut-être, cette difficulté que nous avons à être bien conscients de l’action de notre cerveau, des modifications en nous qui relèvent seulement de son autorité ou de son activité…

Un exemple ? Qui ne s’est jamais injustement mis en colère après un coup de frein trop brutal ? Était-ce le Code de la route qui justifiait cette colère ? Non. La personne qui l’a subie méritait-elle les noms d’oiseaux qui ont été proférés ? Non. Simplement, un excellent réflexe physiologique s’est traduit dans un coup de frein qui a été déclenché par la peur d’une collision, provoquée par la vue d’un piéton dans la trajectoire du véhicule et l’adrénaline libérée devait trouver un exutoire dans un cri de colère proportionné, faute de quoi elle serait restée dans le sang et aurait généré du stress…

Un autre exemple ? Lequel d’entre nous n’a jamais grondé, giflé voire fessé son enfant juste après lui avoir sauvé la vie, en lui évitant d’être écrasé : on le rattrape par le bras, on le tire sur le trottoir, la voiture passe en trombe et on engueule le petit avec rage pour lui signifier combien on l’aime. On préfère dire que c’est un réflexe, non ?

Nombreuses sont les situations concrètes où nous fonctionnons ainsi, sur la seule base du physiologique, et c’est tant mieux, car nos cerveaux n’ont qu’un objectif : veiller à notre adaptation permanente au milieu dans lequel nous vivons, ceci afin de maintenir la vie dans cet organisme magnifique qui est notre corps.

Partant, il serait recommandé d’identifier au mieux la contribution de nos cerveaux et de notre corps, avant de se perdre dans la justification morale ou intellectuelle de certains de nos actes.

Couche n°2 : la conscience…

Ici, tout se corse. Pendant des millénaires, notre conscience, notre âme, notre soi, notre ego, ont été les stars de la pensée, qu’elle soit religieuse, scientifique ou philosophique. De Jehovah à Freud, le succès a été intégral et permanent au fil des siècles. A l’Homme (ou à la Femme, plus récemment), on assimilait la conscience qu’il ou elle avait de son expérience.

La question du choix entre le Bien et le Mal y était débattue et l’ego était un grand parlement intérieur, en tension entre, en bas, la matière répugnante du corps et, en haut, la pureté des idées nées de l’imagination ou générées par l’intellect.

Or, voilà-t-y pas que nos amis neurologues shootent dans la fourmilière et nous font une proposition vertigineuse, aujourd’hui documentée et commentée dans les revues scientifiques les plus sérieuses : la conscience ne serait qu’un artefact du cerveau, une sorte d’hologramme généré par nos neurones, rien que pour nous-mêmes !

Plus précisément : trois régions du cerveau ont été identifiées, dont la mission commune est de nous donner l’illusion de notre libre-arbitre, l’illusion d’être une personne donnée qui vit des expériences données. Ici, plus question d’une belle conscience autonome, garante de notre dignité et flottant dans les airs ou ancrée dans notre cœur.

Et c’est évidemment encore un coup du cerveau, qui fait son boulot : “si je suis convaincu que j’existe individuellement, je vais tout faire pour ma propre survie.”

Pour illustrer ceci simplement, prenons l’exemple d’un pianiste qui lit une note sur une partition, enfonce une touche du piano et entend la corde vibrer. Il a l’impression de faire une expérience musicale unique alors que ce sont précisément les trois zones du cerveau dont je parlais qui ont œuvré à créer cette impression. Elles ont rassemblé en un seul événement conscient, le stimulus visuel de la note lue, l’action du doigt sur l’ivoire et la perception de la note jouée. L’illusion est parfaite alors que ce sont des sens distincts du cerveau qui ont été activés, à des moments différents et sans corrélation entre eux a priori. C’est vertigineux, je vous le disais : ma conscience, n’est en fait pas consciente.

Je pense qu’on n’a pas encore conscience non plus, des implications d’une telle découverte et je serais curieux de pouvoir en parler un jour avec Steven Laureys.

Reste que, factice ou pas, la conscience que j’ai de moi-même accueille la deuxième couche du modèle que je vous propose : la psyché. Qu’ils soient illusoires ou non, ma psyché, ma personnalité psychologique, ma mémoire traumatique, ma vanité, mes complexes, mon besoin de reconnaissance, mes accusations envers le monde, mes habitudes de positionnement dans les groupes, ma volonté d’être sublime… bref, mes passions, mes affects conditionnent mon interaction avec le monde.

J’en veux pour preuve toutes les fois où je suis rentré dans un local où je devais animer une réunion, donner une conférence ou dispenser une formation : à l’instant-même où je rentrais dans la pièce, il était évident que j’aurais une confrontation avec celui-là, celui-là et celui-là. Je n’ai pas toujours eu du bide mais j’ai commencé grand… en taille, très tôt. Le seul fait de ma stature physique provoquait systématiquement une volonté de mise en concurrence chez les participants les plus arrogants de virilité. Il me revenait alors d’établir ma position d’animateur sans qu’elle ne vienne contrarier le statut des mâles alpha présents ou… de m’affirmer moi-même en mâle alpha quand les mâles en question étaient beaucoup moins baraqués que moi…

Ici, pas de grands idéaux pédagogiques, pas de réflexes physiologiques mais simplement un positionnement affectif, un moment où chacun se vit comme un héros mythique et sublime, dans une confrontation authentiquement héroïque.

J’ai le sentiment que le débat intérieur, à ce moment-là, utilise le même langage que les rêves où, également, chacun se vit comme un personnage mythologique, hors de tout détail accidentel ou quotidien. Regardez la colère d’un informaticien quand un ordinateur ne fait pas ce qu’il veut : elle est homérique et n’est possible que si, l’espace d’un instant, l’informaticien en question a eu l’illusion d’être un dieu tout-puissant, créateur de ce dispositif qui a l’arrogance satanique de lui résister. Encore un coup de la psyché vexée !

Combien de fois -il faut le reconnaître- n’avons-nous pas discuté, disputé, débattu ou polémiqué sur des sujets qui n’en étaient pas mieux éclairés, car force nous était d’abord d’avoir raison devant témoins de la résistance de l’autre, simplement parce qu’il ressemblait trop à notre contrôleur des impôts ou à une collègue carriériste ! C’est un exemple. Passion, quand tu nous tiens… nous, nous ne savons pas nous tenir. On pourra énumérer longuement ces situations où la psyché tient les rênes de nos motivations, alors que nous prétendons agir en vertu de principes sublimes ou d’idées supérieures. Dans ces cas regrettables, les sensations captées par notre cerveau n’ont même pas encore fait leur chemin jusqu’à notre raison que déjà nous réagissons… affectivement.

Il ne s’agit pas ici, par contre, de condamner notre psyché, qui se débat en toute bonne foi dans un seul objectif : obtenir et maintenir la satisfaction que nous pouvons ressentir lorsque nos désirs sont réalisables et notre réalité désirable. Bref, quand l’image que nous avons de nous-même correspond à notre activité réelle. C’est une joie profonde qui en résulte.

Juste à côté, mais en version brouillée : les idées…

A ce stade, résumons-nous : un cerveau hyperconnecté qui nous permet de percevoir et d’agir sur le monde, une psyché mythologisante qui nous positionne affectivement face à ses phénomènes. Il nous manque encore le troisième étage du modèle : les idées, les discours, autrement dit les formes symboliques.

C’est le philosophe Ernst Cassirer qui a concentré ses recherches sur notre formidable faculté de créer des formes symboliques : le Bien, le Mal, Dieu, le Beau, le Vrai, le Juste, le Grand Architecte, le Carré de l’hypoténuse, Du-beau-du-bon-Dubonnet, la Théorie des cordes, “Demain j’enlève le bas”, “Le Chinois est petit et fourbe”, “This parrot is dead”, la Force tranquille, Superman, le Grand remplacement, “Je ne sais pas chanter”, “Mais c’est la Tradition qui veut que…”, “On a toujours fait comme ça”, “les Luxembourgeois sont tellement riches…” Autant de formes symboliques, de discours qui ne relèvent ni de notre physiologie, ni de notre psychologie ; autant de convictions, de systèmes de pensée, de vérités qui, certes, prêtent au débat mais ne peuvent constituer une explication exclusive et finale du monde qui nous entoure (s’il y en avait une, ça se saurait !).

Cassirer ne s’est pas arrêté à un émerveillement bien naturel face à cette faculté généreusement distribuée à l’ensemble des êtres humains : créer des formes symboliques. Il a également averti ses lecteurs d’un danger inhérent à cette faculté : la forme symbolique, l’idée, le discours, a la fâcheuse tendance à devenir totalitaire. En d’autres termes, chacun d’entre nous, lorsqu’il découvre une vérité qui lui convient (ce que l’on appelle une vérité, donc) s’efforce de l’étendre à la totalité de sa compréhension du monde, voire à l’imposer à son entourage (que celui qui n’a jamais observé ce phénomène chez un adolescent vienne me trouver, j’ai des choses à lui raconter…).

© F. Ciccollela

Qui plus est, les fictions et les dogmes qui nous servent d’œillères ne sont pas toujours le fait de la société ou de notre entourage : nous sommes assez grands pour générer nous-mêmes des auto-fictions, des discours qui justifient nos imperfections ou qui perpétuent des scénarios de défense, au-delà du nécessaire.

Il reste donc également important d’identifier les dogmes et les discours qui entravent notre liberté de penser, afin de rendre à chacune de nos idées sa juste place : rien d’autre qu’une opportunité de pensée, sans plus. A défaut, nous risquons de la travestir en vérité absolue, à laquelle il faudrait se conformer !

Mais quel langage utilise-t-on pour échanger sur ces formes symboliques, qu’il s’agisse de réfléchir seul ou de débattre avec des tiers, qu’il s’agisse de fictions personnelles ou de discours littéraires, poétiques, scientifiques, mathématiques, religieux ou philosophiques ?

Il semblerait bien qu’il s’agisse là de la langue commune, telle qu’elle est régie par la grammaire et l’orthographe, codifiée par nos académies. On ne s’étendra pas ici sur les différents procédés de langage, sur la différence entre signifiant et signifié, sur l’usage poétique des mots, sur la différence entre vocabulaire et terminologie. Ce qui m’importe, c’est simplement d’insister sur deux choses, à propos des formes symboliques :

    • d’abord, le discoursvoulu raisonnable- que l’on tient à propos du monde ou d’un quelconque de ses phénomènes, n’est pas le phénomène lui-même. C’est Lao-Tseu qui disait : “Le Tao que l’on peut dire, n’est pas le Tao pour toujours.» Pour faire bref : c’est impunément que l’on peut discourir sur n’importe quel aspect de notre réalité car notre discours n’est pas la chose elle-même (sinon, il serait impossible de parler d’un éléphant lorsqu’on est assis dans une 2CV, par simple manque de place).
    • Ensuite : impunément peut-être pas, car notre formidable faculté de créer des formes symboliques pour représenter le monde (qu’il soit intérieur ou extérieur) sert un objectif particulier bien honorable : celui de nous permettre de construire une image du monde harmonieuse, à défaut de laquelle il sera difficile de se lever demain matin.
Mystère et boules de gomme

Nous voici donc avec un modèle de lecture de nous-mêmes à trois étages : le physiologique, le psychologique et les formes symboliques (ou les discours). Jusque-là, nous avons travaillé à les décrire, à reconnaître leur langage et à identifier leur objectif, c’est-à-dire, leur raison d’être :

    1. l’adaptation à l’environnement, pour le cerveau ;
    2. la satisfaction née de l’équilibre entre désirs intérieurs et possibilités extérieures, pour la psyché, et
    3. l’harmonie dans la vision du monde pour les discours, pour la raison.

Tout cela est bel et bon, mais où est le problème, me direz-vous ? Mystère ! Ou plutôt, justement, le mystère et la tradition qu’il véhicule. Je vous l’ai proposé : à moins d’être croyant, gnostique ou un dangereux gourou, la tradition est à prendre comme un discours, une opportunité de pensée : ce qui n’en fait pas une vérité ! Notre tradition occidentale agence nos trois étages de manière rigoureuse : le corps, notre prison d’organes, est au rez-de-chaussée de la maison ; notre conscience, nécessairement plus élevée que nos seuls boyaux, fait “bel étage” et les idées, sublimes, dominent un étage plus haut, elles rayonnent au départ d’un magnifique penthouse sur la terre entière !

      • raison, splendeur, esprit, idéaux, lumière infinie et vie éternelle en haut ;
      • corps, limitations, affects, déchéance et mort, en bas.

C’est du Platon, du Jehovah, du Jean-Sébastien Bach ou du Louis XIV ! Et c’est cette même tradition idéaliste qui positionne le mystère dans des zones transcendantes, dans un au-delà que notre raison ne peut cerner et dont nous ne possédons pas le langage, sauf “initiation”, bref : le mystère est ineffable tant il est supérieur, bien au-delà de notre entendement.

Face à cette “mystique du télésiège”, qui, depuis des lustres, entrelarde notre culture judéo-chrétienne de besoins d’élévation sublime, il existe une alternative, qui est la vision immanente du monde.

L’immanence, c’est la négation de tout au-delà : tout est déjà là, devant nous, au rez-de-chaussée, qui fait sens, qui est magnifiquement organisé et vivant, qui est prêt à recevoir notre expérience mais seulement dans la limite de nos capacités sensorielles et de notre entendement.

Et c’est bel et bien cette limite qui fournit la signification que nous pourrions donner au mot mystère : “au-delà de cette limite, nos mots ne sont plus valables.” Souvenez-vous de Lao-Tseu quand il évoque l’ordre universel des choses et le silence qu’il impose. Contrairement aux définitions des dictionnaires qui nous expliquent que le “Mystère est une chose obscure, secrète, réservée à des initiés”, le mystère serait cet ordre des choses que nous pouvons appréhender mais pas commenter.

Pas de mots pour décrire le mystère : non pas parce qu’il est par essence un territoire supérieur interdit, réservé aux seuls dieux ou aux initiés, pas du tout, mais parce que, tout simplement, notre entendement a ses limites, tout comme le langage rationnel qu’il utilise.

Nous pouvons donc expérimenter le mystère mais, c’est notre condition d’être humain que d’être incapables de le décrire avec nos mots. J’en veux pour exemple la sagesse de la langue quand, face à un trop-plein de beauté (un paysage alpin, la mer qu’on voit danser, la peau délicate d’un cou ou une toile de Rothko), nous disons : “cela m’a laissé sans mots“, “je ne trouve pas les mots pour le dire“, “je suis resté bouche-bée…”

© ElectroFervor
Sapere Aude versus Amor Fati

Au temps pour le mystère. Le questionner aura permis de dégager deux grosses tendances dans notre culture (et, donc, dans notre manière de penser) : d’une part, l’appel vers l’idéal du genre “mystérieux mystère de la magie de la Sainte Trinité” et, d’autre part, la jouissance pragmatique du “merveilleux mystère de la nature, que c’est tellement beau qu’on ne sait pas comment le dire avec des mots.” Dans les deux cas, le mystère a du sens, on le pressent, mais, dans les deux cas, le mystère est ineffable, que ce soit par interdit (première tendance) ou par simple incapacité de notre raison (seconde tendance).

Dans les deux cas, chacun d’entre nous peut se poser la “question du mystère” : quand, seul avec moi-même, je veux accéder à la connaissance, percer le mystère et goûter au sens de la vie, est-ce que je regarde au-delà des idées ou au cœur de mes sensations ?

Merveille de notre qualité d’humains, nous pratiquons les deux mouvements : de l’expérience au monde des idées, du monde des idées à l’expérience ; en d’autres termes, de l’action à la fiction, et de la fiction à l’action.

Pour mieux vous expliquer, j’appelle à la barre deux penseurs qui y ont pensé avant moi : Emmanuel Kant et Friedrich Nietzsche.

Avec son Sapere Aude (“Ose utiliser ton entendement”), Kant représente le mouvement qui va de l’action à la fiction. Ce n’est pas pour rien qu’il vivait au Siècle des Lumières, siècle qui a substitué aux pouvoirs combinés du Roi et de l’Eglise, l’hégémonie de la Raison. Pour reprendre la métaphore, dans la maison de Kant, l’ascenseur s’arrête bel et bien à nos trois étages (cerveau, psyché et formes symboliques) mais le liftier invite ceux qui cherchent la connaissance à monter vers la Raison, dont j’affirme qu’elle est également une forme symbolique, un discours, pas une réalité essentielle. Pour Kant, le mouvement va de l’expérience à la Raison.

Dans la maison de Nietzsche par contre, le liftier propose le trajet inverse, fort de la parole de son maître qui invite à l’Amor Fati (“Aime ce qui t’arrive“). Pour le philosophe, il importe de se libérer des discours communs, des idées totalitaires et ankylosantes, ces crédos que ruminent nos frères bovidés, et de devenir ce que nous sommes intimement, dans toute la puissance et la profondeur de ce que nous pouvons être (ceci incluant nos monstres !).

© Asep Syaeful/Pexels

Il nous veut un peu comme un samouraï qui, par belle ou par laide, s’entraînerait tous les jours pour être prêt à affronter sans peur… quoi qu’il lui arrive pratiquement. Cela implique pour lui le sérieux, l’hygiène de vie et l’attention au monde : trois disciplines qui ne sont pas des valeurs en soi, mais des bonnes pratiques.

Le mouvement préconisé va donc des idées, des fictions, vers l’action, vers l’expérience, vers le faire, comme le chante l’éternel Montaigne, grand apôtre de l’expérience juste. Je le cite :

Quand je danse, je danse ; et quand je dors, je dors. Et quand je me promène seul dans un beau jardin, si mes pensées se sont occupées d’autre chose pendant quelque temps, je les ramène à la promenade, au jardin, à la douceur de cette solitude, et à moi. La Nature nous a prouvé son affection maternelle en s’arrangeant pour que les actions auxquelles nos besoins nous contraignent nous soient aussi une source de plaisir. Et elle nous y convie, non seulement par la raison, mais aussi par le désir. C’est donc une mauvaise chose que d’enfreindre ses règles.

Un modèle pour humains modèles

Le mot est lâché : la règle ! A tout propos philosophique, une conclusion éthique ? Quelle règle de vie est proposée ici ? Nous visons la connaissance (cliquez curieux !), nous cherchons la lumière dans le Mystère ; nous avons un cerveau, une psyché, des idées ; nous pouvons aller de l’un à l’autre et de l’autre à l’un. Soit. Mais encore ?

Souvenez-vous : nous nous étions donné comme objectif de bien nous outiller pour vérifier si nous étions une infox à nous-mêmes, ou non. Dans les films, cela s’appelle une introspection si un des deux acteurs est allongé sur un divan et une méditation quand l’acteur principal se balade en robe safran, avec les yeux un peu bridés sous un crâne poli.

Pour Nietzsche, ce n’est pas être moral que de viser systématiquement la conformité avec des dogmes qui présideraient à notre vie, qui précéderaient notre expérience et qui se justifieraient par des valeurs essentielles, stockées quelque part dans le Cloud de nos traditions ou de nos légendes personnelles.

Vous me direz : “Être conforme, c’est immoral, peut-être, môssieur le censeur ?

      • Je réponds oui, si la norme que l’on suit se veut exclusive, définitive et n’accepte pas de révision (souvenez-vous : les formes symboliques deviennent facilement totalitaires. Méfiance, donc) ; la respecter serait trahir ma conviction que la vie est complexe et que la morale ne se dicte pas ;
      • oui encore, si la norme suivie me brime intimement, qu’elle fait fi de ma personne et de mes aspirations sincères, qu’elle m’est imposée par la force, la manipulation ou la domination ; la respecter serait ne pas me respecter (souvenez-vous : ma psyché a des aspirations, qui peuvent être légitimes) ;
      • oui enfin, si la norme suivie limite l’expression de ma vitalité, de ma puissance physique (souvenez-vous : mon cerveau travaille au service de ma survie).

En un mot comme en cent : la Grande Santé n’est décidément pas conforme et viser la conformité à un idéal est définitivement une négation de sa propre puissance !

Aussi, faute de disposer d’un catéchisme (tant mieux), je vous propose donc une règle du jeu, des bonnes pratiques, plus précisément une clef de détermination qui n’a qu’un seul but : ne pas mélanger les genres.

Par exemple : ne pas déduire d’un mauvais état de santé des opinions trop sombres, que l’on n’a pas sincèrement. Ne pas expliquer à ses enfants que le monde est moche, alors qu’on est simplement dans un mauvais jour. Ne pas expliquer à ses enfants que le monde est super, alors qu’on est simplement dans un bon jour. Ne pas accepter d’être brimé par quelqu’un parce que c’est toujours comme ça. Ne pas demander quelqu’un en mariage avec sept Triple Karmeliet derrière le col. Accepter d’écouter l’autre même s’il fait trop chaud dans la pièce. Ne pas tirer de conclusion sur la nature essentielle de la femme après une altercation houleuse avec une contractuelle qui posait un pv sur le pare-brise…

Ces exemples sont accidentels, quotidiens, et n’ont qu’une vertu : chacun peut a priori s’y reconnaître. Reste que la même clef de lecture peut probablement s’avérer utile pour des questions plus fondamentales, qui n’ont pas leur place ici, parce qu’elles nous appartiennent à chacun, individuellement.

© audiolib.fr

Allons-y avec un peu plus de légèreté, même si la clef proposée peut être le point de départ d’un travail plus approfondi. On va faire comme avant de tirer les lames du tarot : chacun doit choisir un problème qui le tracasse. Vous êtes prêts ? On y va ?

    1. Est-ce que la question que je me pose est essentielle et influence effectivement le sens de ma vie ?
      1. Oui ? Je cherche une solution au problème sans état d’âme ou je laisse passer la pensée inconfortable et je l’oublie (personne n’a jamais dit qu’il fallait croire tout ce que l’on pense) ;
      2. Sinon, je passe à la question 2.
    2. Est-ce que le déplaisir que je ressens peut-être lié à mon corps (digestion difficile, flatulences, chaleur, vêtements mouillés, posture inconfortable maintenue trop longtemps…)
      1. Oui ? Je prends d’abord un verre de bicarbonate de soude ou un godet de Liqueur du Suédois. Je reviens ensuite à la question 1.
      2. Sinon, je passe à la question 3.
    3. Est-ce que la manière dont je vis le problème est influencées par mes légendes personnelles, ma mémoire traumatique ou peut-elle être influencée par un positionnement psychologique que je crois nécessaire face à ses protagonistes ?
      1. Oui ? Je fais la part des choses et je me reformule le problème. Re-oui ? J’en parle à mon psy en donnant la situation comme exemple.
      2. Sinon, je passe à la question 4.
    4. Est-ce qu’en cherchant une solution au problème je fais appel à des évidences, des certitudes, des principes, des arguments d’autorité, des traditions, des routines de pensée ou des autofictions qui déforment mon analyse ?
      1. Oui ? Je pars au Népal, j’attends quelques années et, une fois apaisé, je me repose la même question avec l’esprit plus clair.
      2. Sinon, je passe à la question 5.
    5. Est-ce que, si je localise lucidement l’étage auquel se situe le nœud de mon problème, cette analyse me procurera une vision du monde plus apaisée ?
      1. Non ? Je recommence le cycle à la question 2.
      2. Oui ? Je passe à la question 6.
    6. Est-ce qu’une solution apportée au problème limiterait mes frustrations et me rendrait suffisamment confiance en mes capacités et en la bienveillance de mes frères humains ?
      1. Oui ? J’analyse, seul ou avec mon psy, l’exagération qui génère ma frustration et je travaille dessus avant de conclure quoi que ce soit à propos de moi ou des autres humains.
      2. Sinon, bonne nouvelle mais pas suffisant pour sauter la question 7.
    7. Est-ce que mon hygiène physique est suffisante pour que mon état de santé ne colonise pas la clarté de ma pensée ?
      1. Oui ? Je renonce au restaurant de ce soir et je rentre manger une biscotte à la maison avant de prendre toute autre décision.
      2. Sinon, je m’en réjouis avec vous : rendez-vous à table !

J’insiste ici : ces questionnements ne sont évidemment valables qu’en cas d’expérience désagréable ou inconfortable, de manies suspectes, de regrets ou de remords, voire plus généralement de situations insatisfaisantes. Si votre situation est satisfaisante et que vous ne ressentez aucune souffrance : eh bien, arrêtez de vous torturer et vivez la Grande Santé !

Peut-on alors entendre raison ? Voire raison garder ?

Nous voici arrivés au terme de la promenade. Je voudrais, avant de conclure, me dédouaner d’une chose : il ne s’agissait pas ici de faire le procès de la raison mais bien de l’illusion de raison, voire des prétentions à la raison. Combien de fois n’entend-on pas habiller de raison un simple argument d’autorité, brandir avec véhémence des principes, des appels à la tradition ou les éternels “on a toujours fait comme ça”, alors que l’écoute et le débat pouvaient apporter des tierces solutions qui rendaient les lendemains partagés possibles et généreux !

Et que le ton badin du ‘fake questionnaire’ ne vous trompe pas : je pense sincèrement que nous sommes souvent en défaut d’identifier lucidement les vrais moteurs de nos motivations. Je pense également qu’identifier les instances qui président à nos prises de décision et bien ressentir leur poids dans ce qui fait pencher la balance, est un exercice plus exigeant qu’il n’y paraît. Je pense enfin que nous vivons dans un monde de représentations toxiques où nous devenons individuellement le dernier bastion de la raison et du sens : raison de plus pour explorer notre vie avec tous les outils disponibles et assainir (autant que faire se peut) ce que nous savons de nous-mêmes.

Patrick Thonart


[INFOS QUALITE] statut : validé | mode d’édition : rédaction et documentation | auteur : Patrick Thonart | crédits illustrations : © Collection privée ; © Bucknell University ; © CNRS ; © F. Ciccollela ; © ElectroFervor ; © Asep Syaeful/Pexels ; © audiolib.fr | remerciements : Renaud Erpicum.


Libérons la parole !

LAUREYS : l’expérience de mort imminente est une réalité physiologique

Temps de lecture : 4 minutes >

“L’étude menée par des scientifiques des universités de Liège et de Copenhague, vient d’être publiée dans la revue Brain Communications [The evolutionary origin of near-death experiences: a systematic investigation, by Costanza Peinkhofer, Charlotte Martial, Helena Cassol, Steven Laureys, Daniel Kondziella]. Elle propose l’hypothèse que ces expériences de mort imminente chez l’humain seraient un mécanisme de défense, de survie, en cas de danger de mort. Ce mécanisme ressemblerait aux comportements de simulation de mort, de thanatose (expérience de mort imminente chez les animaux, ndlr), observés chez de nombreuses espèces animales quand elles sont confrontées à des prédateurs et en danger.

Mais qu’est-ce qu’une expérience de mort imminente ? “Pour moi, c’est une réalité physiologique. Elle se passe classiquement quand on est en danger de mort“, explique Steven Laureys, neurologue et responsable du Coma science group et Centre du cerveau de l’université de Liège. “Elle s’accompagne d’un sentiment de bien-être. On ne ressent plus son corps comme s’il y avait une ‘décorporation‘. Le phénomène est fascinant, il mériterait davantage de recherches scientifiques.

Ces expériences se manifestent de façon différente chez les personnes qui en font l’expérience. Mais le mythe de la lumière blanche ne serait pas nécessairement un mythe. Nombreux sont ceux qui en font état.

Malgré tout ce phénomène reste un mystère. Pour certains, ce phénomène pourrait être dû à un manque d’oxygène dans telle ou telle partie du cerveau. D’autres comme Steven Laureys ne sont pas d’accord avec toutes ces hypothèses. D’autant que c’est encore un phénomène qui nous échappe.

Un phénomène qui reste à ce point fascinant que les scientifiques ne sont pas les seuls à s’y intéresser. D’ailleurs, d’autres personnes y voient des explications religieuses, y voient une preuve d’une vie après la mort ou de l’âme qui quitterait notre corps. Il manque clairement une théorie pour l’expliquer ajoute Steven Laureys et pour comprendre à quoi il sert.

Pourquoi ce fascinant phénomène serait-il limité à l’homme ?
L’âge de glace © Blue Sky

Quand un animal fait face à un danger, par exemple un prédateur, en dernier recours, il peut se battre, fuir ou avoir une troisième réaction fascinante. Il va tomber et simuler sa mort. Ce qui se passe dans son cerveau est difficile à savoir. L’animal ne parle pas mais les scientifiques belges et danois pensent que les animaux ont une conscience comme nous. Ils ont donc épluché la littérature “animale” et ont exhumé 32 articles sur ce phénomène de simulation de la mort.

A chaque fois, il y avait cette sensation de bien-être, de ne plus sentir leur corps comme s’ils en étaient dissociés

Parallèlement, les chercheurs ont lancé un appel à témoins. 600 personnes des quatre coins de la planète qui avaient vécu cette expérience, leur ont raconté leur histoire. “Récits de confrontations avec des lions, des requins“, nous détaille le scientifique liégeois, “sept témoignages concernaient des agressions physiques ou sexuelles, mais il y avait aussi beaucoup d’accidents de voiture. A chaque fois, il y avait cette sensation de bien-être, de ne plus sentir leur corps comme s’ils en étaient dissociés.

L’expérience de mort imminente remonte peut-être à la nuit des temps

Ce sont ces témoignages et les publications sur les animaux qui les ont conduits à formuler leur hypothèse. Peut-être que la mort imminente fait partie de notre évolution depuis des millions d’années. Elle est observée de la même manière chez les humains et chez les autres mammifères. Et pas seulement, chez les poissons, les reptiles et même les insectes, on retrouve aussi cette réaction paradoxale de rester immobile, de ne plus réagir aux sollicitations tout en gardant tout de même une conscience.

D’un point de vue biologique, neurologique, tous les animaux ont eux aussi des pensées, des perceptions, des émotions, même si, je le concède, le sujet reste tabou. Il est complexe, il faut poursuivre les investigations.

Notre neurologue est clair : “Pour moi, cela pourrait être un mécanisme de défense qui permet de nous protéger dans une situation d’extrême danger et qui serait encore là aujourd’hui. Pas seulement en cas de traumatisme ou d’accidents de voitures mais aussi après un arrêt cardiaque avec manque d’oxygène global dans le cerveau.

Cherche de nouveaux témoins qui ont vécu cette expérience de mort imminente
BOSCH Hieronymus, Ascension des bienheureux au paradis (détail, 1500-1504) © Palais des Doges de Venise

La recherche est loin d’être finie. Aujourd’hui, l’équipe du Coma Science Group du CHU de Liège, est à la recherche de nouveaux témoins. Alors si, vous aussi, vous avez vécu cette expérience de mort imminente, vous pouvez la partager en envoyant un mail avec votre histoire. NDE@Uliege.be (Near Death Experience).

Nous voulons écouter ceux qui l’ont vécu. Il faut l’avoir vécu, moi je ne sais pas de quoi je parle, je n’ai jamais vécu pareille expérience. Pas trop d’arrogance scientifique, juste de la curiosité et la méthodologie d’essayer de confronter ce que l’on pense comprendre avec ce que l’on pense mesurer“, conclut, avec humilité, Steven Laureys.” [RTBF.BE]


Plus de presse…

DESMURGET : La fabrique du crétin digital (Seuil, 2019)

Temps de lecture : 9 minutes >
Enfants et écrans, attention à “l’orgie numérique”

Face à la situation inédite du confinement lié à la lutte contre le COVID-19, Michel DESMURGET, directeur de recherche à l’Inserm (Institut National français de la Santé Et de la Recherche Médicale) et auteur de La fabrique du crétin digital (Paris : Seuil, 2019) estime qu’il est nécessaire de distinguer les écrans récréatifs de ceux utilisés pour la pédagogie [d’après ESTREPUBLICAIN.FR] :

A partir du moment où les enfants ne peuvent pas aller à l’école, l’apprentissage numérique est une béquille qui est mieux que rien. En ce qui concerne les écrans récréatifs (jeux vidéos, télévision, réseaux sociaux…), on a une explosion du temps passé sur ces écrans là au détriment d’autres activités beaucoup plus nourrissantes pour le cerveau. Les enfants sont aussi soumis à un bombardement sensoriel pour lequel le cerveau n’est pas fait et qui affecte la concentration. Cette période d’orgie d’écrans récréatifs, et d’écrans en général, risque de poser des problèmes pour la sortie” du confinement.


“S.M. Votre livre est un cri de colère. Contre quoi ?

Michel Desmurget : Ma colère vient du décalage entre ce qu’on dit aux parents et la réalité. Il y a une telle distorsion entre ce que l’on sait et ce qui est traduit dans les médias. Il se passe actuellement ce qui s’est passé avec le tabac, l’amiante, le changement climatique… C’est la première génération dont le QI va être inférieur à la précédente. Avec la surconsommation d’écrans, vous touchez au langage, au sommeil, à l’activité physique… tout ce qui est essentiel au développement. Vous allez toucher à tout ce que l’évolution a mis des millions d’années à façonner. Notre cerveau est un bon vieux cerveau. C’est encore un cerveau de vieux con… même chez les enfants ! Il n’est pas fait pour qu’on le bombarde sensoriellement, qu’on lui prenne du temps de sommeil, d’interactions…

S.M. Qu’est-ce que vous espérez avec ce livre ?

M.D. Que les parents soient honnêtement informés. Ils aiment leurs enfants. Si on leur dit « ça, c’est positif », ils le font. Je me fous qu’il y ait une législation comme à Taïwan où vous êtes verbalisés si votre enfant de 2 ans joue avec une tablette car ils considèrent cela comme de la maltraitance développementale. Dans son rapport, remis en juin au ministère de la Culture, la psychanalyste Sophie Marinopoulos parle de « malnutrition culturelle ». Ce concept me parle. Il faut qu’on nourrisse nos gamins comme il faut, qu’on arrête de faire passer l’intérêt économique avant l’intérêt des enfants.

S.M. Qu’est-ce qui vous a le plus choqué à la lecture de toutes ces études ?

M.D. C’est la masse d’études convergentes, quels que soient les méthodes et les usages retenus. Il est toujours mal vu de parler de certitudes en sciences, mais quand même… On sait ce dont l’enfant a besoin et ce qu’on lui propose aujourd’hui, ce n’est pas ce dont il a besoin.” [d’après LEPROGRES.FR mais sans publicité]


La multiplication des écrans engendre une décérébration à grande échelle.

“C’est ce qu’affirme le chercheur en neurosciences Michel Desmurget dans un entretien au Monde, […] à l’occasion de la sortie de son dernier ouvrage La Fabrique du crétin digital. Ce chercheur a aussi alerté dans de nombreux autres médias sur les risques de l’exposition des enfants aux écrans. Dans une interview, il s’inquiétait ainsi pour « la première génération dont le QI sera inférieur à la précédente ». Il expliquait que « plus les enfants regardent d’écrans, plus le QI diminue ». Ces formules-chocs résumées et alarmantes se propagent massivement auprès des parents, des enseignants et des générations exposées aux écrans, suscitant de nombreuses interrogations. Le point pour y voir plus clair dans un domaine où il existe beaucoup d’études mais où la science a bien du mal à trancher.

C’est le point de départ de certaines recherches concernant nos changements environnementaux (éducation, nutrition, pollutions diffuses, écrans, etc.) : on constaterait une baisse des capacités cognitives des dernières générations, plus précisément depuis le milieu des années 1990. « Depuis 2000, c’est la première fois que le QI commence à descendre », affirme ainsi Michel Desmurget. Mais ce point de départ est-il acquis ?

Pendant longtemps, dans les pays industrialisés, on a cru que le QI moyen ne ferait qu’augmenter, avec l’amélioration de la scolarisation, du niveau d’études, des conditions sanitaires… L’accroissement régulier du résultat moyen à des tests de QI avait même un nom : l’effet Flynn, en référence au chercheur néo-zélandais James Flynn à l’origine de ce calcul.

Cet effet se serait inversé dans les années 1990, selon plusieurs études faisant référence, menées en Finlande et en Norvège. En France, une étude montre une baisse de 3,8 points entre 1999 et 2009, mais elle est méthodologiquement peu robuste car basée sur un échantillon, trop restreint, de 79 personnes. A l’inverse, la Norvège et la Finlande sont les deux seuls pays disposant de données solides sur les capacités cognitives de leur population, grâce à des évaluations chez les jeunes appelés faisant leur service militaire.

En Norvège, le QI moyen des conscrits a ainsi augmenté régulièrement entre les années 1980 et 1990 (les tests sont menés par les cohortes nées entre 1962 et 1975), passant de 99,5 à 102,3 ; ensuite, le score a, au contraire, décru d’année en année pour arriver à 99,7 dans les années 2000 (cohorte née en 1991). En Finlande, même évolution, dévoilée par une autre méthode, le peruskoe (test de base), créé par l’armée, qui montre une hausse des résultats des jeunes soldats pendant dix ans, puis une baisse pendant les dix années suivantes (en 1988, le score moyen est de 22,27 points ; en 1997, il est de 23,92 ; en 2009, il descend à 22,52).

Ces résultats ne sont toutefois pas confirmés à l’échelle mondiale : il y a des signes de baisse de QI dans des pays occidentaux développés, mais on ne saurait généraliser à tous les pays ni exclure que ce soit un plateau qui a été atteint.

Le QI, une mesure incomplète des capacités cognitives

Élaboré au début du siècle, le QI est à l’origine une notion créée pour dépister les enfants en difficulté. On compare les résultats d’un enfant aux tests avec les résultats moyens de sa classe d’âge et, c’est pour cela qu’on parle de quotient, on met ensuite cette mesure en rapport avec son âge réel et on le multiplie par 100.

Peut-on mesurer les capacités cognitives avec un seul chiffre ? Des critiques se sont élevées concernant cette mesure. Ainsi, résumait Jacques Lautrey, du laboratoire Cognition et développement à l’université René-Descartes, le QI « entretient une conception de l’intelligence totalement dépassée sur le plan scientifique ». Décrivant une intelligence multidimensionnelle, le monde de la recherche s’accorde désormais pour dire que le QI est une mesure pertinente mais incomplète.

« Etant donné que la principale caractéristique actuelle de l’environnement est d’être en constante mutation, ne doit-on pas considérer (…) que nous devenons plutôt intelligents autrement comme si l’environnement faisait le tri des aspects de l’intelligence qui lui sont utiles ? », s’interrogent ainsi les chercheurs Serge LarivéeCarole Sénéchal et Pierre Audy. Par exemple, à la question « qu’ont en commun les chiens et les lapins », les citoyens du début du XXe siècle auraient fourni, une réponse concrète (« on utilise les chiens pour attraper les lapins »), alors que la réponse actuelle pour obtenir le maximum de points relève d’un raisonnement abstrait : « les deux sont des mammifères ». Autre difficulté : les données sur lesquelles on s’appuie portent sur les capacités cognitives des adultes d’aujourd’hui. Or, les inquiétudes se concentrent surtout sur les générations futures, générations pour lesquelles, par définition, nous ne connaissons pas encore les résultats. Impossible donc d’avoir une certitude absolue sur l’évolution des capacités cognitives. Mais il reste possible de s’interroger sur ce qui pourrait altérer le QI.

Quels facteurs explicatifs possibles ?

Parmi les chercheurs tentant d’expliquer une baisse de l’intelligence humaine, la controverse est vive et hautement sensible. Certains privilégient des explications biologiques : ils avancent l’existence d’un effet dit « dysgénique », qui voudrait que les familles les moins intelligentes procréent davantage et fassent baisser le niveau. Certains de ces chercheurs pointent les effets de l’immigration : selon un article faisant la synthèse de la littérature existante et un autre article analysant les données de treize pays, les ­migrants et leurs enfants, en moyenne moins éduqués, feraient diminuer la moyenne des performances. Mais cette piste est très polémique en raison de l’instrumentalisation qui peut être faite de tels résultats.

Affiche mexicaine de lutte contre la délinquance juvénile

L’étude norvégienne qui compare notamment les performances ­au sein de fratries va à l’encontre de ces explications. « Cette fois, toute différence [d’une génération par rapport à une autre] ­traduit un effet strictement environnemental, puisque les parents sont identiques », explique James Flynn, le chercheur à l’origine du concept étudié dans ces travaux.

Pendant la phase croissante du QI moyen des Norvégiens testés, l’indice « intrafamilial » a augmenté de 0,18 point par an (pour une hausse de 0,20 pour l’ensemble). A l’inverse, à partir de la génération 1975, le retournement de l’effet Flynn dans l’ensemble de la cohorte (baisse de 0,33 point) s’illustrerait par une baisse de 0,34 point par an à ­l’intérieur des familles. Les résultats des fratries évoluent de façon cohérente avec ceux de l’ensemble de la cohorte. On peut donc évacuer l’hypothèse d’une évolution liée à la personne (génétique) ou à la famille (éducation) et penser que les causes de ces évolutions sont plutôt environnementales.

Ainsi, certains métaux lourds (plomb, mercure, etc.) ou perturbateurs endocriniens (pesticides, retardateurs de flamme, etc.) pourraient altérer la construction cérébrale, assurent certains chercheurs. Plusieurs cohortes mère-enfant ont, par exemple, été suivies ces dernières années et précisent que les enfants les plus exposés in utero à des pesticides organophosphorés, des retardateurs de flamme (comme des PBDE ou des PCB), présentent des QI plus faibles que les moins exposés, toutes choses égales par ailleurs.

Mais parmi ces facteurs « environnementaux », au sens large, figurent aussi les évolutions de mode de vie, et en particulier l’exposition massive aux écrans – télévisions, ordinateurs, téléphones… Pour Michel Desmurget, c’est même la cause principale. Est-ce le temps passé devant les écrans qui diminue les capacités cognitives ? Est-ce que les enfants ayant des capacités cognitives plus limitées que les autres sont plus attirés par les écrans ? Existe-t-il d’autres facteurs non mesurés ?

Une étude récente a tenté de démêler corrélation et causalité grâce à un système d’analyse statistique incluant des effets aléatoires ; cinq chercheurs canadiens ont ainsi analysé des données provenant d’une cohorte de 2.441 enfants et montré un lien réel, mais ténu, entre exposition aux écrans et développement cognitif : ainsi, pour un enfant de 2 ans, davantage de temps passé devant les écrans provoquerait, lors du passage du test américain Ages and Stages Questionnaire (ASQ), une baisse du coefficient de variation de 0,08 point à 3 ans ; de même, une baisse de 0,06 point de ce coefficient standardisé serait observée entre 3 et 5 ans.

Comme le remarque le pédiatre Max Davie, interrogé par le Guardian sur cette étude, s’il existe un lien entre exposition aux écrans et capacités cognitives, ce lien reste moins fort que d’autres facteurs, comme le fait de lire à son enfant ou la qualité de son sommeil, facteurs mesurés pendant l’étude. En revanche, ne sont pris en compte ni l’activité de l’enfant ni son accompagnement éventuel devant les écrans.

« Ce qui est sûr, c’est que les écrans sont un facteur de risque de sédentarité ; pour le reste, on ne sait pas trop… En épidémiologie, il faut beaucoup de temps et d’efforts pour prouver la réalité d’un facteur de risque d’effet potentiellement faible. Or, nous ne sommes pas dans une situation où nous pouvons conclure… d’autant que les tests, normés, n’évoluent pas alors que les cohortes, elles, évoluent », estime le professeur Bruno Falissard, directeur du Centre de recherche en épidémiologie et santé des populations de l’Inserm.

Les écrans sont-ils en cause, ou leur usage actuel ?

Contacté par Les Décodeurs, Michel Desmurget tient à préciser que ce ne sont pas les écrans eux-mêmes qui sont en cause, mais leur usage.

Force est de constater que l’usage récréatif qui en est fait aujourd’hui par les jeunes est débilitant. La question n’est pas de les supprimer – professionnellement je les utilise moi-même largement – mais de limiter drastiquement ces consommations débilitantes.

Michel Desmurget

De son côté, M. Falissard craint que les écrans ne soient surtout un révélateur d’inégalités préexistantes entre les enfants de différents milieux socioculturels. « L’interaction est primordiale pour le développement de l’enfant, juge le pédopsychiatre et biostatisticien. La tablette ne doit pas être une solution pour que les parents puissent se détendre sans s’occuper de leur progéniture. L’ennui peut être fécond mais pas la sous-stimulation. »

« Les jeunes issus de milieux socio-économiques défavorisés bénéficient de moins de curiosité et de moins d’accompagnement de leurs parents, et leur utilisation des outils numériques s’en ressent », souligne aussi le rapport des trois Académies de médecine, des sciences et des technologies. D’où la nécessité, lorsqu’il s’agit d’édicter des recommandations par rapport à l’exposition aux écrans, de distinguer les activités (programmes conçus pour les enfants ou pas, éducatifs ou récréatifs, etc.), le temps passé et le contexte (enfants seuls ou accompagnés).

Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II, recommande aussi « de former les parents et les enseignants au numérique pour qu’ils soient vigilants sur les collectes de données, sur les mécanismes de captation de l’attention… L’idée est de transmettre une vraie culture du numérique aux enfants. » Une idée que soutient le Centre pour l’éducation aux médias et à l’information (Clemi), qui a édité un guide à cet effet : pas d’écrans avant 3 ans, limités et accompagnés à partir de cet âge. Une recommandation désormais inscrite sur le carnet de santé de l’enfant.” [d’après LEMONDE.FR]


“La consommation du numérique sous toutes ses formes – smartphones, tablettes, télévision, etc. – par les nouvelles générations est astronomique. Dès 2 ans, les enfants des pays occidentaux cumulent chaque jour presque 3 heures d’écran. Entre 8 et 12 ans, ils passent à près de 4 h 45. Entre 13 et 18 ans, ils frôlent les 6 h 45. En cumuls annuels, ces usages représentent autour de 1.000 heures pour un élève de maternelle (soit davantage que le volume horaire d’une année scolaire), 1.700 heures pour un écolier de cours moyen (2 années scolaires) et 2.400 heures pour un lycéen du secondaire (2,5 années scolaires).

EAN 9782021423310

Contrairement à certaines idées reçues, cette profusion d’écrans est loin d’améliorer les aptitudes de nos enfants. Bien au contraire, elle a de lourdes conséquences : sur la santé (obésité, développement cardio-vasculaire, espérance de vie réduite…), sur le comportement (agressivité, dépression, conduites à risques…) et sur les capacités intellectuelles (langage, concentration, mémorisation…). Autant d’atteintes qui affectent fortement la réussite scolaire des jeunes.

Ce que nous faisons subir à nos enfants est inexcusable. Jamais sans doute, dans l’histoire de l’humanité, une telle expérience de décérébration n’avait été conduite à aussi grande échelle

Michel Desmurget

Ce livre, première synthèse des études scientifiques internationales sur les effets réels des écrans, est celui d’un homme en colère. La conclusion est sans appel : attention écrans, poisons lents !” [SEUIL.COM]


Plus de dispositifs à maîtiser ?

CHATER: Théorie de l’esprit plat. L’intelligence n’est qu’une illusion

Temps de lecture : 5 minutes >
Couverture du Science & Vie n°1223 (août 2019)

Les sens sont nos propres juges et les premiers, et ils ne perçoivent les choses que par les événements externes [qui les affectent] ; alors il n’est pas étonnant si, dans tous les éléments qui servent à la bonne marche de notre société, il y a un si perpétuel et général mélange de cérémonies et de signes extérieurs superficiels, en sorte que la meilleure et la plus réelle part des règles sociales consiste en cela.

Montaigne (1580)

L’esprit n’est pas profond, il n’existe aucun moi intérieur.” Avec sa Théorie de l’esprit plat, Nick CHATER vient de jeter un énorme pavé dans la mare. Car ce professeur en sciences du comportement a découvert que notre esprit, loin d’être insondable, fonctionne de façon totalement… superficielle ! Ce que démontrent plusieurs expériences, qui prouvent l’incroyable platitude de notre intellect. Pire, elles remettent en cause ce que nous croyons être nos convictions, notre personnalité et même notre inconscient ! Nous l’ignorons, mais nous sommes tous bêtes ; et le savoir est un premier pas pour l’être moins.

On pensait que notre esprit était profond… alors qu’il est bêtement superficiel

Vu toutes les pensées qui vous viennent, vous êtes convaincu de la profondeur de votre esprit, au point qu’il vous paraît insondable? Désolé de vous le dire, mais votre esprit est vide, absolument superficiel, d’une platitude consternante. En un mot, vous êtes “bête”. Ne le prenez pas mal : ce jugement vaut pour tous les humains. Sans exception ! Telle est la conclusion de la théorie globale de l’esprit développée par le psychologue anglais Nick Chater : la “théorie de l’esprit plat”.

Présentée dans un livre paru fin 2018, cette théorie fait table rase de réflexions philosophiques millénaires, de travaux de psychiatrie séculaires et de dizaines d’années d’études scientifiques dédiées à notre psyché. Le tout en se fondant sur un constat tout simple: “L’esprit n’est pas profond, il n’existe pas de ‘moi intérieur’, ni de subconscient ou d’inconscient tels que nous les concevons; au contraire, l’esprit est plat, il élabore en temps réel chacune de nos pensées, mais il le fait avec une telle rapidité, une telle puissance que nous avons l’impression qu’elles ont toujours été là”, résume le professeur en sciences du comportement à l’université de Warwick.

Plat? L’esprit humain? Allons … En chacun de nous, à chaque décision, chaque sensation perçue, notre esprit semble puiser en ses tréfonds un caractère, des envies, des sentiments, des souvenirs pour les trier avant de les faire remonter à la surface, les mettre en balance et, in fine, produire notre pensée. Sans parler des parasitages de l’inconscient, du Moi, du Sur-Moi et du Ça chers à Freud.

Nick Chater balaie tout cela. Dans sa théorie, rien d’enfoui : l’esprit est exclusivement accaparé par les interprétations instantanées générées par ce sur quoi il porte son attention. Il improvise en permanence, sans s’appuyer sur des structures supposées être constitutives de notre identité. Mais il crée l’illusion de leur réalité par sa seule rapidité.

Personnalité, convictions, sentiments … Tout ce qui semble animer notre profondeur intellectuelle s’avère alors une illusion qui aurait émergé en même temps que l’esprit lui-même et grandi avec lui, comme un faux reflet. Une illusion si savamment orchestrée qu’elle nous aurait tous, et depuis toujours, floués, bêtes que nous sommes. “Pour moi, reprend le chercheur, le fait de ‘chercher en nous’, de ‘comprendre le moi profond’, est une bêtise. Notre pouvoir d’introspection est trop limité, nous ne voyons en nous-mêmes que les histoires que nous voulons bien nous raconter, c’est-à-dire des affabulations. Et nous ne leur donnons alors que trop d’importance en les entretenant.

APRÈS GALILÉE ET DARWIN

C’est à la suite d’un vaste travail de méta-analyse que Nick Chater en est venu à formuler la “platitude” de notre esprit. Et cette vision, pour le moins iconoclaste, a été bien accueillie par la communauté scientifique -son livre est lauréat 2019 du prix PROSE en psychologie clinique qui récompense les œuvres universitaires. “J’admire l’ambition de la théorie de Nick Chater. Nos recherches vont dans le même sens -même si elles sont moins catégoriques“, témoigne par exemple Petter Johansson, chercheur en psychologie expérimentale (université de Lund, Suède).

Depuis des décennies, de multiples observations psychologiques et neurologiques se sont en fait accumulées, détruisant petit bout par petit bout les idées que nous nous faisions sur notre esprit. Notre perception si riche? “Un mirage“, balaie Ronald Rensink, professeur en cognition visuelle (université de Colombie-Britannique, Canada). Notre pouvoir d’imagination illimité? “Une construction mensongère“, assure Stephen Kosslyn, professeur émérite en psychologie cognitive à Harvard. Nos connaissances, notre raison, notre libre arbitre? “Pour beaucoup des approximations, des interprétations et des histoires qu’on se raconte“, assène Albert Moukheiber, docteur en neurosciences cognitives (université Paris 13). La théorie de Nick Chater assemble pour la première fois toutes ces illusions mentales en un tout cohérent, qu’elles concernent l’introspection ou la perception.

La platitude de notre esprit expliquerait ainsi pourquoi nous sommes influençables, sensibles aux biais cognitifs, et même parfois insensés. D’où l’intérêt de s’en soucier. D’autant que le marketing et les sciences de l’information en jouent pour capter notre attention. Une humiliation anthropologique de plus -après que Galilée nous a éjectés du centre de l’Univers et Darwin fait tomber du sommet de l’évolution, nous voilà sans profondeur ?

Oui, mais dites-vous que si votre esprit n’est pas profond, il travaille à une vitesse si faramineuse qu’il réussit à en donner l’illusion. Qu’il est peut-être plat, mais qu’il est un improvisateur tout-puissant. Alors, embrassez votre vie intérieure à la platitude si exceptionnelle qu’elle a réussi à se tromper elle-même sur sa propre nature -des bravos sont de mise. Découvrez-la, votre bêtise, car elle est, aussi, votre véritable intelligence. On vous l’avait dit: il ne fallait pas le prendre mal […]

Lire la suite du dossier de Thomas CAILLE-FOL dans le SCIENCE-ET-VIE n°1223…


EAN 9782259265195

Nick Chater est professeur de sciences du comportement à la Warwick Business School. Il y a fondé le groupe d’étude des sciences du comportement, qui est le plus important du genre en Europe. Il est également conseiller auprès du Behavioral Insights Team, l’agence de mise en application des sciences du comportement rattachée au gouvernement britannique. Il est membre du Comité britannique sur le changement climatique et membre de la Cognitive Science Society et de la British Academy.

“Le subconscient et la « vie intérieure » ne seraient-ils qu’une illusion ? Dans cet essai novateur, le psychologue et comportementaliste Nick Chater propose une nouvelle approche révolutionnaire du fonctionnement de l’esprit humain. Nous aimons penser que nous avons une vie intérieure, que nos croyances et nos désirs proviennent des profondeurs obscures de notre esprit, et que si nous savions comment accéder à ce monde mystérieux, nous pourrions vraiment nous comprendre nous-mêmes. Pendant plus d’un siècle, les psychologues et les psychiatres se sont efforcés de découvrir les secrets de notre conscience. Nick Chater révèle que cette entreprise est vouée à l’échec. S’appuyant sur l’état de la recherche en neurosciences, en psychologie du comportement et de la perception, il démontre que notre esprit n’a pas de profondeurs cachées et que la pensée inconsciente est un mythe. Notre cerveau, tel un grand improvisateur, génère en fait nos idées, nos motivations et nos pensées dans le moment présent. À travers des exemples visuels et des expériences contre-intuitives, nous comprenons que notre esprit s’invente en permanence, improvisant constamment notre comportement à partir de nos expériences passées. Original et délicieusement provocateur, ce livre nous oblige à reconsidérer ce que nous pensions savoir sur le fonctionnement de notre esprit.” [source : LISEZ.COM]

A lire : CHATER Nick, Et si le cerveau était bête ? (Paris : Plon, 2018)


Plus de discours structurés sur nous et nos frères humains…