La gomme bichromatée est une technique d’impression photographique inventée au milieu du XIXe siècle. C’est en mélangeant de la gomme arabique, de l’eau, un pigment de couleur (noir, jaune, rouge, etc.) et du bichromate de potassium que l’on obtient la formule nécessaire pour faire apparaître une image. La gomme bichromatée est en définitive une composition d’images, obtenue par la superposition successive de plusieurs couches colorées exposées.
La première étape consiste à étaler la formule bien dosée sur une feuille de papier adaptée, puis de laisser sécher.
Chaque couche de formule appliquée est exposée sous une lampe UV, avec un négatif posé par-dessus, puis dépouillée dans un bac d’eau froide afin que les pigments non fixés se dégagent par eux-mêmes.
Chaque dépouillement s’effectue à la main avec une série d’outils à adapter soi-même (ex. pinceau, brosse douce), ce qui constitue une phrase de création indéniable et d’interprétation, loin du mouvement mécanique et de la reproduction à l’infini.
Il suffit ensuite de laisser sécher le papier, puis de recommencer le procédé. Une gomme est terminée lorsqu’elle est composée de suffisamment de couches colorées pour révéler une image détaillée.
Le moindre détail a son importance (composition de la formule, température de la pièce, distance entre la lampe UV et le papier, température de l’eau, etc.). Ainsi, chaque gomme bichromatée est une création unique, de la même manière qu’une peinture. Il faut compter en moyenne une journée pour réaliser une gomme bichromatée.
“Un manuscrit vieux de 1000 ans relatant les bienfaits de la phytothérapie (médecine par les plantes) vient d’être mis en ligne par la Bibliothèque Nationale du Royaume-Uni.
Une mine d’or pour les adeptes de la phytothérapie, qui a soigné et soigne encore certains maux de la manière la plus naturelle qu’il soit et ce, depuis des siècles ! Contrairement à l’homéopathie qui a été déclarée inefficace par la Haute Autorité de la Santé (FR), la phytothérapie est bel et bien reconnue par tous, comme une alternative à la médecine classique. De nombreux médicaments issus de laboratoires sont d’ailleurs à base de plantes !
Le manuscrit est écrit en vieil anglais, et il faut être au moins anglophone voire historien pour en déchiffrer les secrets ! Il est en fait une traduction d’un guide du IVème siècle écrit par un herbier, Pseudo-Apulée. Ce livre indique l’utilisation des plantes dans un cadre médical pour les humains et pour les animaux. Des annotations ajoutées au fil des siècles (XIème au XVIème siècle) viennent également étoffer les connaissances acquises au cours du temps.
La médecine par les plantes a longtemps été la seule médecine utilisée pour soigner (et guérir) l’être humain. La médecine classique utilisant des procédés chimiques qui n’étaient pas connus il y a 1000 ans évidemment. Les remèdes naturels étaient donc concoctés par les « sages » des villages et administrés comme seul et unique médicament.
Toutes les parties des plantes peuvent être utilisées (feuilles, racines) et de plusieurs manières (tisanes, cataplasmes ou absorption), […], il faut cependant veiller à un dosage précis et connaître scrupuleusement les effets secondaires que certaines plantes pourraient provoquer. Certaines plantes sont même mortelles, il ne faut donc pas jouer au petit sorcier sans s’aider de livres sérieux ou consulter un phytothérapeute, spécialisé dans ce domaine.
Attention cependant, nous ne faisons pas ici, l’apologie de la phytothérapie prétextant qu’elle peut soigner tous les maux et toutes les maladies mais elle permet une alternative aux petits tracas quotidiens : romarin contre les maux de tête, radis noir pour les maux intestinaux, arnica contre les ecchymoses ou hamamélis pour soulager les brûlures par exemple. Certaines maladies ne seront jamais soignées par les plantes mais celles-ci peuvent soulager les maux adjacents et apporter un certain confort aux malades.
Aujourd’hui, l’avènement du bio, le retour aux remèdes naturels, aux emballages zéro déchet ajoutés à la prise de conscience des populations face à une pollution grandissante pourrait faire revenir la phytothérapie sur le devant de la scène !” [NEOZONE.ORG, article du 18 juillet 2019]
Mandragore (Ms cod vind 93, XIIIe)
“L’Herbarius du pseudo-Apulée est un herbier illustré rédigé en latin probablement au IVe siècle et attribué très tôt à un auteur nommé Apulée. Il a connu une large diffusion au Moyen Âge puisque nous avons gardé une soixantaine de manuscrits qui comportent l’herbier en totalité ou en fragments. Autour de 1481 parut sa première édition, ce qui en fit le tout premier herbier totalement illustré imprimé. Pourtant, il reste assez méconnu et nous avons encore beaucoup d’incertitudes sur son auteur, son origine et sa composition.” Pour en savoir plus, consulter le doctorat de Mylène Pradel-Baquerre (Université Paul-Valéry – Montpellier, FR)…
“Paris – Une étude qui va faire du bruit. Contrairement aux idées reçues, on apprend ainsi que près de 75% des Français. Ce qui est très au-dessus de la moyenne européenne, qui elle est plutôt de l’ordre de 60%. Quelles sont les raisons d’une telle différence, quelles peuvent être les conséquences ? Notre spécialiste Constance Deplanque répond. Reportage.
‘C’est très rassurant‘ notent les instituts de sondages. ‘Auparavant, nous avions entre 45 et 55% des Français. Maintenant on approche des 75%‘. Cette étude vient rebattre les cartes et faire taire les mauvaises langues qui affirmaient que seulement 30% des Français. Mais désormais un nouveau seuil est atteint. Peut-être demain pourrait-on envisager 80% des Français ? Mais les pouvoirs publics sont-ils prêts pour ce changement radical ? ‘Ce qui reste cependant inquiétant, c’est que 25% des Français‘ regrette pour sa part Bruno Le Maire.
Pour comparaison il suffit de voir l’Angleterre avec seulement 51% des Anglais. En Russie, on atteint moins de 10% des Russes. L’Espagne tire son épingle du jeu avec près de 86% des Espagnols. Une telle disparité interroge. Pour certains scientifiques, c’est certain, d’ici 2025 il faudra vraisemblablement compter avec 85% des Français. Et vous ?”
“Vous n’êtes pas assez mûrs pour voir les choses comme elles sont.
Je suis encore sous le choc de ce reproche de la jeune suédoise, mondialement connue depuis la marche d’étudiants de 120 pays, le 15 mars 2019. Je dirai plus loin les raisons de ce choc. Je veux d’abord souligner le fait que l’engagement de Greta a des racines profondes. Les Thunberg sont en effet des descendants de Svante Arrhenius, […] raison pour laquelle le père de Greta porte aussi le prénom de Svante. Arrhenius (1859-1927), prix Nobel de chimie 1903, a été le premier à quantifier le lien entre le CO2 et le réchauffement climatique. Le père de Greta devait préciser que les découvertes de l’ancêtre avaient résisté au temps, à ceci près qu’il prédisait que le taux de réchauffement actuel n’adviendrait que dans 2000 ans.
À noter aussi que c’est à Stockholm que les Nations unies ont choisi de tenir, en 1972, la première grande conférence sur l’environnement. À ce moment, on savait déjà l’essentiel sur les changements climatiques. Voici ce qu’écrivaient René Dubos et Barbara Ward dans Nous n’avons qu’une terre (Paris : J’ai lu, Coll. Découvertes, 1972), le rapport publié juste avant la conférence. Ce rapport, Greta l’a sans doute découvert dans la bibliothèque familiale. Je cite : “En ce qui concerne le climat, les radiations solaires, les émissions de la terre, l’influence universelle des océans et celle des glaces sont incontestablement importantes et échappent à toute influence directe de l’homme. Mais, l’équilibre entre les radiations reçues et émises, l’interaction de forces qui maintient le niveau moyen global de température semblent être si unis, si précis, que le plus léger changement dans l’équilibre énergétique est capable de perturber l’ensemble du système. Le plus petit mouvement du fléau d’une balance suffit à l’écarter de l’horizontale. Il pourrait suffire d’un très petit pourcentage de changement dans l’équilibre énergétique de la planète pour modifier les températures moyennes de deux degrés centigrades. Si cette différence s’exerce vers le bas, c’est le retour à une période glaciaire; au cas contraire, un retour à une terre dépourvue de toute glace. Dans les deux cas, l’effet serait catastrophique. »
À cette époque, il suffisait de connaître le cycle du carbone, tel qu’on l’enseigne dans les écoles secondaires, pour vouloir mettre au plus vite un terme à l’économie d’extraction, expression que René Dubos, lui-même un scientifique de premier ordre, utilisait pour désigner une paresse de la science plutôt qu’un accomplissement…”
Temps de lecture : 8minutes > 2019, l’odyssée de l’espace ?
Data Center Kesako ?
Le Data Center est un centre d’hébergement et de traitement de données informatisées. C’est un site physique sur lequel se trouvent regroupés des équipements constituant le système d’information d’entreprises (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne (on-premise) et/ou externe à l’entreprise, il peut être dédié ou mutualisé, exploité ou non avec le soutien de prestataires. Il comprend un contrôle sur l’environnement (climatisation, système de prévention contre l’incendie, etc.), des alimentations secourues et redondantes, ainsi qu’une sécurité physique élevée (dans les meilleurs cas respectant la norme ISO27001). A ce titre, en fonction de leur niveau de protection et de sécurisation, les Data Centers sont classés dans des catégories de performance (cf. Uptime Institute).
Alors que se développent de plus en plus l’Internet, le Cloud Computing, le Big Data, l’Internet des objets…, il va être nécessaire de disposer de plus en plus de capacité de traitement et de stockage d’informations ; les Data Centers sont donc voués à se multiplier d’ici les prochaines années et pas seulement les méga-Data Centers.
Les données étant cruciales pour le bon fonctionnement des entreprises, il va donc de soi que ces dernières devront investir dans la protection de leurs données. C’est pour cette raison que les Data Centers maintiennent des niveaux de protection des données très élevés, dans le but d’assurer sécurité, intégrité et fonctionnement continu des appareils hébergés.
Parc actuel
Il existe aujourd’hui environ 4.000 Data Centers (dits de collocation, c’est-à-dire hébergeant des infrastructures de multiples entreprises) dans le monde, dont une petite trentaine en Belgique. Il y en a neuf à Bruxelles et dix-neuf en Flandre. En Wallonie, il n’y a que sept centres (le centre de Google n’entrant pas dans la catégorie des Data Centers de collocation) :
quatre en province de Liège : Interoute Liege et Network Research Belgium (parc industriel des Hauts-Sarts), le WDC (Villers-le-Bouillet) et le Belgium Data Center (Villers-le-Bouillet, partenariat NRB/Etix Anywhere) ;
un cinquième au sein du parc scientifique Crealys (Gembloux), réalisé par COFELY INEO (Groupe GDF Suez) ;
un sixième à Saint-Ghislain (Mons), réalisé et opéré par Google ;
un septième à Vaux-sur-Sure réalisé par BNP Paribas.
Hébergement des données par les entreprises
Le traitement des données est devenu un élément clé du développement des entreprises et de leur place dans l’économie. Stocker, exploiter et analyser les données : des enjeux cruciaux que certaines entreprises décident de gérer en interne, le plus souvent à l’aide d’un prestataire (pour le conseil, l’aide à la maintenance, la gestion technique, etc.). Pourtant, une interruption de service, un incendie ou une faille quelle qu’elle soit, et ce sont les collaborateurs de l’entreprise et, dans certains cas, les clients, qui sont privés d’accès aux informations. De plus, face à l’augmentation des volumes et de la complexité des données, l’évolution technologique, les réglementations toujours plus strictes, les enjeux environnementaux ou encore la conjoncture économique instable, l’externalisation des infrastructures informatiques et télécoms s’avère être un choix judicieux. D’autant qu’externaliser l’hébergement des données, c’est également l’opportunité pour les entreprises de rationaliser leurs coûts et de se centrer sur leurs objectifs métiers, sans s’encombrer de la gestion des technologies qui devient de plus en plus complexe et qui requiert une expertise de plus en plus vaste et pointue.
Les grandes entreprises, les grandes institutions publiques, les hôpitaux, etc. possèdent en général leur(s) propre(s) Data Center(s).
Les TPE (Très Petites Entreprises) et PME (Petites et Moyennes Entreprises) hébergent leurs données/applications critiques sur des petits serveurs, parfois dans des conditions précaires, ou utilisent le cloud, avec un lieu de stockage bien souvent à l’autre bout du monde. En Cloud Computing, les entreprises ne se servent plus de leurs serveurs informatiques mais accèdent aux services en ligne proposés par un hébergeur (Azure, AWS, …) via un accès réseau public (internet).
Maintenant il faut attirer l’attention du lecteur sur les risques de ces hébergement “dans le nuage”, et sur la nécessité d’avoir à la fois une politique claire de classification de ses données, mais également une stratégie cloud clairement définie afin de ne pas mettre le business de l’entreprise en péril. En effet, trop souvent les entreprises voient en ces solutions la voie de la simplicité (plus de nécessité de recourir à une équipe IT interne ou encore de solliciter un intégrateur pour la gestion de l’infrastructure et la protection des données) et d’une réduction de coût qui, la plupart du temps, est purement factice. En effet, si l’on considère l’ensemble des coûts relatifs à la sécurisation des communications, à la protection des données (la plupart du temps les solutions cloud sont fournies sans backup des données, et donc sans possibilité de recouvrement en cas de sinistre pour l’entreprise), ou encore à la traçabilité pour respecter les obligations légales, dans la plupart des cas les coûts des solutions cloud sont bien plus onéreux que les solution on-premise, mais font également souvent courir un risque pour la pérennité de l’entreprise qui est largement sous-estimée par cette dernière.
Les enjeux sont géostratégiques (principe de territorialité des données )
Un Data Center étant soumis aux lois du pays dans lequel il est implanté. Il s’agit ici de relocaliser des données dans un cadre législatif local que les entreprises et les états maîtrisent, l’hébergement extraterritorial (a minima hors CE) présentant un risque en matière de sécurité, d’ingérence, de perte d’emplois.
Cela paraît d’autant plus important depuis l’US Patriot Act, la loi américaine votée en 2001 suite aux attentats contre les tours du World Trade Center, et plus récemment le US Cloud Act, adoptée en 2018, permettant aux forces de l’ordre (fédérales ou locales, y compris municipales) de contraindre les fournisseurs de services américains, par mandat ou assignation, à fournir les données demandées stockées sur des serveurs, qu’ils soient situés aux États-Unis ou dans des pays étrangers.
Maître Vincent Lamberts, du bureau Actéo, est intervenu à ce sujet lors d’un séminaire dédié au Cloud organisé par un intégrateur belge, et plus spécifiquement sur la genèse de ce texte, sur sa cohabitation avec le RGPD, ainsi que sur les risques encourus par les entreprises européennes et les protections dont elles disposent :
Enfin, de plus en plus de grands groupes prennent l’initiative de la construction et de la gestion de ce type d’infrastructures, à l’instar de GDF Suez via sa filiale COFELY INEO. On peut se poser la question de laisser dans les mains de ces groupes des installations qui gèrent des données sensibles, et dont la perte, le vol…, pourraient être catastrophique pour nos entreprises (et donc pour le développement économique de notre région).
Les enjeux sont économiques
L’implantation de Data Centers permet potentiellement de stimuler la croissance de l’activité IT, l’infrastructure nécessitant une série de compétences disponibles à proximité, et donc de relocaliser certains emplois IT (utilisateurs des salles du Data Center, personnel des fournisseurs et sous-traitants qui assurent la maintenance 24/7).
Les Data Centers peuvent attirer des acteurs économiques complémentaires à son activité ; on peut citer l’exemple de la ville de Cork en Irlande qui a vu au fil des années son pôle technologique exploser. Tout d’abord avec l’arrivée du plus grand constructeur mondial de stockage centralisé, puis par l’arrivée de constructeurs de serveurs de calculs, qui ont été immédiatement entourés par des fabricants de composants permettant la construction de ces équipements…
On épinglera également les défis venant du marché émergeant des objets connectés. En effet, à l’horizon 2020 les analystes estiment qu’il y aura plus de 50 milliards d’objets connectés, quel que soit le domaine d’application (gestion de bâtiment, médical, contrôle de trafic routier, gestion des automobiles…). Ces objets vont nécessiter des réseaux qui vont canaliser les communications d’informations générées par ces objets.
L’enjeu principal se trouve ailleurs dans le besoin de traiter des gros volumes d’information localement :
(à un échelon local) pour des aides à la décision immédiate sur le territoire proche. Par exemple, lors d’une détection d’un accident, on condamne temporairement la route le temps d’évacuer l’accident et on dirige le trafic par une autre voie, puis on rétablit le court normal, une fois l’incident levé ;
(à un échelon plus provincial) par exemple, si l’accident cité ci-dessus est localisé sur une route principale et entraîne des effets sur l’ensemble du réseau routier de la Province, on adapte dynamiquement le plan de circulation et les informations des GPS pour éviter la congestion ;
(à un échelon régional) par exemple, effet de propagation potentiel de l’incident sur les routes nationales et les autoroutes ;
jusqu’à la consolidation en vue de mener des projections stratégiques.
Outre les réseaux informatiques nécessaires pour acheminer ces informations, on remarque d’emblée que ces informations devront également être traitées à différents niveaux avec des objectifs stratégiques différents et un besoin de réactivité qui est de plus en plus conséquent à force que l’on se rapproche du centre du cercle de décision. Cela implique que la donnée devra être localement traitée pour des prendre des mesures immédiates et donc que l’on devrait voir naître un besoin de petits centres de calculs disséminés sur le territoire, qui appuieront ces démarches d’objets connectés et, d’autre part, que les écosystèmes numériques qui devront eux même être connectés à des centres de calcul plus important qui gèreront des analyses globalisées. Cette tendance est en train de prendre forme avec l’arrivée de ce que l’on appelle des Edge Data Centers.
Les enjeux sont écologiques
Des enjeux environnementaux sont liés à la consommation d’électricité des Data Centers et à la production de chaleur associée, dissipée par les serveurs, les unités de stockage…
En effet, les Data Centers reposent sur l’usage d’appareils électroniques en continu, 24/7. Leur consommation électrique est donc incessante et génère en outre beaucoup de chaleur. Pour compenser cette hausse des températures, les Data Centers ont recours à des systèmes de refroidissement, de même qu’ils utilisent des générateurs de secours fonctionnant la plupart du temps au mazout (des systèmes à gaz ont récemment fait leur apparition), en cas de panne, qui sont mis en service à intervalle régulier afin de garantir le bon fonctionnement de l’installation (souvent une fois par mois).
Les entreprises construisant des Data Centers étudient des solutions afin de réduire l’empreinte carbone de ces installations énergivore en s’appuyant sur les énergies renouvelables, sur des systèmes de refroidissement naturels (rivières, Free Cooling dans les régions froides, …), mais également à l’utilisation des surplus de production de chaleur pour alimenter des systèmes communs de chauffage. D’autres mesures visant à la réduction des consommations peuvent également être mise en œuvre telles que des systèmes de gestion intelligent de la puissance de calcul qui permet de réduire le nombre de nœuds de calculs en fonction des réels besoins.
A ce propos, notons que le Data Center du parc d’activité CREALYS dans la région de Namur se veut un modèle en termes de performances énergétiques : il a pour particularité que les systèmes de chauffage, ventilation et climatisation, les installations électriques et les systèmes informatiques de gestion sont conçus pour assurer une efficacité énergétique maximale.
Enfin, le projet GreenDataNet, lancé le 13 mars 2014 et soutenu par la Commission Européenne à 70%, a pour objectif est de mettre au point un réseau de Data Centers plus « verts ». Le projet GreenDataNet préconise ainsi deux solutions : la production locale d’une énergie solaire issue de panneaux solaires photovoltaïques, ainsi que la réutilisation des batteries Li-ion des véhicules électriques (pour le stockage de l’électricité renouvelable).
En conclusion
Un nouveau paradigme se profile avec les nouveaux enjeux technologiques induits par l’arrivée massive des objets connectés, le besoin de traitement local (i.e. analyses Big Data, intelligence artificielle…) pour la prise de décision dans les environnements que d’aucuns nomment les Smart Cities, mais également pour répondre aux enjeux des nouvelles législations telles que le GDPR ou encore la directive européenne NIS qui a été retranscrite dans la loi belge et publiée le 03/05/2019 :
Ces enjeux conduisent à de nouveaux besoins en matière d’hébergement d’infrastructures informatiques :
la territorialité des données ;
l’existence de multiples Data Centers de petite taille, distribués sur le territoire (Edges Data Centers) ;
la protection contre le « Cloud Act ».
Mais ils conduisent également à des opportunités de développement :
intégration dans leur environnement afin qu’ils soient en symbiose avec ce dernier (par exemple, récupérer les productions électriques des panneaux photovoltaïques pour alimenter les centres, récupérer la chaleur dégagée par les infrastructures pour alimenter des réseaux de chauffage urbain…) ;
développement économique par intérêts mutuels.
Mais d’autres enjeux restent cachés :
Qui va financer ces infrastructures ?
Qui sera propriétaire des données ?
Les données seront-elles accessibles à tous pour permettre le développement de nouvelles solutions dans l’intérêt de tous, dans le respect des législations en vigueur ?
Ceci conduit à une question essentielle : ces services doivent-ils devenir des services publics, vu les enjeux relatifs aux données, ou bien doivent-ils être privatisés et bénéficier de l’expertise des spécialistes de ces nouveaux métiers ?
Auteur de “The Facebook Effect“, le seul ouvrage dans lequel Mark Zuckerberg s’est exprimé et a ouvert les portes de son groupe lors des toutes premières années du réseau social, l’Américain David Kirkpatrick porte aujourd’hui un regard différent et sévère sur l’évolution du géant de Menlo Park. Cet ancien chef de la rubrique internet et technology du magazine Fortune, […], estime que le réseau social représente un danger majeur pour les démocraties.
Vous avez connu Mark Zuckerberg dès 2006, alors que Facebook n’était encore qu’un phénomène universitaire américain. Avez-vous anticipé que ce réseau social deviendrait ce qu’il est aujourd’hui?
Je pense que personne, pas même Mark Zuckerberg, n’avait vraiment envisagé que cette société deviendrait aussi extraordinairement importante, avec 2,3 milliards d’utilisateurs. Facebook a été créé au meilleur moment (2004) et a pu bénéficier d’un parfait timing avec l’arrivée de l’iPhone en 2007. Cela dit, même s’il était impossible de prévoir une telle évolution, on a su que des difficultés graves allaient naître lorsque le réseau a commencé à atteindre une taille critique. D’autant plus que Mark Zuckerberg s’est toujours totalement désintéressé des questions relatives aux conséquences sociales et politiques de son réseau. Je me souviens avoir échangé à ce sujet avec un employé de Facebook, qui m’avait confié que sa principale inquiétude était de voir que Mark Zuckerberg fuyait ces problématiques.
Mark Zuckerberg a-t-il changé par rapport au jeune homme qu’il était il y a une douzaine d’années?
Je dirais, au contraire, qu’il ressemble encore trop à celui qu’il était à l’époque. Il est toujours aussi sûr de lui, de façon presque inquiétante. Il n’écoute pas les autres, sans doute parce qu’il a acquis un tel pouvoir qu’il peut se permettre de se passer des avis différents du sien. Il continue de diriger Facebook comme si cette société n’avait pas atteint une taille inédite dans l’histoire, avec une présence dans chaque pays et un contrôle direct aux citoyens. Il refuse toujours délibérément de s’engager sur des questions éthiques…
Facebook communique pourtant beaucoup sur sa responsabilité, sur sa lutte contre les “fake news” et les discours de haine. Il a même récemment engagé l’ancien vice-premier ministre du Royaume-Uni, Nick Clegg, pour lui confier le titre de directeur de la communication…
Je ne pense pas que le fait d’engager un RP de haut niveau — qui est en l’occurrence un ancien homme politique — va régler le problème. Facebook communique beaucoup, de façon très contrôlée, mais cela ne signifie pas qu’il s’engage vraiment pour les citoyens.
Lors de mon plus récent entretien avec Mark Zuckerberg, sur la scène d’une conférence Techonomy, il y a deux ans, je lui ai demandé exactement six fois si Facebook avait une responsabilité spécifique du fait de sa taille, et le cas échéant comment il comptait s’y prendre pour assumer cette responsabilité unique. De façon tragique, Mark Zuckerberg a totalement évité de répondre à cette question. Depuis l’élection du président Trump en 2016, l’ingérence des Russes, le phénomène des “fake news” et le scandale Cambridge Analytica, il utilise tout le temps le mot “responsabilité” mais uniquement par stratégie de communication. Il n’a jamais utilisé ce mot avant d’être forcé à le faire.
Quel a été l’événement le plus dommageable pour Facebook ces dernières années?
Au niveau de l’image, il est difficile de définir quel scandale a été le plus dommageable. L’impact le plus grave de Facebook dans le monde n’a peut-être pas été celui dont on a le plus parlé. On peut plutôt évoquer le fait que ce réseau a facilité les violences, tueries et génocides dans les pays où l’incapacité de Facebook à contrôler les messages haineux et manipulateurs a été dramatiquement mise en évidence.
Vous avez écrit que Facebook représente une menace pour la démocratie. Sa politique d’éradication des “fake news” et des discours de haine est-elle insuffisante?
Facebook a fait beaucoup de progrès, mais principalement en langue anglaise et aux Etats-Unis. Le problème, c’est qu’il y a, chaque jour des élections dans le monde entier. Dans les 180 pays où il opère, chaque personnalité ou mouvement politique cherche à profiter du système, voire à en abuser.
Facebook reste hautement manipulable dans les autres pays que les États-Unis, des pays où il fait moins face aux menaces de réglementation ou de restriction. C’est ce qui explique les vagues de violences qui ont été déclenchées en Inde, au Sri Lanka, en Birmanie, en Indonésie, aux Philippines, en Afrique du Sud ou au Brésil. D’ailleurs, le problème ne concerne pas seulement le site Facebook mais aussi ses filiales Instagram ou WhatsApp.
Le père de la réalité virtuelle, Jaron Lanier, a affirmé que le modèle économique de Facebook reposait sur la “modification des comportements”, une déviance par rapport aux principes de bases de l’industrie publicitaire, qui consistent selon lui à convaincre sans tromper. Partagez-vous son analyse?
Jaron Lanier connaît très bien Facebook et a compris le caractère toxique de son modèle, qui place l’attention des utilisateurs au-dessus de tout. Celui-ci consiste à capter à tout prix l’attention des utilisateurs pour générer des revenus publicitaires.
À cette fin, les algorithmes conçus spécifiquement pour retenir l’attention misent essentiellement sur les seules émotions qui permettent de le faire de façon très efficace: la peur et la colère. Malheureusement Facebook n’a jamais voulu renoncer à ce design intrinsèque.
La réputation de Facebook était excellente jusqu’à la fin des années 2000. Quel a été le tournant? L’enrôlement de Sheryl Sandberg en tant que Chief Operating Officer? L’introduction en bourse? L’explosion de l’utilisation des smartphones?
L’arrivée de Sheryl Sandberg (2008). C’est elle qui a fait transformer Facebook en machine à capter l’attention. C’est à partir de là que les algorithmes de diffusion de la colère et de la peur ont été prioritaires. Elle a brillamment transformé cette machine, sans anticiper le moment fatidique où cette machine deviendrait hors de contrôle. Et maintenant que cette machine est cassée, elle ne sait pas comment la réparer. Mais comme rien d’autre ne l’intéresse que de générer des profits et écrire ses livres personnels…
L’ironie de l’histoire, c’est que Facebook a cessé d’être un réseau social et s’est égaré au moment même où Sheryl Sandberg a écrit ses deux livres et que Mark Zuckerberg a fait le tour des Etats-Unis pour promouvoir sa fondation. Facebook est devenu hors de contrôle au moment où ses deux leaders ont pris leurs distances avec leurs responsabilités.
L’action Facebook a enregistré une chute spectaculaire l’été dernier mais se reprend quelque peu depuis le début de l’année. Peut-on s’attendre à ce que son modèle économique devienne plus agressif?
Il est très difficile de prédire ce qui va se passer mais j’ai du mal à imaginer que les choses évoluent dans le bon sens. Facebook a un choix à faire entre les profits et l’éthique. Deux choix contradictoires et inconciliables au vu de la nature de ce groupe. On sait que Wall Street n’a aucune appétence pour l’éthique et va demander que Facebook génère toujours plus de croissance, quels que soient les outils.
Facebook aura du mal à croître en renonçant aux algorithmes de captation de l’attention. De l’autre côté, il risque de perdre sa légitimité dans les pays où il exerce de façon trop prononcée sa logique de profits. Mais il est clair que le cours de l’action est désormais voué à décliner.
De nombreuses démocraties ont été déstabilisées au cours de la décennie écoulée. N’y a-t-il pas un souci plus global, qui concerne l’ensemble des réseaux sociaux?
Instagram a en effet un impact très négatif, est très facilement manipulable. Mais YouTube réagit plus rapidement face aux contenus sensibles. Twitter est relativement petit par rapport à Facebook, et le leadership a été plus honnête et engagé dans sa volonté de corriger certains problèmes similaires à ceux de Facebook. En outre, Twitter génère moins de profits et peut donc moins investir dans la modération et la surveillance des contenus.
Facebook dispose de moyens quasiment illimités pour surveiller les discours de haine, de “fake news”, etc. Mais il ne le fait qu’a minima, sous la contrainte.
“Pendant 23 minutes, l’acteur Jacques Gamblin captive l’attention dans un discours donné à Nantes, au Lieu Unique, le 28 novembre 2015 lors d’une journée consacrée au rôle de la poésie pour livrer “autrement le monde”. Un véritable bijou d’éloquence où il s’attarde sur notre peur de changement et interroge notre désir d’être surpris et de surprendre.
Ressentis en partage
Le parlement sensible des écrivains devait initialement avoir lieu le 14 novembre dernier à l’Assemblée nationale afin de souligner le rôle de la littérature et des écrivains pour parler autrement du climat. Annulé en raison des attentats qui ont frappé la capitale la veille, cette initiative – accompagnée de la publication d’un ouvrage (Du souffle dans les mots, Ed. Arthaud) – est plutôt passée inaperçue. Certains des 30+1 auteurs et poètes regroupés à cette occasion ont pourtant été réunis le 28 novembre 2015 lors de l’événement Autrement le monde organisé par la Maison de la Poésie de Nantes pour aborder les liens entre écologie et poésie.
C’est à cette occasion que l’acteur et poète Jacques Gamblin s’est exprimé dans un texte intitulé Mon Climat. Partant de la notion de température ressentie inventée il y a quelques années pour parler de la température extérieure (“La science en ce domaine [la météorologie, ndrl] a donc fait un grand pas dans son désir d’être toujours plus précise au point de ne plus l’être du tout”, lance-t-il), l’acteur en profite pour introduire son propos et livrer son ressenti (“Le ressenti individuel ayant supplanté la réalité générale, je me permets donc de donner le mien en toute humilité”).
S’il ne reproche à personne de lui faire “manger de la merde“, il n’en ressent pas moins un profond malaise d’imaginer que nos enfants et nos petits enfants devront payer notre irréalisme. “Je pense que notre plus profond désir à tous pourrait être de laisser l’endroit plus propre que nous l’avons trouvé en entrant. Rien n’est réellement à moi, ni ma petite ou grande maison, mon petit ou grand jardin, je vis sur un morceau de terre et sous un morceau de ciel qu’on me prête : je ne suis pas le premier à le dire, quelqu’un me prête ce que je possède, quelqu’un d’avant, avant avant, c’est à dire… personne” rappelle-t-il avant d’évoquer la seule chose en laquelle il croit : le rôle du vivant qui nous entoure… “tout ceci m’est offert et je dois être prêt à le rendre à personne qu’à lui-même“.
Se qualifiant de “militant de peu qui ne se retrouve pas dans la logique consumériste”, il rappelle à quel point il aime la modernité et ses inventions tant qu’elles soulagent la vie des gens sans créer des désirs inutiles. “La liste est longue d’une simple logique qui part en vrille, parce qu’avec le temps le simple bon sens s’est fait la malle. Que voulons nous comme vie ?“, interroge-t-il aussi.” […]
Un hôtel cinq étoiles situé dans le cœur historique de Liège, à quelques encablures de la place Saint-Lambert et du Palais des Princes évêques. Le temps d’une soirée, c’est notre repaire pour refaire le monde (enfin la Cité ardente).
Les participants? Philippe Lallemand (Ethias), Laurent Minguet (IMG), Serge Rangoni (Théâtre de Liège), Amandine Sanfratello (Taste of Liège) et Bruno Venanzi (Standard). Chacun a potassé ses dossiers, émis des idées sur des thèmes imposés ou librement.
Les débats sont passionnés et engagés. Les Liégeois ont leur ville chevillée au corps et ça se ressent. Mais il y a plus que ça. L’enjeu en tant que tel est perçu comme important. “Les villes sont devenues des territoires phares en termes de visibilité. La maire de Paris (Anne Hidalgo) est sans doute plus connue que le Premier ministre français (Edouard Philippe). Les poids lourds politiques s’investissent d’abord au niveau local, quitte à abandonner d’autres niveaux de pouvoir“, estime Philippe Lallemand en citant les cas de Paul Magnette ou Bart De Wever. “C’est le niveau où les décisions ont l’impact le plus direct et le plus concret. Les villes concentrent les moyens d’action que d’autres niveaux de pouvoir n’ont plus“, ajoute-t-il.
Pour autant, une ville comme Liège se sent parfois à l’étroit dans ses frontières municipales. Aménagement du territoire, mobilité, réseau d’entreprises, sécurité: nos interlocuteurs insistent sur l’importance d’une communauté urbaine; autrement dit, sur l’importance de faire collaborer la Ville avec les communes voisines (Ans, Herstal, Seraing…), que ce soit pour des raisons pratiques mais aussi pour des motifs budgétaires. “C’est nécessaire de rassembler“, plaide Serge Rangoni.
La mobilité est le premier chantier qui vient à l’esprit et c’est peu dire que la finalisation du tram de Liège est attendue avec impatience. Et de cette problématique de la mobilité, découlent les autres : le maillage commercial en centre-ville et son éventuelle reconversion, la vie étudiante engluée dans des navettes entre le centre et le Sart Tilman. Mais l’idée d’un “rapatriement” de l’université vers la ville ne doit pas remettre en cause son rôle moteur dans le développement de certaines compétences économiques en matière de biotechs ou de nouvelles technologies notamment.
Ce ne sont évidemment pas les seules idées qui ont été évoquées. La culture y a eu sa part. Un passe-jeunes pour les intéresser à l’offre culturelle liégeoise ou une parade de bateaux fluviaux sur la Meuse. Autre suggestion dans un autre domaine, la création d’un centre multisports de haut niveau.
1. Se réapproprier la Meuse
Le constat. Comme la plupart des grandes villes belges, Liège souffre de son… immobilité. Aux heures de pointe, les entrées de la ville sont engorgées, paralysées par de longues files de voitures qui viennent s’engluer dans le centre à la vaine recherche d’un parking.
“Il manque de liaisons intermodales et multimodales“, estime Philippe Lallemand. “Une politique de mobilité doit s’envisager dans une grande cohérence, qui manque pour l’instant dans la ville et autour“, renchérit Serge Rangoni, qui réclame une étude approfondie des attentes et besoins de la population, et à partir de là repenser les liens de mobilité au sein de la ville. “On fait beaucoup pour l’axe nord-sud, qui suit la Meuse en gros, mais une grande part du trafic passe aussi d’une rive à l’autre“, fait remarquer Laurent Minguet.
Les solutions. Le futur tram liégeois qui s’étendra de Sclessin à Coronmeuse devrait permettre d’alléger le trafic dans le centre. “À condition de bien concevoir aussi des parking de délestage à chacun des terminus“, poursuit Minguet.
En attendant le tram, sans doute à l’horizon 2020 au mieux, et compte tenu des nuisances que les travaux vont occasionner dans la ville, l’alternative pourrait être… la navette fluviale. Mise en service durant le printemps et l’été, elle vise plutôt les touristes. Elle a tout de même transporté 35.000 personnes en 2017 malgré des tarifs très onéreux pour un parcours limité et lent. Autant de désavantages auxquels il faudrait remédier pour l’intégrer dans une offre de mobilité cohérente. “Pourquoi ne pas l’étendre à toute l’année, de Droixhe à Sclessin, voire de Visé à Huy“, rêve Minguet. “Mais il faudrait pour cela améliorer sa vitesse commerciale actuellement limitée à 10 km/h“, fait remarquer Amandine Sanfratello.
Ethias emploie près de 800 personnes en plein centre de Liège, à moins de 500 mètres du pont Kennedy. “La plupart d’entre eux perd une heure d’embouteillage entre Droixhe et le centre. Je serais prêt à proposer un dédommagement à ceux qui empruntent la navette si cela leur fait gagner du temps“, assure Philippe Lallemand.
La navette fluviale, intégrée dans l’offre de mobilité à Paris ou à Namur, c’est aussi un symbole, estime Rangoni. “Le fleuve ne coûte rien! C’est une manière pour les Liégeois de se le réapproprier. Le réaménagement des berges permet déjà une meilleure circulation à vélo. Mais il faut aller plus loin.“
Le vélo, parlons-en. L’offre cyclable est déficiente en ville estime Sanfratello. “Déjà, le caractère accidenté et vallonné de la ville ne facilite pas l’emploi des deux-roues. Mais il manque d’infrastructures ad hoc et de pistes cyclables réellement protégées dans les accès au centre-ville.” Un centre-ville qui pourrait être réservé plus largement aux piétons, aux cyclistes et aux transports en commun.
Sanfratello réclame par ailleurs l’application à Liège de solutions de mobilité qui ont fait leurs preuves ailleurs. C’est le cas des vélos partagés géolocalisables, qui s’installent à Bruxelles, mais aussi de formules comme le Collecto bruxellois, le taxi collectif de nuit.
Par contre, des idées plus folles sont rejetées, comme un téléphérique reliant les hauteurs de la ville à la vallée. Deux études de ligne ont été présentées récemment, l’une entre le centre (St-Georges ou St-Léonard) et la Citadelle et l’autre entre Sclessin et l’Université. Mais l’idée laisse nos témoins assez sceptiques.
2. Activer les réseaux pour créer une Silicon Valley
Le constat. Liège et ses environs comptent bon nombre d’entreprises IT performantes (NRB, NSI Leansquare…) qui constituent d’importants vecteurs économiques, technologiques et sociaux. Mais les compétences, dans le secteur IT comme dans le secteur biotech par exemple sont souvent morcelées et peu partagées.
La solution. “Quel que le soit le secteur, on ne peut arriver très loin seul. Il faut accroître le travail en réseau“, estime Philippe Lallemand. L’exemple de Bridge2Health dans le secteur biomédical est intéressant. Cette plateforme qui réunit l’Université, le CHU, la Région et Meusinvest, vient soutenir les entreprises du secteur des sciences et de la santé qui veulent se développer à Liège. “Pas question de créer un nouveau ‘machin’ avec des postes à pourvoir, insiste Lallemand. Mais développer et rendre plus efficace ce qui existe. Et faire en sorte que cela devienne emblématique de la ville.“
L’explosion de Mithra dans le domaine de la santé féminine est un autre bon exemple. “Fornieri n’y est pas arrivé seul. Il a profité du travail universitaire en la matière, du coup de pouce d’un cercle d’investisseurs, etc. C’est ce type de modèle qu’il faut parvenir à reproduire pour attirer d’autres compétences connexes.“
Attention cependant à ne pas multiplier les structures et les réseaux, avertit Laurent Minguet. Certes Meusinvest, qui irrigue le tissu économique, est aujourd’hui une structure beaucoup plus efficace qu’il y a 30 ans. Mais à côté de cela, la multiplication des cercles d’affaires qui peuvent aussi renforcer le maillage risque d’avoir un effet inverse de morcellement et de gaspillage des efforts.
3. Un fonds pour booster de nouveaux projets dans les commerces vides
Le constat. La dévitalisation des commerces en centre-ville a souvent été de pair avec le développement de centres commerciaux en périphérie. Liège n’a pas échappé à ce phénomène et de nombreux commerces vides donnent une image négative de la Cité ardente. “Pour une rue commerciale, rien de pire que d’avoir une vitrine vide“, constate Amandine Sanfratello. Les commerces abandonnés sont un point noir de la Ville. Or, dans le “venture lab” (un éco-système de soutien à l’entrepreneuriat à destination de tous les étudiants et des jeunes diplômés) par exemple, des jeunes ont des projets créatifs, testés et validés. “Mais ils ont du mal à pouvoir trouver des espaces disponibles à des prix compétitifs, en tout cas en centre-ville“, poursuit-elle.
La solution. L’idée est de créer un Fonds de la Ville soutenant quelques projets souhaitant s’installer dans des commerces vides (en collaboration avec les propriétaires publics ou privés). Ces projets auraient l’obligation d’être accompagnés par une couveuse d’entreprises, un incubateur ou autre, seraient sujets à une évaluation de la viabilité du projet sur la base d’un dossier (business model, plan financier, etc.) et se présenteraient devant un jury. Les lauréats de ce Fonds annuel recevraient une aide afin de payer les premiers mois de loyer car c’est généralement là qu’il est difficile de rentabiliser son activité (importantes dépenses d’investissement effectuées, création d’une première clientèle, etc.).
Des pop-up stores pourraient également être concernés, dans la mesure où ils permettent de ne pas avoir cet effet désastreux de chancre vide et permettent de réamorcer une activité.
“Un exemple pour illustrer la pertinence du projet: la Brasserie C, cette microbrasserie située à proximité de la place St-Lambert, où, sur un emplacement qui est resté longtemps vide, la ville a accepté de casser les prix du loyer. C’est aujourd’hui une success story“, explique Sanfratello.
Cette initiative doit évidemment s’insérer dans une stratégie plus globale pour développer le commerce à Liège. Il faut un cadre adapté à 2018. La question des ouvertures le dimanche et après 18 heures doit ainsi être posée.
4. Ramener l’université au centre-ville
Le constat. Le rêve d’un campus universitaire décentré mais générateur d’une nouvelle urbanisation dans le cadre de l’extension naturelle de la ville n’a pas pris. Cinquante ans après le déménagement de l’université sur le site du Sart Tilman, le campus reste morcelé, génère peu de vie et cause des problèmes endémiques de mobilité faute de logements et de divertissements sur ou à proximité du site. Le bus 48 est pris d’assaut et ne suffit pas à transférer la population étudiante du centre vers le campus.
Les solutions. “Pourquoi ne pas redescendre l’université en ville ?“, s’interroge Philippe Lallemand. L’idée n’est pas totalement neuve et a déjà été initiée par Arthur Bodson dès les années 1990. Certaines sections ont depuis fait l’objet d’extension en ville au centre Opéra notamment.
“Les étudiants préfèrent la ville et ne montent au Sart Tilman que pour leurs cours“, constate Laurent Minguet, qui regrette encore la vente du Val Benoît, ancien institut des ingénieurs et devenu un centre d’affaires. “Et il y a de plus en plus de bâtiments de grande taille disponibles en ville.” La Banque nationale est vide et à vendre par exemple, rappelle Serge Rangoni.
“Il faut bien reconnaître en outre que le Sart Tilman a vieilli. Comme nous…“, reconnaît Lallemand.
Le “rapatriement” de tout ou partie de l’université vers la ville ne doit cependant pas remettre en question le développement du parc scientifique qui s’est installé dans sa périphérie. “EVS s’est installé là-bas, mais nous n’allions jamais à l’univ pour autant“, se souvient Minguet.
“Le fait d’avoir une université en ville n’est pas si courant et cela peut avoir un effet bénéfique en termes d’image“, renchérit Lallemand. Sans compter l’apport économique accru de la population étudiante sédentarisée.
Quant aux bâtiments du Sart Tilman, “ils pourraient être réhabilités et recyclés en logements, notamment pour les personnes âgées, plus demandeuses de calme et d’espaces verts que les étudiants“, lance Minguet.
5. Le chauffage urbain alimenté par les industries
Le constat. On ne vous fait pas un grand discours: l’efficacité énergétique est un enjeu majeur, que ce soit pour des raisons environnementales ou économiques. Les villes peuvent être des acteurs importants en la matière. Or, Liège a un atout dans sa manche…
La solution. La Ville de Liège devrait mettre en oeuvre, comme à Copenhague et de nombreuses villes d’Europe, un réseau de chauffage urbain alimenté par la chaleur fatale des industries et de l’incinérateur Uvelia (situé à Herstal) ou de chaufferie biomasse comme alternative au chauffage au gaz. C’est Resa qui devrait réaliser les investissements avec les revenus de distribution de gaz et d’électricité pour développer son métier futur de distribuer la chaleur (verte). “La chaleur de l’incinérateur Uvelia est gratuite, pérenne, elle n’est pas valorisée actuellement et elle est suffisante pour alimenter toute la ville“, précise Laurent Minguet. On évite ainsi la consommation d’énergie fossile et on participe à la lutte contre le changement climatique. “Quitte à imposer aux ménages de se raccorder à ce réseau de chaleur et de renoncer au mazout“, poursuit-il.
Le prix peut être un peu moins cher qu’avec les méthodes de chauffage actuelles. Dire aux gens qu’ils vont participer à lutter contre la pollution tout en réduisant leur facture énergétique, c’est possible et c’est motivant!
Liège est probablement la première ville de Wallonie où cet investissement est prioritaire. La Ville pourrait évidemment accélérer l’obtention des permis voiries indispensables et, probablement, jumeler ces travaux avec ceux du futur tram. “Naturellement, il faut ouvrir les trottoirs. Le passage au réseau de chaleur ne peut donc pas se faire en quelques mois. Il faudrait compter plusieurs années“, reconnaît Minguet.
Lire l’article original d’Alain NARINX et Laurent FABRI dans LECHO.BE (4 octobre 2018)
Temps de lecture : 3minutes > “Faut-il s’appeler George pour être prise au sérieux ?” (ISBN 9782755635393)
Le déni ou la minimisation des contributions des femmes scientifiques à la recherche porte un nom : on parle de l’effet Matilda, en mémoire d’une militante des droits des femmes américaine, Matilda J. Gage (1826-1898).
“Qui a mis en évidence l’anomalie du chromosome responsable de la Trisomie 21 ? Pendant un demi-siècle, le nom de la brillante scientifique à qui l’on doit l’expérience ayant permis cette découverte, Marthe Gautier, a été occulté. En mai 1958, dans un laboratoire de cytogénétique de l’hôpital Trousseau à Paris, la cheffe de clinique parvient à comparer le nombre des chromosomes des cellules d’enfants atteints de la Trisomie 21 – 47 – avec celui d’enfants non atteints – 46. L’expérience permettra d’attester que la maladie est liée à un chromosome surnuméraire (pour la 21e paire).
Son patron, le professeur Raymond Turpin, spécialiste du mongolisme, comme dénommé à l’époque, pense depuis longtemps que cette maladie mentale a une origine innée. Marthe Gautier, qui a appris lors de son stage aux Etats-Unis comment cultiver des cellules humaines, lui propose de réaliser l’expérience, dans une petite pièce du laboratoire qu’elle aménage.
“Pour cultiver des cellules“, relate-t-elle au Monde, “il me fallait notamment du sérum et du plasma. Le sérum, eh bien j’ai pris le mien ! Et pour le plasma, je suis allée dans une ferme chercher un coq. Je l’ai installé dans un coin de la cour de l’hôpital, et j’allais le piquer à la veine alaire chaque fois que j’avais besoin de plasma. Cela ne me faisait pas peur, je suis née dans une ferme, j’ai l’habitude des animaux.”
Un jeune stagiaire du CNRS travaillant dans le même service, Jérôme Lejeune, comprend l’importance de la découverte. Il propose à Marthe Gautier de photographier ses lames d’observation microscopique de chromosomes et part dans un congrès à Montréal présenter les résultats… en s’attribuant seul leur paternité.
L’année d’après, en 1959, paraît un article dans la presse scientifique pour annoncer la découverte. Le nom de Marthe Gautier n’apparaît pas en premier, la position habituellement réservée aux chercheurs ayant mené les expériences. A la place, celui de Jérôme Lejeune, puis celui de la scientifique, mal orthographié et faussé (“Marie Gauthier”), et enfin du professeur Turpin, chef responsable de l’hypothèse de départ.
“Jeune femme dans un monde masculin, simple fille de paysans“, Marthe Gautier ne se bat pas tout de suite pour rétablir la vérité. Elle retourne à ses recherches et se consacre à la cardiopédiatrie. Jérôme Lejeune, lui, remporte le prix Kennedy pour “sa” découverte sur la Trisomie 21. Ouvertement anti-avortement, le professeur de médecine s’est vivement opposé par la suite au dépistage de la maladie in utero, pour empêcher les IVG.
Cinquante ans après sa découverte, en 2009, Marthe Gautier publie un article pour relater sa version de l’histoire. “J’ai le sentiment d’être la ‘découvreuse oubliée’“, écrit-elle. La même année, elle reçoit le Grand Prix de la Fédération française de génétique humaine. En 2014, le comité éthique de l’Inserm reconnaît enfin le rôle de la scientifique dans la découverte de la Trisomie 21. Le comité estime que “la part de Jérôme Lejeune est sans doute très significative dans la mise en valeur de la découverte au plan international“, mais “a peu de chance d’avoir été prépondérante” dans la découverte du chromosome surnuméraire. Marthe Gautier, 88 ans, reçoit la Légion d’honneur. […]
Marthe Gautier est l’une des 75 femmes célébrées dans le livre du collectif Georgette Sand, Ni vues, ni connues (Paris, Hugo & Co, 2017). L’ouvrage veut redonner une place dans l’histoire à des scientifiques, artistes, intellectuelles, militantes ou aventurières oubliées.”
“Lors de la parution de son premier livre, Maria TREBEN laissait derrière elle une vie bien remplie, non dépourvue de vicissitudes mais néanmoins heureuse. Elle s’était montrée très sceptique quant à l’intérêt qu’allaient susciter ses conseils et son expérience concernant les plantes médicinales puisque les librairies regorgeaient de livres sur les plantes, l’un plus beau que l’autre. Cependant, il en fut tout autrement. Son livre La santé à la pharmacie du bon Dieu dont les ventes étaient de plus en plus prometteuses, accéda très rapidement à la première place sur les listes des meilleures ventes. Un quotidien allemand de renom déclara même que le premier livre de Maria Treben était le best seller du siècle. A l’heure actuelle, plus de 12 millions d’exemplaires de ses livres ont été vendus et sont traduits dans plus de 20 langues. Ils ont propulsé leur auteur au rang de spécialiste mondiale des plantes médicinales et Maria Treben à été obligée d’échanger une retraite tranquille contre une vie active faite de rendez-vous. Cette contrainte n’a été possible que grâce à sa vitalité et son hygiène de vie. Elle a accepté ce sacrifice de manière désintéressée pour apporter aux gens un savoir qui était menacé de disparition. […] Maria Treben est née à Saaz, en Autriche…” [extrait de la présentation de l’éditeur Ennsthaler]
L’Elixir suédois (les Herbes du Suédois)
Ingrédients :
10 g de poudre d’Aloès*
5 g de Myrrhe
0,2 g de Safran
10 g de feuilles de Séné
10 g de Camphre**
10 g de racine de Rhubarbe
10 g de racine de Zédoaire
10 g de Manna
10 g de Thériaque Vénitienne
5 g de racine de Carlinae
10 g de racine d’Angélique
Les composants ci-dessus sont mis dans un flacon de 2 litres, à large col, fermant bien. Y verser 1,5 litre d’alcool à 38-40° ou de bon alcool de fruits et laisser macérer pendant 15 jours au soleil ou près d’un poêle (200 environ). Agiter le flacon tous les jours ainsi qu’ultérieurement, avant chaque prélèvement ou usage. Au bout de 15 jours on peut commencer à prélever de la liqueur dans une petite fiole fermant bien et qu’on conservera au réfrigérateur. L’alcool et les plantes peuvent rester ensemble indéfiniment. Plus vieille est la liqueur, meilleure elle est.
* On peut remplacer l’aloès par de la poudre d’absinthe.
** Le camphre doit être du camphre naturel et uniquement d’origine chinoise.
Extraits…
“Cette recette du célèbre médecin suédois, le Dr. Samst, Recteur de l’Académie de Médecine, a été trouvée, écrite de sa propre main, après sa mort. Le Dr. Samst mourut à 104 ans d’une chute de cheval. Ses parents et grands-parents avaient atteint eux aussi un âge canonique. Bien que cela semble une fable, ce qui va suivre s’est passé véritablement ainsi : j’étais une jeune femme, quand j’arrivai gravement malade, près de Lembach im Möhlviertel. La guerre nous avait chassés du territoire des Sudètes et dans un camp de réfugiés, en Bavière, j’étais tombée malade. J’avais attrapé le typhus et une intoxication par la viande (botulisme) qui évoluèrent en une jaunisse et une occlusion intestinale. Je restai plus de 6 mois à l’hôpital. Quand mon mari nous fit venir en Autriche ma mère, ma belle-mère, notre enfant et moi, j’étais si faible que mes jambes flageolaient. La nuit j’avais des douleurs qui me perçaient le ventre comme une épée. En même temps se déclenchaient des vomissements et des diarrhées spasmodiques. Je n’étais plus qu’un paquet de souffrance. Le médecin reconnut là, des douleurs, séquelles du typhus, qui souvent se maintiennent pendant de longues années. Un jour, une femme que je ne connaissais pas, m’apporta une fiole remplie d’un liquide très odorant. Elle avait appris ma maladie et voulait m’aider. Avec le flacon elle avait apporté la copie d’un manuscrit antique où, en 46 points, il était dit comment ces herbes guérissaient chaque maladie. Ces Herbes du Suédois l’avaient guérie elle aussi d’une grave maladie. Cette recette venait de l’héritage d’un médecin suédois renommé. Tous les membres de la famille avaient atteint un âge inhabituellement avancé. Les gouttes de Liqueur du Suédois guérissent, d’après le point numéro 43 : les ulcères et les bubons pesteux, même lorsqu’ils sont dans la gorge. Je rangeai la fiole dans la pharmacie familiale. Je ne croyais vraiment pas que ces gouttes toutes simples me rendraient la santé. J’ai rapidement changé d’avis. J’étais assise devant une immense corbeille de poires mûres, dont il fallait s’occuper rapidement quand une nouvelle crise se déclencha. Après que l’on m’eut confirmé que ces gouttes n’avaient pas seulement un usage interne, mais qu’on pouvait aussi les utiliser en usage externe, je ne tergiversai pas longtemps. J’humectai un tampon de coton sur lequel je mis un morceau de Nylon et glissai cet emplâtre sous mon porte-jarretelles et me remis à mon travail. Une impression merveilleuse envahi mon corps et j’eus la sensation d’être délivrée, comme si quelqu’un m’avait enlevé, en un tour de main, toute la maladie de mon corps. Je vous garantis que toutes les souffrances de ces derniers mois ont été comme effacées par ce simple emplâtre, que j’ai gardé toute une journée sous mon porte-jarretelles. La maladie a été balayée, je n’ai plus jamais eu de nouvelle crise. Mon fils qui avait 6 ans fut attaqué par un chien-loup et affreusement mordu au visage. Des cicatrices rouge sombre, boursouflées, s’étendaient du nez vers la bouche. Il apparait, au n° 33 du manuscrit antique, que “Toutes les cicatrices, blessures et coupures, même si elles sont anciennes, disparaissent si on les badigeonne 40 fois avec la liqueur”. Aussi, chaque soir, avant de le mettre au lit, j’ai tamponné les cicatrices de mon fils. Elles se sont effacées rapidement, même celles qui affectaient profondément le nez.
Maria TREBEN (1907-1991)
J’enregistre cette expérience et, en 1953, je m’installai ä Grieskirchen. Je visitai un jour une exploitation agricole et je rencontrai la jeune fermière, mère de 2 enfants, dans l’étable en train de traire. En guise de bonjour, elle me dit “Fais-moi ce que tu veux, je suis à bout, je me laisse faire.” Elle avait depuis des semaines, des maux de tête insupportables et, comme le médecin redoutait une tumeur cérébrale, elle devait aller ä Linz se faire radiographier. Le même jour, j’envoyai mon fils lui porter une fiole de Liqueur du Suédois afin qu’elle puisse se faire un emplâtre et passer la nuit sans maux de tête. Quelle ne fut pas ma surprise, quand, le lendemain matin, le fermier frappa à sept heures à ma porte : « Qu’as-tu donné à ma femme ? Deux minutes à peine après la pose de l’emplâtre, les douleurs se sont évaporées. Ce matin, elle a rejeté deux morceaux gros comme le doigt d’une matière, rouge brun, qui lui étaient descendus du nez dans la gorge. » C’était une infection des sinus, négligée depuis longtemps, et qu’une seule application avait guérie. Aujourd’hui encore, la fermière ne jure que par la Liqueur du Suédois. Il y a quelques années, elle a soigné sa fille avec des enveloppements, et l’a guérie d’une grave inflammation pulmonaire. La Liqueur du Suédois ne manque jamais dans sa pharmacie. Une femme souffrait depuis des mois d’une très douloureuse suppuration des sinus. Sa respiration par les narines était devenue impossible. Parallèlement s’étaient développées des douleurs intolérables. De puissants antibiotiques et des séances de radiothérapie n’amélioraient pas son État. Dès la première application, une amélioration se manifesta. A partir de la troisième, dans la nuit, les voies respiratoires étaient libérées et de gros morceaux de pus furent évacués par les narines. Je connaissais de vue une femme, qui, après la naissance de son sixième enfant, n’était plus que l’ombre d’elle-même. Un jour, je lui parlai et j’appris que, pour le moment, elle ne pouvait plus rien manger. Elle avait été obligée de mettre ses enfants en nourrice. Je lui conseillai de la Liqueur du Suédois. Environ trois semaines après, je la rencontrai resplendissante de santé. Les gouttes avaient fait merveille. Elle pouvait se nourrir normalement et avait repris ses enfants à la maison. « C’est comme si une bête avait soudainement été chassée de mon corps », me dit-elle, et ajouta que sa mère avait un pied terriblement enflé qui avait nécessité son hospitalisation. Elle ne pouvait plus se déplacer qu’avec une canne. Soixante-quinze piqûres n’avaient pas apporté de quelconque amélioration. Elle avait envoyé à sa mère la copie du vieux manuscrit et lui avait conseillé de faire usage des Herbe du Suédois. L’effet avait été très rapide, le pied Était revenu à son État normal et la canne superflue. Un jour, je reçu d’Allemagne, une lettre d’une de mes connaissances qui me priait de m’occuper de sa nièce, qui Était, présentement, en cure à Gallspach. Quand la jeune femme vint me voir ä Grieskirchen pour la première fois, je fus bouleversée. On la sortit de la voiture, puis on lui glissa deux béquilles sous les aisselles ; le corps estropié eut besoin, malgré l’aide, de plus d’un quart d’heure pour se trainer jusqu’à mon premier Étage. Les articulations des deux pieds étaient déformées, les doigts et les mains crispés et incapables de tenir quoi que ce soit. Pendant la marche, les pieds étaient traînés et le corps brusquement rejeté en avant. Je restai stupéfaite devant ma porte, les deux mains croisées sur la poitrine et ne pus énoncer que cette question: « Qu’est-ce qui vous a donc mise dans cet État, ma pauvre jeune femme? » « Cela m’est arrivé en une nuit, après la naissance de mon quatrième enfant », me dit-elle. Subitement, en une nuit, cette jolie femme n’était plus qu’une invalide clouée au lit. En Allemagne, elle avait été renvoyée de médecin en médecin, aucun n’avait pu améliorer son État. Pendant 4 années consécutives, elle était venue deux fois l’an, faire une cure dans la clinique du Dr. Zeileis à Gallspach, qui lui avait dit qu’il ne pouvait que la soulager, pas la guérir. C’était un spectacle poignant que de voir ses pauvres mains retournées qui portaient maladroitement sa tasse de café à ses lèvres. Je lui conseillai les Herbes du Suédois qu’à cette époque on trouvait dans les pharmacies allemandes, sous le nom de Crancampo. Aujourd’hui bien des pharmacies préparent les Herbes du Suédois selon la recette originale. Ce conseil ne donna à la jeune femme qu’un très faible espoir. C’était en février 1964. En septembre de la même année, je reçu un coup de téléphone de Gallspach, par lequel elle annonçait sa visite ä Grieskirchen et, me priait de venir la chercher à l’arrivée du car. Je fus stupéfaite et restai sans voix, quand je vis descendre du véhicule une jeune femme souriante qui avait seulement besoin d’une canne pour se soutenir. Les crispations et déformations des mains avaient disparu, ainsi que la plupart de celles des jambes. Seule subsistait une certaine enflure au genou et à la cheville gauche. Une année après, le 3 août 1965, tout était en ordre. Elle faisait sa dernière cure à Gallspach, sans canne et pleine de la joie de la santé retrouvée. Les reins avaient souffert pendant son quatrième accouchement et avaient déclenché ces effrayantes déformations. Tous les jours, trois fois elle avait dilué une cuillerée à soupe de Liqueur du Suédois dans un peu d’eau tiède qu’elle avait bue lentement, par moitié, avant et après chacun de ses repas, par gorgées. Quoique préparée avec de l’alcool, ses reins avaient bien supporté la préparation.
Il faut que je vous rapporte encore un cas vous montrant les incroyables résultats qui sont obtenus avec les Herbes du Suédois.
Ma sœur qui vit en Allemagne, me parla d’une de ses relations de Leipzig, qui souffrait depuis 15 ans dans une chaise roulante. Cette femme vécut pendant les années de guerre à Prague et, comme des milliers d’autres allemands, avait été obligée d’aller vivre dans la cave, où elle resta des semaines entières, sans paille, ni quoi que ce soit pour se coucher dessus. Ultérieurement, elle put partir pour Leipzig avec son mari. Peu de temps après, de graves déformations des articulations apparurent. Et puis sa vie se passa dans une chaise roulante. J’appris cela, seulement quand son mari mourut brusquement et la laissa seule à son triste sort. La paralysée dut quitter son appartement et fut relogée dans une chambre meublée. Il est interdit d’envoyer d’Autriche en R.D.A., des plantes ou autres produits médicaux. Je devais donc faire passer les Herbes du Suédois par une localité frontalière bavaroise, d’où elles étaient réexpédiées à Leipzig et, cela tous les deux mois. Bientôt je reçu des lettres teintées d’espoir. La malade prenait, trois fois par jour, une cuillerée à soupe de la Liqueur du Suédois, diluée dans de l’eau et ce, par moitié, avant et après chacun de ses repas. Les déformations régressaient lentement et les articulations perdaient de la raideur. […] Neuf mois après, l’amélioration était telle, qu’après 15 ans de chaise roulante, elle put sortir de son logement pour la première fois. Les progrès continuèrent et bientôt elle put nettoyer ses vitres et aussi accomplir d’autres tâches quotidiennes, que, jusqu’alors, des âmes compatissantes avaient effectuées pour elle. […]
Nous étions au lac d’Offen et nous nous servions d’un tronc d’arbre équarri pour nous asseoir au bord de l’eau. Un jour, nous trouvâmes le tronc appuyé contre la clôture de la pâture voisine. Tout à côté j’avais posé mon sac de plage. Avant de rentrer à l’hôtel, j’étais courbée sur le sac, en train de le mettre en ordre. Soudain, je fus comme foudroyée. La lourde pièce de bois m’était tombée directement sur la jambe. Au niveau du genou, j’avais une plaque bleu-rouge foncé et deux bosses de la grosseur du poing. On me porta dans la voiture et on me monta dans notre chambre. Mon mari voulut aller chercher un médecin ä Ebensee, mais je lui demandai de me faire un enveloppement avec de la Liqueur du Suédois. Environ 1/2 heure après, je pus descendre seule l’escalier pour aller à la salle à manger. Le lendemain, la jambe avait repris son aspect normal. Pas une ecchymose n’était visible et les deux grosses bosses avaient disparu… »
“Faut-il renoncer à maîtriser la circulation de nos données ? Le point sur ces informations personnelles que les acteurs du marché pillent, avec notre accord.
Vous avez l’impression d’être espionné sur le Web et personne ne vous croit? Faites le test de Lightbeam sur votre ordinateur. L’application du navigateur Firefox pour internautes paranos permet de visualiser le voyage de vos informations personnelles au fur et à mesure que vous passez d’une page à l’autre, et c’est bluffant. Tentez ce qui suit. Réservez un voyage, vérifiez l’itinéraire sur Google Maps, et prévenez vos amis sur Facebook: vous vous êtes rendu sur trois sites ou applications; mais, avec ses graphes mobiles qui mangent tout l’écran en quelques minutes, Lightbeam vous montre que, en réalité, une centaine de sites partenaires et régies publicitaires sont au courant de votre visite et ont obtenu de nouvelles données sur vous, sans aucun consentement de votre part…”
Temps de lecture : 3minutes > Marc Swyngedouw (c) Téo Beck
3 questions à Marc Swyngedouw, Professeur en Sociologie et Méthodologie politique à la KUL. Il a présidé le Centre de Recherche sociologiques (CeSO) et est Directeur de l’Institut de sondages d’opinions sociaux et politiques (ISPO).
Quelle est la position des éditeurs face aux sondages ?
Il y a 20 ans d’ici, les pratiques étaient différentes. Il y avait un bureau de sondages qui menait des enquêtes en face à face sur des échantillons quota ou aléatoires (tirés au hasard dans la liste des électeurs) et qui ensuite proposait les résultats aux médias. Aujourd’hui, les choses ont bien changé. Ce sont les éditeurs qui font régulièrement appel aux bureaux de sondage. Pour réduire les budgets, ils se regroupent souvent à plusieurs médias et optent pour une formule pas trop coûteuse comme ça ils peuvent publier plusieurs sondages par an. L’enquête d’opinion est devenue un moyen de produire du contenu dont les éditeurs contrôlent le processus. Ils sont à la fois les mandataires et les interprètes des résultats. Ça fait vendre, ça fait de l’audience, alors ils publient.
La publication de résultats de sondages nuit-elle à la qualité de l’information politique ?
Clairement oui. Et de plus en plus. Déjà le changement de méthodologie impacte la qualité. On n’a quasi plus que des sondages électroniques et/ou par téléphone. On a déjà un fameux biais dans le choix de l’échantillon. Le sondé doit être dans le bottin ou avoir une connexion internet et savoir manier les outils informatiques. Pire. Des bureaux d’études de marché qui réalise régulièrement des sondages pour certains groupes de presse francophones, mènent leurs enquêtes sur base de panélistes volontaires qui s’inscrivent pour participer à des sondages par mail. On n’a plus d’échantillon aléatoire dans ce cas. Les résultats ne peuvent vraiment pas être représentatifs. On peut leur faire dire tout et son contraire. Et c’est malheureusement ce qui arrive de plus en plus. Sur base d’une réalité virtuelle déconnectée de la réalité, on débat de l’avenir de la politique. C’est très contestable.
Comment les médias devraient-ils traiter les sondages ?
Il faut que les rédactions prennent conscience de ce qu’elles diffusent. Baseraient-elles un dossier politique sur un entretien téléphonique avec Madame Soleil ? Il faut donc une base de travail de qualité, c’est-à-dire des enquêtes en face-à-face (quota ; random walk) ou postale (méthode Dilman).
C’est une responsabilité journalistique de diffuser des résultats. Quel que soit le document qui sert de source, le journaliste doit se poser les bonnes questions. Qui a été interrogé ? Comment ? Quelle est la marge d’erreur ? En cas de panélistes volontaires, on ne peut pas calculer la marge d’erreur. Il faut que les journalistes aient la liberté et le temps de le faire. Si l’enquête n’est pas représentative, alors rien ne sert de communiquer des résultats. Il faut de l’honnêteté intellectuelle envers les citoyen.ne.s, et d’autant plus pour les chaines du service public.
Les instituts de sondage, membres de Febelmar, la fédération belge des instituts de recherche, doivent enregistrer la fiche technique détaillée du chaque sondage politique. Tout est consultable librement sur leur site. Combien de journalistes vont voir ces données publiques et les prennent en considération ?
Enfin, c’est regrettable qu’il n’y ait pas d’études disponibles de l’impact des sondages sur le résultat des élections en Belgique. Ce serait très intéressant que des chercheurs s’y intéressent !
“Plus de 20 ans avant la naissance de l’internet moderne, le Canadien Marshall McLuhan en décrivait les fondements et les possibles dérives. Retour sur les prédictions de ce sociologue définitivement en avance sur son temps.
UNE ÉPOQUE CHARNIÈRE
À l’aube des années 1960, la communauté scientifique, galvanisée par les récentes avancées techniques et technologiques, imagine déjà un futur proche avec des voitures volantes, des villes bâties sur la Lune, et une espérance de vie moyenne dépassant les 150 ans.
En 1962, le sociologue canadien publie un livre intitulé La Galaxie Gutenberg. Dans celui-ci, McLuhan suggère que l’humanité a connu quatre âges successifs : l’oralité, l’écriture, l’impression et l’électronique.
Il décrit l’ère électronique comme un « village global », un endroit où l’information est accessible à quiconque et disponible à tout moment grâce à la technologie.
À une époque où l’informatique n’en est encore qu’à ses premiers balbutiements, le Canadien voit déjà l’ordinateur moderne comme un “instrument de recherche et de communication” qui s’avèrera indispensable au bon fonctionnement du “village global” en “améliorant la récupération des données, leur centralisation et leur accès”, et en permettant “de les modifier rapidement”…”
Claire GERARDIN a publié cette chronique dans le blogue du réseau social LINKEDIN.COM :
“On associe le Darknet à la vente de drogue, au trafic d’armes, aux tueurs à gages, au terrorisme, ou encore à la pédophilie. Mais c’est une vision partielle du Darknet. On y trouve de tout, mais aussi une alternative à l’internet traditionnel, utile pour de nombreuses activités vitales à la démocratie.
A l’origine du Darknet
Le Darknet est un réseau internet alternatif à celui que nous utilisons tous les jours, où il est difficile de collecter des données personnelles, et d’identifier les utilisateurs. On devrait d’ailleurs parler des Darknets, car il en existe des dizaines. Freenet, I2P, GNUnet, et Tor sont les plus utilisés. Ce dernier est le plus célèbre d’entre eux, avec 2 millions d’utilisateurs par jour. La France en est le 6ème utilisateur au monde derrière l’Allemagne, les Etats Unis, Les Emirats Arabes Unis, la Russie et l’Ukraine (selon les metrics de Tor).
Les Darknets ont été inventés dans les années 1970 par le gouvernement de la marine américaine, qui avait besoin d’anonymiser ses connexions. Ils créèrent alors des réseaux isolés d’Arpanet (l’ancêtre de l’Internet) capables d’échanger des données de manière non traçable. Le terme est devenu public en 2002 suite à un article rédigé par quatre employés de Microsoft. Ils y décrivaient l’incidence négative des Darknets sur la gestion des droits d’auteurs, et proposaient de développer des outils de DRM (gestion des droits numériques) pour y remédier.
En ce qui concerne Tor, bien qu’il soit aujourd’hui maintenu par une organisation à but non lucratif – le Tor Project, auquel contribuent de nombreux mécènes comme l’Electronic Frontier Foundation, Human Rights Watch, la Freedom of the Press Foundation – le réseau est encore financé à 90% par le gouvernement américain au titre de la lutte contre la censure et la surveillance dans certains pays (comme la Chine ou l’Iran, par exemple). C’est ce qui fait dire à Jean-Philippe Rennard, économiste et informaticien, que « l’administration américaine tient un double discours. D’un côté elle soutient Tor, et de l’autre, c’est-à-dire dans le cadre de la lutte contre le terrorisme, elle le dénonce » (France Culture, La méthode scientifique, Adieu Darknet, bonjour Librenet, 29/03/2017).
Clearnet, Deep Web, Darknet … les définitions
Clearnet : c’est le terme utilisé par les utilisateurs du Darknet pour décrire l’internet traditionnel. Google.com est par exemple un site web hébergé sur le clearnet. Le niveau d’anonymat y est relativement faible car la plupart des sites identifient les utilisateurs par leur adresse IP et collectent leurs données.
Deep web : c’est la partie du web qui n’est pas indexée par les moteurs de recherche. Par exemple, lorsque l’on recherche des statistiques sur le site de
l’Insee, cette requête n’est pas indexée par les moteurs de recherche. Nos documents stockés dans Google Drive n’y sont pas non plus. C’est en fait la plus grande partie du web, car beaucoup de données personnelles sont stockées dans le cloud. On le confond souvent avec le Darknet, mais il n’a en fait rien à voir avec ce dernier.
Les Darknets : ils constituent la partie anonymisée d’internet, et représentent une fraction minime de l’internet dans son ensemble. Pour naviguer sur l’un de ses réseaux, Tor par exemple, il suffit de télécharger l’application Tor Browser. En faisant transiter les connexions vers un réseau de trois « nœuds » (des serveurs) choisis au hasard –c’est ce que l’on appelle le routage en oignon, d’où l’acronyme de Tor , The Onion Router– et en cryptant le contenu des communications, l’identification et la collecte de données est rendue compliquée. Les fournisseurs d’accès à internet peuvent voir lorsque l’on utilise un réseau du Darknet mais ne peuvent pas savoir ce qu’on y fait.
Les Darknets pour quoi faire ?
Ils servent à réaliser des opérations illégales –c’est le cas par exemple des sites Silk Road, AlphaBay ou encore Hansa qui ont été fermés et condamnés par le FBI- mais aussi à communiquer et à rechercher des informations sans être repéré par des gouvernements ou autres organisations. Il est donc beaucoup utilisé par des journalistes, des lanceurs d’alertes, des dissidents et des cyber-militants. On y trouve aussi des militaires, des policiers, et des citoyens souhaitant préserver leur vie privée.
Les premiers promoteurs des Darknets sont les associations de journalistes. Par exemple, Reporter sans Frontières propose un kit de survie numérique, qui n’est rien d’autre qu’un guide d’accès au Darknet. Le Centre for Investigative Journalism (TCIJ) en Grande Bretagne propose le même type d’outil. Il s’agit de protéger les journalistes et leurs sources car, même en Europe, ils peuvent faire l’objet de fortes pressions. Et dans les pays très peu soucieux des libertés individuelles, où certains sujets ne peuvent être abordés librement, les Darknets permettent de contourner ces interdictions.
Sans Darknets pas d’Edward Snowden, de Chelsea Manning, ou encore de Panama Papers. Ils permettent de révéler des scandales d’Etat et actions illégales, et de les dénoncer de manière anonyme. Car même dans nos pays démocratiques, ce type de dénonciation est susceptible d’être poursuivie. Ce fut le cas par exemple avec la condamnation des deux lanceurs d’alertes dans l’affaire des Luxleaks.
Et enfin, les Darknets ont permis à certains dissidents chinois, opposés au régime en place, de relayer leurs idées ; aux communautés homosexuelles russes, ukrainiennes ou ougandaises de s’exprimer ; ou encore aux Printemps Arabes de voir le jour.
« Le grand méchant Darknet »
“Ceux qui nous frappent utilisent le darknet” avait affirmé le ministre de l’intérieur Bernard Cazeneuve face à l’Assemblée nationale, en réaction aux attentats qui avaient frappé l’aéroport et une rame de métro à Bruxelles le 22 mars 2016. Il est récurrent de diaboliser ces réseaux car cela permet aux politiques de trouver des boucs émissaires, et aux entreprises qui vivent de la collecte de données privées de les décrédibiliser. C’est pour cette raison que certains médias ironisent en le qualifiant de « grand méchant Darknet » (France Inter, Affaire Sensibles, Grand Méchant Darknet, 28/11/2017). Alors que les derniers attentats en Europe ont montré que les terroristes privilégient des moyens de communication très banals comme des téléphones jetables, les réseaux sociaux et des applications de messagerie cryptées à l’instar de Telegram. Et que l’on sait que les sites illégaux ne représenteraient que 2 % des sites atteignables via Tor (Etude de l’Université de Portsmouth, 2016).
Ce n’est donc pas l’outil qui doit être condamné –puisque c’est à nous de décider de l’utilisation que l’on souhaite faire des Darknets- mais certains de ses usages. Car on a le droit, et parfois le besoin, de ne pas être tracé en permanence.”
“Les 28 volumes de l’Encyclopédie de Diderot et d’Alembert sont désormais en ligne sur le site de l’Académie des sciences. Une interface numérique aboutie permet de découvrir dans toute sa richesse la plus incroyable entreprise éditoriale du XVIIIe siècle. Alexandre Guilbaud, qui a piloté le projet, nous en dévoile les grandes lignes.
C’est un véritable monument du siècle des Lumières qui s’ouvre au public. À l’occasion du tricentenaire de la naissance de d’Alembert, la célèbre Encyclopédie de Diderot, d’Alembert et Jaucourt (le troisième éditeur de l’ouvrage, qu’on oublie toujours de citer !) est désormais accessible en ligne sur le site de l’Académie des sciences dans la première édition critique jamais réalisée. C’est le résultat d’un chantier presque aussi titanesque que celui de la publication, entre 1751 et 1772, des 28 volumes de l’Encyclopédie : il aura en effet fallu plus de six ans à l’équipe du projet ENCCRE (Édition numérique, collaborative et critique de l’Encyclopédie), piloté par l’historien des mathématiques Alexandre Guilbaud, pour aboutir à cette édition numérique. Et c’est loin d’être terminé : si l’intégralité du Dictionnaire raisonné des sciences, des arts et des métiers est aujourd’hui ouverte à la consultation, l’ajout des notes et commentaires destinés à éclairer la lecture des 74.000 articles de l’Encyclopédie n’en est qu’à ses débuts…”
Lire la suite de l’article de Laure CAILLOCE sur LEJOURNAL.CNRS.FR (18 octobre 2017)…
Affiche de l’exposition à la Bibliothèque Mazarine (Paris, FR)
Une exposition a été organisée en 2017-2018 à la bibliothèque Mazarine, qui mettait en relation l’exemplaire original détenu par la Mazarine et l’édition numérique. Elle donnait à voir ce que fut le travail de l’Encyclopédie au XVIIIe siècle, et ce que représente son édition critique au XXIe. Elle mettait également en valeur l’architecture complexe de l’ouvrage, restituait son histoire éditoriale mouvementée, et montrait comment l’Encyclopédie réalisa une ambition fondamentale : “changer la façon commune de penser” (Diderot). [lire la suite de l’article sur ACTUALITTE.COM…]
Plus d’enjeux liés aux dispositifs mis en place par l’Homme…
“Chers étudiants fraîchement sortis de rhétorique, comment devez vous annoncer à un patient ‘fragile’ qu’il est atteint d’une maladie incurable ?
Veuillez sélectionner la bonne réponse.
A. Devez-vous le dire au patient en premier ?
B. A sa famille en premier ?
C. Ne devez vous pas le dire ?
C’est un extrait, à peu de choses de prêt, de l’examen d’entrée dont la première édition s’est déroulée début du mois et qui a enregistré un taux de succès de 18%. Un examen qui, rappelons le, a été soutenu massivement à la fois par certain(s) syndicat(s) médicaux corporatistes et conservateurs, par certains partis francophones (MR et CDH) et par une Flandre (Open VLD, CD&V, et NVA) désirant imposer sa vision de l’accès à la médecine aux francophones.
Comment peut on donner du crédit à cet examen à la lecture de certaines questions comme celle exposée ci-dessus ? N’importe quel praticien sait, de par son expérience et ses connaissances de la loi, qu’il n’existe pas une seule bonne réponse à de telles questions et que l’attitude à adopter dépend fortement de nombreux facteurs contextuels gravitant autour du patient (âge, pathologie, famille, etc.). Comment peut-on évaluer ce genre d’aptitude chez des jeunes de 17-18 ans qui n’ont jamais vu un patient et qui n’ont jamais expérimenté la médecine sur le terrain ?
Le premier constat qu’on peut tirer de cet examen concerne l’utilité réelle de questionner des étudiants sur des faits de pratique quotidienne de l’art de la médecine avec des questions aussi fermées, un art qui restera un rêve brisé pour 82% d’entre eux.
Le deuxième constat que nous pouvons tirer se base sur un fait consternant: cet examen qui se veut “sélectif” des gens “aptes” à réussir les études de médecine a recalé de nombreux reçus collés, à savoir des étudiants qui avaient déjà réussi leur première (ou leur deux premières années de médecine !) et qui ne figuraient pas dans les quotas du concours de l’année dernière…”
Verviétois par la naissance (en 1961) mais namurois de fait, Eric Van de Poele n’aura de cesse de griller les étapes pour atteindre son but : la Formule 1. Il se choisit dès lors une école de pilotage parmi celles qui fleurissent en Europe et rafle la mise à La Châtre. Il plonge en championnat de France (Formule 3) puis revient en Belgique gagner le titre Formule Ford. Il joue ensuite la carte des voitures de tourisme où il est intégré au BMW Junior Team, évoluant en Allemagne.
En 1987, dans le prestigieux championnat de tourisme allemand (le DTM), il coiffe la couronne, ayant de plus signé le premier de ses quatre succès aux 24 Heures de Spa. Il reviendra à la monoplace dans la série Formule 3000 d’où il émerge vice-champion (1990) avec trois victoires à la clef. Il a un pied en F1 même si la porte est celle de derrière ! Il signe avec Modena, écurie d’un play-boy italien, magnat de la chaussure qui a eu les yeux un peu grands que le ventre. Eric marque pourtant son passage avant d’intégrer Brabham, écurie mythique alors à l’agonie. Tintin se bat mais ne peut inverser le cours des choses. Il entre chez Fondmetal qui n’est guère plus vaillante. Il arrêtera le massacre pour traverser la Manche et s’investir en tourisme chez Nissan, mais l’auto est loin du compte.
Eric saute plus haut et plus loin, tendant les bras à l’Amérique où il retrouvera la joie de gagner et d’asseoir sa réputation de pilote d’endurance, alignant les succès. En parallèle de programmes éclectiques en sport-prototypes, il reviendra régulièrement en Europe faire de jolies piges en tourisme. Il connaîtra une alerte avec un accident sérieux au Mans mais l’enthousiasme est toujours là. Plus que jamais en bonne place sur la “shopping list” des managers de bonnes écuries de pointe, le Namurois fait partie de l’équipe gagnante de Maserati avec laquelle il a enlevé les éditions 2005 et 2006 des 24 Heures de Spa.
“Le premier est suédois, professeur de philosophie à Oxford et l’un des leaders du courant transhumaniste, depuis qu’il a fondé en 1998 la World Transhumanist Association (devenue depuis Humanity+). En 2014, il prédisait dans son livre Superintelligence : chemins, dangers, stratégies, recommandé par Elon Musk et Bill Gates, l’arrivée prochaine d’une superintelligence qui surpassera l’intelligence humaine. Le second, médecin, co-fondateur de Doctissimo et entrepreneur, est devenu le porte-parole français le plus virulent du débat sur l’avenir de l’intelligence artificielle, et se défend d’être transhumaniste. Nick Bostrom et Laurent Alexandre se sont succédés à Paris sur la scène de l’USI, conférence dédiée aux professionnels et à l’avenir du numérique et du monde. Usbek & Rica s’est glissé dans le public pour tenter de résoudre l’équation suivante : deux gourous + une IA = zéro chance de s’en sortir ?
“Je vous demande maintenant d’accrocher vos ceintures de sécurité car nous allons traverser une petite zone de turbulences : merci d’accueillir Laurent Alexandre”. L’introduction réservée au médecin / entrepreneur / expert en nouvelles technologies qui prend place sur scène ce mardi 20 juin, au Carrousel du Louvre (Paris, FR), est flatteuse : Laurent Alexandre n’a en effet pas l’habitude d’endormir son public, même quand il fait 35°C. Transformer ses conférences en zones de turbulence est, en quelque sorte, sa marque de fabrique…”
Six mois après avoir auditionné des victimes supposées du géant américain des pesticides et des OGM, à La Haye, les juges de cet organisme non reconnu ont rendu mardi leurs conclusions : ils insistent sur la nécessité de rééquilibrer la législation, et affirment l’impact négatif de l’entreprise sur la santé et l’environnement.
Il y a urgence à rééquilibrer le droit international, qui protège aujourd’hui bien davantage les intérêts privés de multinationales comme Monsanto que les droits de l’homme et l’environnement : voici, en substance, la principale conclusion de l’«avis consultatif» rendu ce mardi par les juges du Tribunal international Monsanto, un «procès citoyen», sans reconnaissance officielle, qui s’est tenu à La Haye (Pays-Bas) en octobre. Durant deux jours, cinq magistrats professionnels avaient accepté d’auditionner une trentaine d’experts, d’avocats et de victimes supposées de la multinationale américaine des OGM et des pesticides.
Six mois plus tard, les juges ont rendu un document de 51 pages. L’objectif des «tribunaux d’opinion» est double, rappellent-ils en préambule : «Alerter l’opinion publique et les décideurs en cas d’actes considérés comme inacceptables et injustifiables selon les standards légaux, et contribuer à l’avancée du droit.» «[Le Tribunal Monsanto] n’est donc pas là pour juger Monsanto, mais pour examiner la compatibilité des actions de cette société avec les droits fondamentaux, insiste auprès de Libération la présidente, la Belge Françoise Tulkens, ancienne vice-présidente de la Cour européenne des droits de l’homme. Il ne s’agit pas de dire si Monsanto est coupable, mais de préparer la route pour qu’il y ait de vrais procès par rapport à ces questions.»
Paul OTLET (1868-1944) -avec Henri La Fontaine- est le père de la classification décimale universelle (CDU, 1905) ; Paul Otlet fut aussi un pionnier par ses travaux en matière de bibliographie. Il créa ainsi l’Office international de bibliographie pour la mise en place d’un répertoire bibliographique universel (RBU), rassemblant tous les ouvrages publiés dans le monde. Le Palais Mondial ou Mundaneum qu’il édifia à Bruxelles n’a pas survécu. Un musée, le Mundaneum actuel, lui est consacré à Mons (Belgique).
Classe 0 – Sciences et connaissance. Organisation. Informatique. Information. Documentation. Bibliothéconomie. Institutions. Publications
00 – Prolégomènes. Fondements de la connaissance et de la culture
01 – Bibliographie(s). Catalogues
02 – Bibliothéconomie
030 – Ouvrages généraux de référence (en tant que sujet)
04 – Informatique
050 – Publications en série, périodiques, revues (en tant que sujet)
06 – Organisations en général
070 – Journaux. Presse
08 – Polygraphies. Œuvres collectives
09 – Manuscrits. Livres rares et précieux
Classe 1 – Philosophie et psychologie
101 – Nature et rôle de la philosophie
11 – Métaphysique
122-129 – Métaphysique spéciale
13 – Philosophie de l’esprit. Métaphysique de la vie spirituelle
14 – Systèmes et approches philosophiques
159.9 – Psychologie
16 – Logique. Épistémologie. Théorie de la connaissance. Méthodologie de la logique
17 – Philosophie morale. Éthique. Philosophie pratique
Classe 2 – Religion. Théologie
2-1/-9 – Indices auxiliaires spéciaux à la classe religion
21 – Religions préhistoriques et primitives
22 – Religions originaires d’Extrême-Orient
23 – Religions originaire du sous-continent indien. Hindouisme au sens large
24 – Bouddhisme
25 – Religions de l’Antiquité. Religions et cultes mineurs
26 – Judaïsme
27 – Christianisme. Église et dénominations chrétiennes
28 – Islam
29 – Mouvements spirituels modernes
303 – Méthode des sciences sociales
304 – Questions sociales. Pratique sociale. Pratique culturelle. Mode de vie
305 – Études de genre sexuel (gender studies)
308 – Sociographie. Études descriptives de la société (qualitatives et quantitatives)
311 – Science statistique. Théorie et méthode de la statistique
314-316 – Société
32 – Politique. Science politique
33 – Économie. Science économique
34 – Droit. Jurisprudence. Législation
35 – Administration publique. Gouvernement. Affaires militaires
36 – Assistance sociale. Prévoyance sociale. Protection des besoins vitaux matériels et mentaux
37 – Enseignement. Éducation. Formation. Loisirs
39 – Ethnologie. Ethnographie. Coutumes. Manières. Usages. Traditions. Mode de vie. Folklore
Classe 4 – inoccupée
Cette classe était autrefois consacrée à la linguistique qui a été transférée dans la classe 8 durant les années 1960.
Classe 5 – Mathématiques, Sciences exactes et naturelles
502-504 – Science environnementales. Conservation des ressources naturelles. Menaces environnementales et protection de l’environnement
51 – Mathématiques
52 – Astronomie. Astrophysique. Recherche spatiale. Géodésie
53 – Physique
54 – Chimie. Minéralogie. Cristallographie
55 – Science de la Terre. Géologie
56 – Paléontologie. Fossiles
57 – Biologie. Sciences biologiques en général
58 – Botanique
59 – Zoologie
Classe 6 – Sciences appliquées. Médecine. Technologie
60 – Biotechnologie
61 – Sciences médicales
62 – Ingénierie. Technologie en général
63 – Agriculture, sciences et techniques relatives à l’agriculture. Sylviculture. Exploitation agricole. Exploitation de la faune et de la flore sauvage
64 – Économie domestique. Sciences ménagères
65 – Industries du transport et de la communication. Comptabilité. Gestion d’entreprise. Relations publiques.
66 – Technologie de la chimie. Industries chimiques et apparentées
67 – Industries, commerces et artisanats divers
68 – Industries, artisanats et commerces de produits finis ou assemblés
69 – Industrie de la construction. Matériaux. Méthodes et procédés
Classe 7 – Arts. Divertissements. Sports
7.01/.09 – Divisions spéciales pour la théorie, les techniques, les périodes, les styles, la présentation dans l’art
71 – Aménagement du territoire. Urbanisme. Architecture paysagère. Paysages, parcs, jardins
72 – Architecture
73 – Arts plastiques
74 – Dessin. Dessins artistique. Design. Arts appliqués et métiers d’art
75 – Peinture
76 – Arts graphiques. Gravures
77 – Photographie et procédés connexes
78 – Musique
79 – Divertissement. Distractions. Jeux. Sports
Classe 8 – Langue. Linguistique. Littérature
80 – Questions générales concernant la linguistique et la littérature. Philologie
81 – Linguistique et langues
82 – Littérature
Classe 9 – Géographie. Biographie. Histoire
902-908 – Archéologie. Préhistoire. Vestiges culturels. Études d’une zone
91 – Géographie. Exploration de la Terre et de pays particuliers. Géographie régionale
929 – Biographies et études apparentées
93-94 – Histoire
L’ambition du Géoportail est de rassembler et faciliter l’accès aux données géographiques wallonnes des autorités et entités publiques. Grâce à un inventaire des données et aux descriptions officielles disponibles, le catalogue donne une vue globale sur les données et leur mises à jour. Au delà de la description, ce catalogue vous permet aussi d’utiliser les services web ou de télécharger les données pour interagir avec elles. Si vous êtes une autorité publique et que vous produisez des données géographiques, n’hésitez pas à compléter le catalogue en y publiant vos propres données !
Le Fichier d’autorité international virtuel (VIAF, Virtual International Authority File) est un service international d’OCLC destiné à donner un accès centralisé aux informations relatives à une personne, à une collectivité, à des noms géographiques mais aussi à des oeuvres et expressions contenues dans les principaux fichiers d’autorité existants. VIAF est conçu comme une brique du Web sémantique permettant à l’utilisateur de réutiliser ces informations. Les données d’autorité de VIAF, multilingues et multi écritures, sont réutilisables librement selon la licence ODC-By (Open Data Commons Attribution). VIAF sert de base commune à de nombreux projets utilisant ses données.
De nombreuses encyclopédies dites ”libres” sont aujourd’hui disponibles en ligne et elles remportent un succès indéniable auprès du public. Tel grand site caractérisé par son savoir libre au point d’être éclaté est généralement au sommet de la liste des résultats de recherche. Si admirable que soit cette base de connaissances en tant que fruit d’une coopération internationale et symbole de la générosité dont les hommes sont capables, si utile qu’elle puisse être en raison de la multitude des sujets traités, elle n’en soulève pas moins de nombreuses questions, graves pour quiconque se soucie du rapport entre le savoir et le pouvoir à l’échelle mondiale. On y laisse une grande liberté aux auteurs et aux groupes d’auteurs, c’est ce qui la rend attrayante. On sait toutefois que le résultat final ne pourra être qu’une diffusion efficace du savoir éclaté. Dans un tel contexte en effet, la cohérence ne peut jamais s’étendre au-delà d’un cercle restreint de collaborateurs s’intéressant à un sujet déterminé. Or qu’est-ce que le savoir éclaté? C’est un savoir sur lequel on ne peut fonder aucune conviction, donc aucune contestation. Pour un empire, c’est l’arme culturelle absolue. Tout empire a intérêt à ce que le relativisme soit la règle dans sa sphère d’influence. Cela renforce sa prétention à n’être que la seule source de la vérité. Et quelle est la meilleure façon de répandre le relativisme sinon la diffusion d’un savoir éclaté? Allons donc! Un grand site créé par des esprits généreux et désintéressés serait l’équivalent d’une arme puissante? C’est du délire anti américain! Mettez ensemble la grande base de connaissances, Google, Facebook, Youtube, etc. Si c’est du délire que de s’inquiéter de la correspondance entre cette super puissance culturelle et la doctrine officielle du Soft Power américain, c’est qu’on a renoncé à tout esprit critique.
La Design Station Wallonia est un bâtiment emblématique localisé face à la gare des Guillemins (la “gare Calatrava” à Liège, BE). C’est un projet financé par les fonds FEDER, la Wallonie et la SPI. L’espace comprend trois fonctions principales. La partie publique occupe une surface d’environ 1100 m² sur trois étages. Elle comprend une salle d’exposition, une salle de conférence, des salles de réunion et de créativité, un espace de co-working, un espace de prototypage. Le centre d’affaires sur les deux étages supérieurs abrite des bureaux : ceux de l’Espace Entreprises et ceux occupés par Wallonie Design. Une dizaine de logements complètent cet ensemble. Ils ont été construits et financés par l’entrepreneur désigné par appel d’offres pour effectuer les travaux, Gilles Moury s.a. Le projet se veut : une vitrine du design wallon + un incubateur + un pôle créatif et économique.
Temps de lecture : < 1minute > Athena, le mag’ scientifique de la RW
Chaque mois, chacun peut consulter, en ligne, les derniers articles d’Athena dédiés aux enjeux et aux perspectives des technologies nouvelles. Chaque dossier est classé par numéro d’édition et par thème, un glossaire ainsi qu’un annuaire de liens y sont également référencés. Initiative de la Région wallonne, Athena est une publication mensuelle éditée par le Département du Développement technologique de la DGO6. Elle a pour objectif de sensibiliser toutes les personnes intéressées, et plus particulièrement les jeunes, aux enjeux et aux perspectives des technologies nouvelles, de la biotechnologie aux télécommunications en passant par l’agroalimentaire et les nouvelles technologies de l’information. Athena se veut un outil qui entend contribuer à développer chez tout un chacun une véritable culture scientifique.
“Le quotidien de référence américain, qui n’avait pas de slogan jusqu’à présent, se pare d’une devise qui lui a sûrement été inspirée par les relations plus que conflictuelles entre la presse et ses contradicteurs.
Depuis quelques jours, le Washington Post a garni sa une et ses réseaux sociaux d’un slogan fort : “Democracy dies in darkness” [la démocratie meurt dans l’obscurité].
Le grand quotidien américain n’avait, jusqu’à présent, pas de devise accolée à son nom, qui, à lui seul, assurait la réputation du journal à l’origine des révélations du Watergate – pour ne citer qu’elles.
Selon Kris Coratti, sa porte-parole, cette expression n’est pas neuve au sein du journal : “C’est quelque chose que nous nous disons depuis longtemps en interne quand nous parlons de notre mission, explique-t-elle à CNN. Nous avons pensé que ce serait une déclaration efficace et concise pour dire qui nous sommes aux millions de lecteurs qui nous ont rejoint pour la première fois au cours de l’an passé.” En 2016, les abonnés ont effectivement augmenté de 75 %.
La devise tombe à point nommé puisque le jour de la révélation de ce slogan, Donald Trump a déclaré la presse comme “ennemie du peuple américain“. Une énième attaque dans un climat d’extrême tension entre le président et les médias de son pays.
Le Washington Post, créé en 1877, rejoint ainsi la longue liste des journaux qui mettent en avant une phrase censée représenter leurs valeurs. Comme le recense le site Open Writing, citons aussi le New York Times et son “All the News That’s Fit to Print” [Toutes les nouvelles qui méritent d’être imprimées], le modeste Chicago Tribune, “World’s Greatest Newspaper” [Le plus grand journal du monde], le Post de Zambie qui se définit comme “Le journal qui creuse plus profondément” ou le Sydney Daily Telegraph, qui clame être “Le journal que vous pouvez croire“. En France, Le Figaro a son “Sans la liberté de blâmer, il n’est point d’éloge flatteur“, Le Canard enchaîné rappelle que “La liberté de la presse ne s’use que quand on ne s’en sert pas“, le quotidien local Sud Ouest soutient que “Les faits sont sacrés, les commentaires sont libres“, ou, plus délirant, le site satirique Le Gorafi revendique “Toute l’information selon des sources contradictoires“… Une profession de foi presque plausible…”
Temps de lecture : < 1minute > Dynamitage du HF6 à Seraing (c) RTBF
“Le Haut Fourneau 6, symbole du bassin sidérurgique liégeois, a été dynamité vendredi en milieu d’après-midi sous les yeux des hauts dirigeants d’ArcelorMittal qui, par cet acte hautement symbolique, ont tenu à respecter l’accord global signé en 2014 avec la Région wallonne et les organisations syndicales. Quelque 20 kilos de charge ont été nécessaires pour faire tomber ce géant d’acier culminant à 80 m d’altitude et construit fin des années 50. Sa mise en service remonte à avril 1959 par la compagnie Epérance-Longdoz qui fusionnera 11 ans plus tard avec Cockerill avant de battre sous pavillon ArcelorMittal…”
L’élection de Donald Trump est sur le point de changer la vie de bien des gens. Celle de tout un paquet d’Américains pour commencer, des plus riches aux plus fauchés. Déjà, elle a perturbé de nombreuses familles qui se sont envoyé la dinde de Thanksgiving à la tête (cela n’a pas dû être facile de rendre grâce cette année…). Elle est en train de modifier l’équilibre des relations internationales, au grand bonheur des Russes et au grand dam de beaucoup d’Européens (certes, pas tous). Elle sème la zizanie au sein des médias, tenus pour partiellement responsables de la catastrophe parce qu’ils n’auraient pas su la voir arriver ou qu’ils l’auraient favorisée, notamment en accordant à Donald Trump une couverture médiatique démesurée ou en n’ayant pas pris sa candidature au sérieux. Parmi ceux qui vont devoir s’adapter à ce nouvel ordre américain et mondial en changeant leur mode de pensée ou de vie, certains invisibles chatons d’internet se retrouvent, eux aussi, obligés de revoir leur vision du monde: les traducteurs de la parole politique. En traduisant pour la presse papier et internet depuis plus de quinze ans et pour Slate depuis ses débuts, j’ai eu des centaines d’occasions de reformuler en français la parole politique de dirigeants étrangers, et notamment celle de Barack Obama qui se trouve être, allez savoir pourquoi, l’homme dont les discours reviennent le plus souvent dans l’actualité. Ah, Barack… Son débit régulier, sa diction impeccable, son éloquence, ses discours construits et logiques, son autodérision, son humour fin et souvent mâtiné d’une ironie calculée au millimètre…
Temps de lecture : 3minutes > (c) Emeline Wuilbercq
“Berger jusqu’à 12 ans, cet Ethiopien est devenu un chirurgien de renommée internationale en inventant l’anneau gastrique par cœlioscopie.
Mitiku Belachew se souvient encore de son regard implorant. L’infirmière était obèse et malheureuse : « Aidez-moi à guérir », l’avait-elle supplié il y a quarante ans à l’hôpital civil de Bavière, à Liège. Le chirurgien savait qu’il existait outre-Atlantique une solution chirurgicale pour le traitement de l’obésité morbide. C’était marginal, les complications étaient dangereuses. « Peu importe, lui répond sa patiente. Pour moi, maintenant, c’est une question de vie ou de mort. » Après une bonne préparation, Mitiku Belachew l’opère. Le bouche-à-oreille s’emballe. « A partir de ce moment-là et malgré moi, je suis devenu un spécialiste de la chirurgie de l’obésité », s’amuse-t-il aujourd’hui.
Malgré lui, car jamais Mitiku Belachew n’aurait cru emprunter cette voie. Pour parler de son parcours, l’Ethiopien de 74 ans aime citer Gandhi : « Il y a mille vies dans une vie. » Avant de devenir un chirurgien de renommée internationale, Mitiku Belachew était berger. Né dans une famille de neuf enfants, il prenait soin des vaches, des taureaux et des chèvres dans un village situé à 150 kilomètres d’Addis-Abeba.
« J’y suis allé au culot. J’ai commencé ma vie avec ce qui était disponible », dit-il. C’est-à-dire pas grand-chose : pas de route pour se déplacer, pas d’hôpital pour se soigner, pas d’école pour étudier. Ou plutôt une seule école, « celle de la nature ». La mort inexpliquée d’un frère « grand, beau et fort » le fait changer de trajectoire. Il sera médecin.
A 12 ans, il quitte village et troupeau pour les bancs de l’école de la capitale. Sa mémoire d’éléphant lui permet de sauter plusieurs classes. « J’étais sans le sou, alors j’y suis allé au culot : j’ai demandé à un couple britannique de financer mes études en échange de travaux domestiques », raconte-t-il. L’élève prodige impressionne, obtient les meilleures notes et ne garde pas longtemps son job de garçon de maison.
Au début des années 1960, bac et bourse en poche, il peut entrer dans les plus prestigieuses universités anglo-saxonnes. Contre toute attente, il choisit la Belgique, qu’il baptise le « pays du soleil froid ». « C’était un pays détesté à l’époque pour son action au Congo, précise M. Mitiku. Je ne parlais pas un mot de français mais j’aimais les défis. » Le jour, il étudie la médecine à Liège. La nuit, il plonge dans la littérature pour parfaire son français et traduit mot à mot Fanny de Marcel Pagnol avec un vieux dictionnaire.
L’étudiant s’acclimate au « petit racisme ordinaire » qui s’estompera avec les années et la notoriété. En 1968, il est aux premières loges de la « révolution » qui a gagné la Belgique. Mais son goût pour la politique prendra fin quand, en 1974, le régime militaire du Derg qui renversa Haïlé Sélassié fit couler le sang de ses compatriotes pour justifier un idéal révolutionnaire. Il se concentre sur ses études et obtient son diplômé en 1970. A Liège, puis à Huy, une petite ville de 21 000 âmes, Mitiku Belachew se familiarise avec sa spécialisation : la chirurgie digestive…”
Entreprendre aujourd’hui l’édition d’une encyclopédie (fut-ce sous la forme d’un simple blogue encyclopédique), c’est proposer des fils d’Ariane, que l’on désire éclairés, dans le labyrinthe de la Toile : tout ou presque est là, qui peut faire viatique à l’homme qui marche éveillé. Dans la droite ligne du travail de partage des savoirs entrepris dès 1998 par le philosophe Jacques Dufresne (QC) et son Encyclopédie de l’Agora (avec laquelle nous avons collaboré pendant plus de dix ans), wallonica.org se veut tant éditeur de connaissances liées à son terroir, la Wallonie (BE), que marchepied vers d’autres gisements de savoirs en ligne : vous avez le droit de savoir-s !
Si le purin coule vers le bas, pourquoi vivons-nous dans la vallée ?
C’est Terry Gilliam (L’Obs, n°2661) qui met le doigt sur une des préoccupations de wallonica.org, à savoir une inquiétude de la pensée libre devant la prolifération des diktats à l’emporte-pièce qui font le quotidien du web 2.0 (et leur écho dont résonnent sans fin les réseaux sociaux). Car, enfin, le Café du Commerce n’est pas le Jardin d’Epicure : d’abord émerveillés par le potentiel du web, aurions-nous trop vite déterré les espoirs pacifistes de Paul Otlet et d’Henri La Fontaine (plus de savoirs partagés, moins de guerres) ? Aurions-nous espéré en vain l’émergence du CRAC, le Citoyen Responsable, Actif et Critique (s’est ajouté par la suite le S de Solidaire) ? Godot ?
Quand on est dans la merde jusqu’au cou, il ne reste plus qu’à chanter.
Beckett, encore. Alors, on chante ? Oui, pour mieux servir. Puisque l’Übermensch n’est pas pour demain et que la complexité fait loi, wallonica.org veut faire oeuvre utile en contribuant à cet archipel naissant sur la Toile, ces îlots de savoirs que des hommes et des femmes éditent en ligne. Le mot ‘éditer’ vaut ici son pesant de pèket : il s’agira de fédérer l’existant (relier contenus internes et externes), de faciliter l’accès aux savoirs (vulgariser les contenus experts), d’organiser la découverte (structurer la navigation), d’épauler les CRACS (permettre une lecture critique) et de maîtriser la publication (les options éditoriales sont le fruit d’un jugement personnel et l’internaute ne peut contribuer sans le contrôle d’un modérateur). Alors, on danse ? Oui, car n’est pas Diderot qui veut. Mais chacun peut faire sien le mot de Montaigne (Essais, III, 13) :
Notre bel et grand chef-d’oeuvre, c’est vivre à propos.
Dont acte…
wallonica.org est une encyclopédie citoyenne, indépendante, dédiée aux contenus francophones, wallons et assimilés. Initialement publiée sur walloniebruxelles.org, elle est désormais accessible à l’adresse wallonica.org. A terme, wallonica.org a pour vocation de devenir une société encyclopédique, active tant dans le domaine de l’éducation permanente, du marketing culturel d’intérêt public que de la promotion des savoirs wallons. A bon entendeur…
wallonica.org est un portail encyclopédique francophone, disponible pour tous les internautes, librement, gratuitement, sans publicité ni capture d’identité. Ses contenus sont édités par une équipe de contributeurs cooptés qui préfère “l’humanisme du lien” à l’exhaustivité : certains articles sont des compilations critiques de savoirs présents ailleurs sur la Toile, vers lesquels ils renvoient. “C’était donc ça…“, s’exclame l’internaute ravi.
Temps de lecture : 6minutes > Les Géants, un film de Bouli LANNERS (2011)
Les différentes qualités de films sur Internet sont, par ordre croissant de qualité (utilisez CTRL+F pour rechercher un nom de format particulier) :
VHSRip
Transféré d’une VHS du commerce, principalement des vidéos de skateboard ou de sport ou alors des films XXX.
CAM
Une version CAM est une copie réalisée dans un cinéma avec un caméscope numérique. Un mini-tripod est parfois utilisé mais comme c’est impossible la plupart du temps, la caméra peut trembler. Le placement du siège n’est pas toujours idéal et cela peut être filmé d’un angle. Si la vidéo est recadrée correctement ensuite, cela peut être difficile à déceler, sauf s’il y a du texte sur l’image. La plupart du temps, les CAM ont des bordures triangulaires en haut et en bas de l’écran. Le son est pris avec le micro intégré à la caméra et l’on peut souvent entendre les rires des spectateurs (dans les comédies notamment). A cause de tout cela, l’image et le son sont souvent médiocres.
DivX Re-Enc
Un DivX re-enc est un film pris d’une source VCD et réencodé dans un fichier DivX plus petit. On les trouve surtout sur les réseaux P2P en deux parties (Film.Name.Group(1of2) le plus souvent). A éviter – à moins de vouloir regarder un film basse qualité qui pèse 200 Mo.
TELESYNC (TS)
Un telesync possède les mêmes spécification qu’une CAM, mis à part qu’il utilise une source audio externe (le plus souvent la prise audiojack du siège pour les malentendants). Une source audio directe n’assure pas une bonne qualité audio parce que pas mal de bruits d’ambiance peuvent interférer. Le telesync est souvent filmé avec une caméra professionnelle, ce qui donne une meilleure image. La qualité est très variable donc mieux vaut vérifier le fichier sample avant de télécharger. Un gros pourcentage des telesyncs sont en fait des CAMs qui n’ont pas été tagguées correctement.
TELECINE (TC)
Une machine telecine copie le film depuis les bandes en digital. Le son et l’image devraient être très bons mais à cause du prix de l’équipement requis, les telecines sont assez rares. Le film a généralement un aspect ratio correct, même si des telecines 4:3 ont existé. Note : TC ne doit pas être confondu avec TimeCode, qui est un compteur visible sur l’écran tout au long du film.
SCREENER (SCR)
Un screener est une cassette VHS, en aspect ratio 4:3 (fullscreen) le plus souvent, envoyée aux magasins de location ou autres lieux de diffusion afin d’assurer la promotion du film. Principal inconvénient : un “ticker” (message qui défile en bas de l’écran, avec le copyright et le numéro de téléphone anti-copie). Si la cassette contient des numéros de série ou tout autre marquage qui peut dévoiler l’origine de la cassette, ils devront être masqués avec un marquage noir sur la section incriminée. Cela peut apparaître quelques secondes ou alors durer tout le film. La qualité du screener peut être excellente si elle est faite depuis la copie MASTER.
WORKPRINT (WP)
Le workprint est une copie du film alors qu’il est inachevé. Il peut y avoir des scènes ou des musiques manquantes et la qualité peut varier entre excellente à médiocre. Certains WPs sont très différents de la version finale du film.
DVD-SCREENER (DVDscr)
Même base que le screener mais transféré sur un DVD, aspect ratio letterbox, mais sans les extras qu’un DVD du commerce peut contenir. Le ticker n’est pas dans les barres noires et ne gêne pas le visionnage. Si le ripper a du talent, le DVDscr devrait être très bon. Il est en encodé ensuite en SVCD ou DivX/XviD.
R5 – R6
Le R5 fait référence au format spécifique des DVD sortis en Région 5, l’ex-Union Soviétique, et les bootlegs de ces versions qui sont distribuées sur Internet. Dans un effort de contrer le piratage des films, l’industrie du film a choisi de créer un nouveau format pour les DVD qui pouvait être produits plus rapidement et à moindre coût que les DVD traditionnels. Les R5 diffèrent des autres format parce qu’ils sont des transferts direct du film d’un Telecine, sans le traitement de l’image habituel des DVD et sans les bonus. Cela permet au film de sortir dans les magasins au même moment que sortent les DVD Screeners. Comme les DVD Screeners sont les principales sources des films piratés en haute qualité, cela permet aux studios de battre les pirates sur le marché. Dans certains cas, les DVD R5 sortent sans piste en Anglais, ce qui oblige les pirates à utiliser la prise de son de la version TS. Dans ce cas, la version pirate sera tagguée avec “.LINE” pour la distinguer d’une version qui aura la piste audio du DVD original. La qualité de l’image d’un R5 est généralement comparable à celle d’un DVD Screener, mis à part le texte défilant et les scènes en noir et blanc qui servent à distinguer les screeners des DVD commerciaux. La qualité est meilleure que les transferts Telecine produits par les pirates parce qu’il est effectué à l’aide d’un équipement de film-scanning professionnel. Parce qu’il n’y a pas de standard pour les sorties R5 piratées, elles sont souvent tagguées comme des Telecines, DVD Screeners, ou même des DVDRips. A la fin de l’année 2006, plusieurs groupes ont commencé à tagguer leur versions avec “.R5” en suggérant aux autres groupes de faire de même. Aujourd’hui, c’est devenu un classique : le R5 sort quelques semaines avant le DVDRip final. Il existe aussi :
R0 No Region Coding
R1 United States of America, Canada
R2 Europe, including France, Greece, Turkey, Egypt, Arabia, Japan, Israel and South Africa
R3 Korea, Thailand, Vietnam, Borneo and Indonesia
R4 Australia and New Zealand, Mexico, the Caribbean, and South America
R5 India, Africa (except Egypt, South Africa, Swaziland, and Lesotho), Russia and former USSR countries
R6 Peoples Republic of China
R7 Romania
R8 Airlines/Cruise Ships
R9 Expansion (often used as region free)
Cela vous permet de savoir d’où vient la source de la release. Les R1 et R2 sont considérés comme étant de meilleure qualité.
TVRip
Sont des épisodes de séries télévisées qui viennent soit de Networks (capturés en utilisant le câble/satellite) ou des PRE-AIR depuis des chaînes satellite qui diffusent le programme quelques jours auparavant.
PDTV
Les versions PDTV (Pure Digital TV) sont capturées à l’aide d’une carte TV PCI. La qualité est au rendez-vous et elles sont formatées comme les captures HDTV.
HDTV
Certaines émissions sont tagguées HDTV (High Definition TV) si elles sont capturées à l’aide d’un récepteur TV Haute Définition. Les captures HDTV sont en haute qualité, le plus souvent au format XviD.
Asian Silvers / PDVD
Sont des films fournis par les bootleggers asiatiques et sont généralement achetés par certains groupes qui les font passer pour les leurs. Ils sont très bon marchés et facilement disponibles.
Watermarks
Beaucoup de films proviennent des Asian Silvers/PDVD et sont taggués, le plus souvent par des initiales ou un petit logo dans l’un des coins. Les plus connus sont les watermarks “Z”, “A” et “Globe”.
WEB-DL
Ce sont des séries TV ou films téléchargés depuis le site d’un service de distribution comme iTunes. La qualité est assez bonne puisque ce n’est pas ré-encodé. Les flux audio (AC3/AAC) et vidéo (H.264) sont extraits des fichiers iTunes et remuxés dans un container MKV sans sacrifier la qualité. Autre avantage : ils n’ont pas de logo de chaînes, tout comme les BD/DVDRips.
WEBRip
Ces fichiers proviennent d’un service de streaming. La qualité est comparable aux WEB-DL, mais les bitrates sont inférieurs de manière à économiser la bande passante. Les fichiers sont extraits avec le protocole RMTP et remuxés sans perte d’un fichier MP4 à un MKV.
DVDRip
Le DVDRip est une copie du DVD final qui sort dans le commerce. Il est possible que ce soit un PRE, c’est-à-dire une version sortie en avant-première (comme par exemple Star Wars episode 2). La qualité devrait être excellente. Les DVDrips sont en SVCD et DivX/XviD.
BDRip / BRRip
Le BDRip est similaire au DVDRip, à la différence que la source provient d’un disque Blu-ray. Un BDRip qui a la taille d’un DVDRip possède une meilleure qualité qu’un DVDRip de même taille parce que la source est de qualité supérieure. Un BDRip et un BRRip sont exactement la même chose, le BRRip est encodé depuis une pre-release, généralement depuis un BDRip 1080p d’un autre groupe. Les BDRips sont disponibles aux tailles des DVDRips encodés en XviD (700MB et 1.4GB) et en DVD5 ou DVD9 en x264 (4.5GB et plus selon la longueur et la qualité).
BD5 / BD9 / BD25 / BD50
Des BD5 et BD9 sont également disponibles. Légèrement plus petits que les releases DVD5/DVD9, ils sont compatibles AVCHD et utilisent le système de fichiers des Blu-ray. On peut les graver sur des DVD pour les lire sur les lecteurs Blu-ray compatibles AVHCD. D’autres formats plus récents, les BD25 et BD50 sont des images complètes de disques Blu-ray.
Temps de lecture : 5minutes > Jan Söderqvist & Alexander Bard (c) Volante
“Pour Bard et Söderqvist, nous entrons aujourd’hui dans la phase finale du commencement de l’émergence d’une nouvelle ère, l’ère netocratique, laquelle signe la fin du capitalisme. Depuis 2000, ils défendent leur thèse d’un changement majeur de paradigme ; grâce à la traduction de leur livre, la France va enfin pouvoir se joindre au débat. Pourquoi maintenant seulement ? La Netocratie peut-elle s’imposer dans l’Hexagone ? Le contexte a-t-il changé ? Mise à jour avec les intéressés.
Chronic’art : Voici huit ans que vous avez écrit Les Netocrates, publié et traduit dans plusieurs pays. Comment expliquer que nous le découvrions seulement maintenant en France ?
Alexander Bard : D’abord, il semble que la France n’ait pas montré beaucoup d’intérêt pour nos études futurologiques et sociales. Sans doute parce que seule la vieille génération d’intellectuels français – Jacques Derrida, par exemple -, pour qui il est difficile d’apprécier correctement quelque chose de vraiment nouveau, était encore récemment sous le feux des projecteurs. Cette situation semble néanmoins évoluer : les Français se rendent enfin compte de la profondeur de la révolution que représente l’apparition des médias interactifs et d’Internet, et que cette révolution constitue le principal ingrédient de la globalisation politique et économique que nous connaissons aujourd’hui. Est-ce que ce réveil est dû au phénomène des blogs, particulièrement fort en France ? Ensuite, c’est une question de timing puisque nous avons dû attendre de rencontrer les bonnes personnes avec qui nous avions envie de travailler. C’est à la suite d’un entretien-fleuve avec vous, à Chronic’art, que nous avons été mis en contact avec l’éditeur Léo Scheer.
Jan Söderqvist : Il s’agit aussi de raisons plus banales et pratiques. Dès 2001, l’idée d’une traduction française flottait dans l’air, mais il n’y a pas eu de suite. Nous étions à l’époque très pris avec les marchés américain, anglais, sud-africain et espagnol. Je suppose aussi que la confusion a fait hésiter ce premier contact : certains voient Les Netocrates comme une œuvre de philosophie sociale, d’autres pensent avoir affaire à un livre de business ou de management puisqu’il parle des forces sous-jacentes au phénomène des valeurs technologiques (la bulle dot.com) et du fait que des stratégies d’affaires établies, menées par la bourgeoise, ne fonctionnent pas vraiment dans cette nouvelle écologie médiatique. Comment vendre un livre comme celui-là, qui ignore toutes les étiquettes et toutes les conventions traditionnelles ?
En quoi la théorie exposée dans votre essai est-elle antinomique avec l’esprit français, comme vous le dites dans votre préface ?
A.B. : Notre analyse se fonde sur la culture des early adopters. Pour comprendre le monde d’aujourd’hui, nous nous intéressons davantage à l’usage et à l’implication sociale des nouvelles technologies de l’information et des nouveaux gadgets interactifs chez les écolières coréennes ou les pêcheurs du Sud de l’Inde que sur les vieilles références que tout le monde ressasse. Après tout, Max Weber n’avait aucune idée de ce qu’était un téléphone portable ! Notre analyse, du coup, est assez peu flatteuse pour la vieille élite, composée principalement de vieux journalistes et d’auteurs mâles d’Europe occidentale ou d’Amérique du Nord. Notre hypothèse révèle que ceux-ci sont historiquement voués à perdre leur position dominante, alors que de nouvelles forces entrent en jeu. L’Europe est aujourd’hui extrêmement conservatrice et complaisante. Cela va demander de gros efforts aux Européens pour comprendre ce qu’est la véritable radicalité du XXIe siècle.
J.S. : C’est un classique, le changement n’est jamais bon pour la vieille élite en place. Mon avis est que la France est un pays très polarisé où il existe d’un côté une « gauche » vraiment conservatrice qui ne rêve que d’un statu quo éternel et, de l’autre, des pouvoirs plus pragmatiques qui se rendent compte que le chauvinisme réactionnaire n’est plus une option aujourd’hui pertinente.
Est-ce que le problème de la France n’est pas qu’elle est une nation très égocentrée (la France, centre du monde) ?
A.B. : Quiconque a connu un passé prospère va avoir quelques difficultés à accepter un avenir où il se retrouve marginalisé. La France a pu être le centre de l’ancien paradigme industrialo-capitaliste ; l’Etat-nation moderne et la modernité sont d’ailleurs nés en France, ce paradigme ayant été défini par les penseurs des Lumières. Du coup, puisque l’identité française est à ce point liée au capitalisme, il n’est pas surprenant que ce pays ait plus d’obstacles à surmonter que les autres quand il se frotte au paradigme informationaliste. Le seul fait de se poser la question de son positionnement face à ce nouveau paradigme est assez révélateur… Les netocrates se fichent pas mal du débat sur l’identité cadrée dans une nationalité. Ils envisagent toujours les choses à un niveau global et subculturel. Le nationalisme est aujourd’hui un phénomène qui n’intéresse que les sous-classes.
ISBN 978-2-7561-0118-7
J.S. : Il suffit de voir la polémique suscitée récemment par l’article du Times sur la mort de la culture française… C’est toujours un sujet sensible en France, et ce n’est pas bon signe. La nostalgie nationaliste est quelque chose de tellement dépassé ! Aucune Nation ne peut aujourd’hui fonctionner comme une marque. Nous avons trop perdu de temps avec ces inepties. Les Français ne sont pas les seuls à apprécier une nourriture de qualité, du bon vin, la mode, l’art ou la philosophie ! C’est évidemment une mauvaise nouvelle pour les Français qui se sont toujours vus comme culturellement supérieurs aux autres sur bien des plans… « Tu dors, tu es mort », l’adage n’a jamais été aussi vrai.
Avec la netocratie, vous prévoyez la disparition définitive de l’Etat-Nation. Mais n’est-il pas exagéré de penser que le réseau Internet suffira à faire accepter cette idée et à faire émerger une gouvernance netocratique mondiale ?
A.B. : Non, pas du tout. La vieille bourgeoisie est obsédée par les Etats-nations et les implications de l’identité nationale. Les netocrates, eux, ne s’y intéressent pas du tout. Elle n’intéresse manifestement pas Internet (aucun, ou très peu, de sites consacrés au sujet). Pourquoi ? Parce que c’est une question hors sujet dans la vie quotidienne des netocrates. Aucun d’entre eux ne va se sacrifier, par exemple, pour la France.
J.S. : Qui sont les derniers porteurs de drapeaux en Europe ? Les vieux aristocrates, les fermiers gavés de subventions et les néo-fascistes tatoués au chômage, c’est-à-dire les perdants de l’âge de l’information. Le concept d’Etat-Nation est devenu incroyablement obsolète parce que toutes les vraies questions politiques contemporaines quittent la sphère nationale les unes après les autres pour se retrouver dans une optique supranationale. L’environnement, la défense, les impôts, l’agriculture, le système de santé, l’éducation… Tout ! Comment peut-on avoir une politique nationale sur l’environnement ? Quel sens cela peut-il avoir ? Que vous aimiez votre pays ou que vous souteniez farouchement votre équipe nationale de football, peu importe : la politique nationale est devenue une charade insensée…”
“À l’heure du dérèglement climatique et de l’effondrement de la biodiversité, nous sommes nombreux à souhaiter un mode de développement durable et respectueux de notre environnement. Cette nature que nous devrions protéger pourrait-elle nous y aider ? Elle et nous vivons dans le même monde, sommes sujets aux mêmes lois, aux mêmes contraintes physiques. Léonard de Vinci l’avait déjà compris. Parmi les millions d’espèces vivantes, y en aurait-il certaines qui auraient développé des solutions éprouvées par le temps, optimisées par l’évolution et transposables à nos défis technologiques et sociétaux ?” [d’après NEWS.ULIEGE.BE]
Qui aurait dit que -sans le faire vraiment exprès- nos lucioles des soirs d’été inspireraient aux ingénieurs du secteur agro-alimentaire une méthode aujourd’hui couramment utilisée : la bioluminescence.
Il s’agit ici de ce que l’on nomme du biomimétisme : une technologie est mise au point par imitation d’un processus qui existe déjà dans la nature. Je résume : la luciole produit sa petite lumière si charmante quand une enzyme qu’elle transporte dans son postérieur entre en contact avec des bactéries. Une fois transposée dans un milieu de test pour produits agro-alimentaires, la confrontation enzyme-bactérie produit une luminescence qui peut être mesurée.
En clair : je prélève un simple pot de yaourt dans une chaîne de production agro-alimentaire, j’y introduis l’enzyme de la luciole et je mesure la luminescence qui est produite ou non. S’il y a luminescence, il y a bactéries, donc danger pour la sécurité alimentaire (ex. salmonelles). Le reste du lot de production est suspect.
Il ne restait plus qu’à systématiser ces tests à des points de la chaîne de production dits ‘critiques’ et on appliquait la méthodologie HACCP aux tests par bioluminescence.
Intéressés ? Nous vous livrons ci-dessous les bonnes feuilles d’un ouvrage épuisé sur le sujet (nous en conservons une copie papier : si cela vous tente, contactez-nous). S’il s’agit d’un texte à teneur scientifique, il a été publié à des fins commerciales : à vous de faire la part des choses. Bonne lecture…
Mise en œuvre de l’HACCP dans le cadre d’un système de gestion de sécurité alimentaire
Etape 1 : Définition du cadre de référence
Etape 2 : Sélection de l’équipe HACCP
Etape 3 : Description du produit final et de la méthode de distribution
Etape 4 : Identification de l’usage escompté du produit
Etape 5 : Elaboration du diagramme de fabrication
Etape 6 : Vérification sur site du diagramme de fabrication
Etape 7 – Principe 1 : Analyse des dangers
Etape 8 – Principe 2 : Identification des CCP
Etape 9 -Principe 3 : Détermination des Niveaux-cibles et des Limites critiques
Etape 10 -Principe 4 : Elaboration du système de surveillance pour chaque CCP
Etape 11 -Principe 5 : Détermination des actions correctives à prendre pour remédier aux écarts observés
Etape 12 – Principe 6 : Elaboration d’un système d’archivage et de documentation
Etape 13 – Principe 7 : Vérification du système HACCP
Etape 14 – Principe 7 : Révision du plan HACCP
Utilisation de méthodes microbiologiques rapides dans les programmes HACCP
Les systèmes basés sur la Bioluminescence ATP
La solution LUMAC appliquée aux programmes HACCP
Systèmes HACCP dans l’industrie laitière : la solution LUMAC
Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
Exigences microbiologiques d’un système de contrôle des matières premières
Exigences microbiologiques d’un système de contrôle des produits finis dérivés du lait
Les systèmes HACCP et la Solution LUMAC pour l’industrie des boissons non alcoolisées (soft drinks)
Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
Exigences microbiologiques d ‘un système de contrôle des matières premières
Exigences microbiologiques des systèmes de test de produits finis
Les systèmes HACCP et la Solution LUMAC pour le secteur de la brasserie
Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
Exigences microbiologiques d’un système de contrôle des matières premières
Exigences microbiologiques des systèmes de test de produits finis
L’HACCP et la Solution LUMAC pour d’autres industries du secteur agro-alimentaire
L’HACCP et la Solution LUMAC pour le secteur de la boucherie
L’HACCP et la Solution LUMAC pour le secteur de la restauration
Préface
Aujourd’hui -et dans le monde entier- les systèmes HACCP sont considérés comme les moyens les plus sûrs d’assurer la sécurité des aliments. A la base de la forte expansion des procédures CCP au cours de la dernière décennie, on trouve divers éléments favorables dont les moindres ne sont pas les mesures de régulation et les dispositions légales prises face à la multiplication des cas d’empoisonnement alimentaire, le souci croissant de protéger l’environnement et les pertes financières encourues par les industriels du fait d’un contrôle insuffisant de la production et de la mauvaise qualité des matières premières. Sur la scène commerciale internationale, les différents opérateurs soutiennent l’HACCP, estimant qu’il leur permet de démontrer à leurs clients combien leurs produits alimentaires satisfont aux exigences qualitatives du marché. On ne compte actuellement plus les livres, les articles, les formations et les guides portant sur l’implémentation des systèmes HACCP ; la plupart d’entre eux sont basés sur les mêmes principes de départ, établis à l’origine par la Pillsbury Company aux USA. Dans le sillage du succès croissant des dispositifs HACCP, les méthodes d’analyse microbiologique rapide se sont également implantées de plus en plus dans l’industrie agro-alimentaire. Cette tendance à la hausse est principalement due à la haute compatibilité de ces applications, et plus particulièrement de la Bioluminescence ATP, avec les programmes HACCP. Si l’information en matière d’HACCP est facilement disponible, il est moins aisé de trouver des indications complètes sur l’implémentation de la Bioluminescence ATP dans le cadre de programmes HACCP. C’est dès lors la finalité que nous avons choisie pour le présent manuel, basé sur des données LUMAC réelles, collectées auprès des utilisateurs, et d’autres données encore, produites par notre département R&D. L’objectif est ici de proposer un manuel pratique exposant clairement la Solution LUMAC et, partant, de faciliter l’implémentation des programmes HACCP. Nous espérons que ce volume pourra vous être très utile et que vous pourrez tirer de multiples avantages de l’utilisation de la Solution LUMAC dans le cadre de votre programme HACCP. Vos commentaires, vos questions, vos remarques et vos compléments d’information sont toujours les bienvenus chez LUMAC : n’hésitez pas à prendre contact avec votre concessionnaire LUMAC, chaque fois que vous l’estimerez nécessaire.
Rob van Beurden & Sue Shepard Landgraaf (mai 1995)
Introduction à l’HACCP
Aperçu historique du système HACCP
La notion de HACCP (Hazard Analysis and Critical Control Point) telle que nous la connaissons aujourd’hui date de 1959. C’est à celte époque en effet que la NASA (National Aeronautics and Space Agency) demanda à la société américaine Pillsbury de produire une nourriture pouvant être consommée dans l’espace, en état d’apesanteur. Le problème -mal connu à l’époque- du comportement des aliments dans des conditions d’apesanteur fut vite résolu. Il restait cependant une partie plus délicate au programme : éliminer les dangers microbiens, chimiques ou physiques présentant un danger potentiel pour la santé des astronautes en mission. Pillsbury en vint rapidement à la conclusion qu’il était impossible de garantir la qualité de ces aliments spéciaux en utilisant les techniques existantes, essentiellement basées sur des méthodes d’analyses destructives du produit fini. Le système non destructif de contrôle de qualité mis au point par Pillsbury se basait sur des actions préventives : en contrôlant la totalité du processus (matières premières, process, distribution, nettoyage, personnel, etc.) et en procédant à un enregistrement rigoureux des données, il était possible de limiter les contrôles entraînant la destruction du produit fini.
Ce programme spatial marqua le début du système HACCP actuel, qui est par essence une méthode préventive de contrôle de la qualité. Ce système repose sur une analyse approfondie e l’ensemble du circuit alimentaire, depuis les matières premières jusqu’au consommateur. Après analyse des processus, il est possible de localiser les dangers et de définir les points de contrôle.
Facteurs ayant influencé l’émergence de l’HACCP
On estime que chaque année, dans les pays occidentaux, quelque 30% de la population est victime de gastro-entérites causées par des agents pathogènes présents dans l’alimentation (Notermans & Van der Giessen, 1993). La salmonellose reste, à ce jour, la principale maladie d’origine alimentaire, et, ces dernières années, on a enregistré en Europe une augmentation du nombre d’épidémies. On pense que celte hausse ne peut uniquement s’expliquer par les modifications des procédures de recensement de ces maladies (Gerick, 1994).
Les maladies d’origine alimentaire représentent un coût élevé pour la société. A titre d’exemple, une étude réalisée au Royaume-Uni en 1986 révélait que l’entérite bénigne causée par le Campylobacter aurait coûté aux alentours de 600 £ par cas. En 1992, on a enregistré plus de 38.000 cas, ce qui représente déjà, même sur base du coût estimé six ans plus tôt, un montant de 22 millions £ rien que pour le Royaume-Uni (Phillips et al., 1994). Pour faire face à ce problème lié à la contamination bactérienne des aliments, il faut apporter des améliorations à tous les stades de la production. C’est là que l’HACCP révèle toute son importance, car la mise en œuvre d’un système HACCP dans une chaîne de fabrication alimentaire permet de superviser chaque étape de la transformation des aliments et de prévenir ainsi les dangers de contamination microbiologique.
S’il est vrai que la contamination microbiologique peut donner lieu à des pertes financières importantes, il ne faut pas sous-estimer l’importance de la contamination physique et chimique des aliments. Le système HACCP a été conçu de manière à couvrir l’ensemble de ces dangers.
L’approche préventive sur laquelle il repose a suscité l’intérêt de sociétés du secteur agro-alimentaire et des instances officielles de contrôle nationales et internationales, qui voient en ce système un moyen efficace de contrôler tous les aspects liés à la sécurité alimentaire.
Ces facteurs socio-économiques ont sans doute contribué à la multiplication, ces dernières années, des textes législatifs en rapport avec la sécurité alimentaire, l’hygiène et l’HACCP en Europe et aux Etats-Unis. Il existe actuellement deux Directives européennes qui soulignent la nécessité, pour les entreprises du secteur agro-alimentaire, de mettre en œuvre un système de suivi et de contrôle :
92/46/ CE, Directive concernant l’hygiène des produits laitiers, intitulée “Directive arrêtant les règles sanitaires pour la production et la mise sur le marché de lait cru, de lait traité thermiquement et de produits à base de lait“
Le contenu de ces directives a été traduit dans les différentes législations européennes. Par exemple, au Royaume-Uni, le “Food Safety Act” a été modifié de façon à ce que toute directive CE puisse être appliquée dans le cadre du droit national. Ceci signifie que l’industrie britannique de l’agro-alimentaire devra se conformer à la législation instituée par la CE.
A l’instar de la CE, les Etats-Unis ont également reconnu la nécessité d’un contrôle plus strict dans le domaine de la sécurité des aliments. La FDA (Food and Drug Administration) recommande l’adoption des principes HACCP dans les entreprises du secteur alimentaire, même si, pour l’instant, ces directives ne font par partie du droit fédéral et n’ont pas force de loi.
Définitions et principes
En novembre 1989, le Comité Consultatif National américain pour les Critères Microbiologiques des Aliments (National Advisory Committee on Microbiological Criteria for Foods, ou NACMCF) a présenté un guide décrivant le principe des systèmes HACCP. Dans ce document, le comité concluait que l’HACCP constitue un outil efficace et rationnel de contrôle de la sécurité alimentaire (NACMCF, 1989). Ce document clé a été mis à jour en mars 1992 par le même comité (NACMCF, 1992).
L’HACCP peut être défini comme un système qui identifie des dangers spécifiques (c’est-à-dire toute propriété biologique, chimique ou physique qui affecte la sécurité des aliments) et spécifie les actions nécessaires à leur maîtrise. On entend par “Point de Contrôle Critique” (CCP) tout point de la chaîne de production alimentaire, depuis les matières premières jusqu’au produit fini, où une perte de contrôle pourrait faire courir un risque inacceptable (danger) à la sécurité alimentaire. Lorsqu’on met en œuvre un système HACCP, les tests microbiologiques traditionnels constituent rarement un moyen efficace de surveiller les CCP étant donné le temps nécessaire pour obtenir les résultats. Dans la plupart des cas, le mieux est d’assurer cette surveillance par le biais de tests physiques et chimiques, ainsi que par l’observation visuelle. Le Tableau 1.1 reprend quelques-uns des termes HACCP les plus importants ainsi que leurs définitions.
Les sept principes suivants constituent les règles de base du concept HACCP (NACMCF, 1989, Codex Alimentarius, 1993). Ces sept principes sont utilisés pour élaborer, mettre en œuvre, entretenir et améliorer le système HACCP. Ils constituent la base de l’HACCP et on les rencontre dons tous les textes qui traitent de ce sujet :
Identifier le ou les dangers éventuels associés à la production alimentaire, à tous les stades depuis la culture ou l’élevage jusqu’à la consommation finale, en passant des matières premières et ingrédients à la fabrication, la distribution, la commercialisation, ainsi qu’à la préparation et la consommation de l’aliment (Analyse des dangers) et identifier les actions préventives nécessaires à leur maîtrise.
Localiser les Points de Contrôle Critiques (CCP) qui doivent permettre de maîtriser des dangers identifiés ;
Déterminer les “Niveaux-cibles” et les “Limites critiques” auxquels doit satisfaire chaque CCP ;
Fixer les procédures de surveillance des CCP ;
Déterminer les actions correctives à prendre lorsqu’un CCP donné est non maîtrisé ;
Elaborer des systèmes efficaces d’enregistrement des données servant de base à l’élaboration du plan HACCP ;
Définir les procédures destinées à vérifier que le système HACCP fonctionne correctement.
Ces principes seront expliqués de façon plus détaillée dons le Chapitre 2.
Tableau 1.1 : Définitions de termes HACCP importants
HACCP : Analyse des dangers points critiques pour leur maîtrise
Danger : Propriété biologique, chimique ou physique susceptible de rendre un aliment impropre à la consommation
Analyse des dangers : Evaluation de toutes les procédures ayant trait à la production, la distribution et l’utilisation de matières premières et de denrées alimentaires, visant à :
Identifier les matières premières et les aliments présentant un danger potentiel
Identifier les sources potentielles de contamination
Déterminer la capacité de survie ou de prolifération de micro-organismes au cours de la période de production, de distribution, de stockage ou de consommation
Evaluer les dangers et la sévérité des dangers identifiés
Risque : Estimation de la probabilité que ce(s) danger(s) se présente(nt) effectivement
Sévérité : Gravité d’un danger
CCP Critical Control Point (Point Critique) : lieu, étape, procédure ou processus qui doit être maîtrisé en intervenant sur un ou plusieurs facteurs afin d’éliminer ou réduire un danger ou une de ses causes et de minimiser sa probabilité d’apparition.
Surveillance : Séquence planifiée d’observations ou de mesures pour déterminer si un CCP est maîtrisé et produire un document d’archive précis destiné à être utilisé ultérieurement à des fins de vérification
Avantages et problèmes potentiels du concept HACCP
Le concept de l’HACCP comporte de nombreux avantages :
Il est efficient, car il suppose une concentration des efforts de contrôle
Il est économique, car les méthodes de surveillance reposent essentiellement sur des techniques rapides et simples, et
il est extrêmement efficace, car il permet de prendre rapidement les actions correctives nécessaires.
Cette approche rationnelle et intégrée visant à garantir la sécurité des aliments a suscité l’intérêt de diverses instances chargées de la réglementation en la matière (offices de contrôle alimentaire , ministères de la santé et de l’agriculture, etc.). Leur attitude positive à l’égard de l’HACCP a également eu pour effet de renforcer l’intérêt des entreprises du secteur de la transformation des aliments. Comme c’est le cas lors de tout changement important au sein d’une entreprise, il y a quelques obstacles à franchir au moment de mettre en place un système HACCP sur mesure. Ces obstacles peuvent varier d’un cas à l’autre en raison des différences qui existent au niveau de l’organisation, de la culture d’entreprise et du degré d’engagement du personnel. Voici quelques-uns de ces problèmes et des solutions qui s’y rapportent (Pearson, 1994).
Résistance aux pratiques et aux protocoles de travail standardisés
Si le personnel n’est pas habitué à travailler selon des règles strictes, il se peut qu’il manifeste une résistance à la mise en œuvre d’un système HACCP. Il se peut que les travailleurs doivent changer certaines de leurs habitudes, le succès d’un tel système reposant en effet sur le respect scrupuleux des protocoles. Un aspect positif est que les nouveaux venus peuvent être rapidement opérationnels car toutes les activités sont décrites dans des documents. Une bonne information et une explication de l’impact du système sur la qualité des aliments devraient permettre de convaincre ceux qui se montrent réticents à adopter les actions nécessaires.
Nécessité éventuelle d’investissements
Dans certains cas, les installations de transformation des aliments sont vétustes et inefficaces, voire mal conçues. Pour pouvoir mettre en œuvre un système HACCP, il se peut qu’une partie de l’infrastructure doive être réorganisée, déplacée ou modernisée. Ces investissements de départ sont habituellement rentabilisés à long terme grâce à une diminution des coûts et une meilleure productivité.
Contrôle de l’hygiène personnelle des travailleurs
Les personnes qui manipulent les aliments ou qui sont impliquées dans leur transformation constituent une source possible de contamination. Il est donc important d’exercer un contrôle rigoureux de leur hygiène individuelle. Il se peut que certains travailleurs doivent changer leurs habitudes (coiffure, lavage des mains, éternuements, etc.) ou être temporairement déplacés s’ils souffrent de maladies d’origine alimentaire telle qu’une infection aux salmonelles. L’explication de quelques notions de base de microbiologie alimentaire peut contribuer à sensibiliser le personnel à l’importance de l’hygiène individuelle. Une plaque de gélose incubée avec l’empreinte digitale d’un travailleur peut être utilisée pour ouvrir les yeux des sceptiques !
Main d’œuvre mal formée
Une formation insuffisante peut induire un manque de respect des normes. Une mauvaise communication et des explications incomplètes des normes et des protocoles auront pour effet d’augmenter les réticences et de diminuer la motivation du personnel. Les travailleurs à temps partiel et le personnel temporaire sont souvent oubliés ou simplement exclus lorsqu’il est question de formation.
N’essayez pas de gagner du temps ou de l’argent en rognant sur les formations ! L’aspect humain est l’élément le plus important dans la réussite de l’HACCP !
Le travail contre la montre
Quand les produits doivent être fabriqués et livrés rapidement (notamment suite à une hausse soudaine de la demande), un personnel mis sous pression peut avoir tendance à être moins attentif aux normes et aux règles de production. C’est surtout durant ces périodes que le système HACCP risque d’être mis à l’épreuve et que l’on pourra se rendre compte du degré de motivation et de dévouement du personnel. Or, c’est en ces moments-là que les erreurs ou les “raccourcis” délibérés se rencontrent souvent…
Un bon planning de production et l’utilisation du personnel adéquat peuvent permettre d’éviter les problèmes liés à ces périodes de travail sous pression.
Limitation de la créativité, de l’esprit d’innovation et du savoir-faire
Certains craignent parfois que la mise en œuvre d’un système HACCP ne vienne entraver la créativité, l’esprit d’innovation et le savoir-faire. Pourtant, le fait d’introduire une standardisation des pratiques et des procédures ne signifie pas qu’il faille supprimer ces éléments, son objectif étant simplement de garantir la sécurité des aliments produits.
Les obstacles potentiels mentionnés plus haut n’ont pas empêché l’industrie agro-alimentaire d’adopter le concept HACCP. Il est clair en effet que les avantages à long terme l’emporteront sur les éventuelles difficultés à court terme.
Pour être efficace, l’HACCP doit faire partie intégrante de la politique de l’entreprise en matière de qualité, et il peut donc être associé à un programme de “bonnes pratiques de fabrication” ou à la mise en œuvre de la norme ISO 9000. Cela nécessite d’importants investissements tant en heures de travail qu’en termes de ressources financières de l’entreprise. Pour réussir, un tel programme doit bénéficier de l’appui et de l’engagement total de la direction et du personnel, travaillant ensemble dans un esprit d’équipe.
L’amélioration du rapport coût/avantages lié à l’HACCP n’apparaîtra clairement qu’à long terme, au moment où l’utilisation de ce système se traduira par des économies engendrées notamment par un meilleur rendement et une réduction des rebuts. Certains avantages n’ont pas de retour financier tangible, mais contribuent à améliorer l’image et la réputation de l’entreprise. Un certain nombre d’avantages commerciaux du système HACCP sont repris dans la liste qui suit:
Augmentation de la sécurité alimentaire
Minimiser les dangers de produit non conformes
Conformité à la législation en matière d’alimentation et à la directive européenne sur l’hygiène
Meilleur rendement
Réduction des rebuts
Amélioration des conditions de travail
Amélioration du moral et réduction de la rotation du personnel
Fiabilité accrue permettant de rencontrer les exigences du client
Renforcement de la confiance du client
Elargissement des perspectives commerciales
Amélioration de l’image et de la réputation
Amélioration de la qualité des produits
Diminution du nombre de réclamations
Diminution du nombre de produits retirés de la vente
Réduction du risque de contre-publicité
Réduction des coûts
[…]
Références bibliographiques
Gerick, K. 1994. Foodborne Disease Trends in Europe. Intervention à la Conférence sur la sécurité alimentaire, Laval, France, Juin 1994.
National Advisory Committee for Microbiological Criteria for Food (NACMCF), 1989. HACCP principles for food production. USDA-FSIS Information Office Washington, DC.
National Advisory Committee for Microbiological Criteria for Food (NACMCF), 1992. Hazard Analysis and Critical Control Point System. International Journal of Food Microbiology, 16, 1-23.
Notermans, S., et Van der Giessen, A., 1993. Foodborne disease in the 1980s and 1990s. Food Control 4, 122-124.
Pearson, R. 1994. Personal communication, Food Dialog, UK.
Phillips, C., et J. T. George, 1994. Food Poisoning in context, International Food Hygiene, 5, 45-49.