HALLEUX : La seconde révolution industrielle dans le bassin liégeois 1860-1917 (CHiCC, 2002)

Temps de lecture : 4 minutes >

Le concept de révolution industrielle a été créé au moment de la révolution de 1830 par un littérateur qui remarquait un parallèle entre les événements politiques, c’est-à-dire l’indépendance belge et les grands changements que l’on voyait dans l’industrie. On percevait l’aurore de temps nouveaux, comme l’a écrit un poète : “Oui, l’industrie est noble et sainte, son règne est le règne de Dieu.” Une révolution industrielle, c’est un changement de système technique, c’est-à-dire un ensemble constitué par des matériaux et des méthodes de transformation, et des énergies.

Pendant le moyen-âge nous avons vécu sur un matériau qui était le fer produit avec du charbon de bois et l’énergie hydraulique. Au début du 19e siècle, l’énergie hydraulique atteint ses limites et les forêts se déboisent terriblement. C’est à cette époque que s’introduit, à Liège d’abord, un nouveau système technique. Au charbon de bois, on substitue le coke, du charbon de terre que l’on a cuit pour le débarrasser des matières volatiles. Les premières machines à vapeur créées en Angleterre s’introduisent aussi chez nous. Pourquoi à Liège ? Parce qu’il y avait de la houille et du minerai facile à extraire. Mais surtout une conjonction entre, d’une part un savoir-faire traditionnel et, d’autre part, un dynamisme de la bourgeoisie et d’une aristocratie investisseuse.

Le peintre Léonard Defrance affectionne les représentations des usines, des manufactures et des charbonnages. Le commanditaire de ces tableaux se fait représenter dans son usine avec ses ouvriers et souvent avec un vieillard pensif qui personnifie le passé et un petit enfant qui personnifie l’avenir, Jean-Jacques Daniel Dony invente un procédé de fabrication du zinc, son usine sera reprise par Mosselman qui va fonder la Vieille-Montagne. Nous trouvons un certain nombre d’hommes nouveaux qui ne sont pas des techniciens : les Orban qui sont des merciers, les Lamarche qui sont des marchands de tabac et de denrées coloniales, les Michiels, les Dallemagne, les Beer. Tous ces gens débutent en achetant un fourneau ou un charbonnage. Ils essaient de créer une usine intégrée où on commence par les matériaux extraits du sol, et où on va jusqu’à la fabrication des machines. C’est l’origine des sociétés comme la Société de Sclessin, la Société d’Angleur, la Société de Grivegnée, les deux fabriques d’Ougrée qui vont donner Ougrée-Marihaye et la Société d’Espérance. Ce sont des entreprises familiales montées par des hommes de négoce qui s’approprient les nouvelles techniques. Ils font venir des techniciens anglais qui construisent les nouveaux outils. Le haut-fourneau liégeois conçu pour le charbon de bois ne convient plus pour le coke. Mais très vite, les Anglais seront dépassés par les techniciens locaux.

John Cockerill n’a pas fait d’études. C’est essentiellement un ouvrier formé par son père avec un prodigieux génie entreprenant qui commence par construire des machines à filer et à tisser. De là, il découvre l’opportunité des machines à vapeur puis, partant d’un atelier de construction de ces machines, il construit un haut-fourneau, des fours à coke, achète des houillères et des mines de fer. Il inonde l’Europe de ses produits. C’est un vrai génie mais un piètre gestionnaire. Il connaîtra des revers et ainsi mourra d’une manière triste et mystérieuse en Russie en essayant de rétablir ses affaires.

Certes, ces hommes ont un certain savoir. Aujourd’hui, les ingénieurs ont étudié à l’université. À cette époque, ce sont généralement des ouvriers formés sur le tas qui ont suivi des cours de dessin industriel et qui viennent de toute l’Europe. L’Université de Liège a été fondée en 1817 en même temps que l’usine Cockerill et a eu des écoles spéciales des mines et des arts et manufactures. A cette époque les ingénieurs ne vont pas dans l’industrie, ils font carrière dans les grands corps de l’État : ponts et chaussées, corps des mines, et plus tard au chemin de fer. Les industriels se fient plutôt à leur chef fondeur, leur chef puddleur, leur chef mécanicien qui tous ont de l’or dans les mains.

Le paysage est encore très rural. Petit à petit, les usines s’entourent de maisons, de corons. Par cette imbrication entre les zones d’habitats, nos usines vont se trouver à l’étroit et cela va les handicaper par la suite.

Un système technique est condamné à saturer. Vers 1860, le fer ne répond plus à certaines contraintes notamment pour faire des rails. L’acier apparaît alors. De nouvelles énergies apparaissent. L’électricité, la dynamo inventée par Zénobe Gramme, les moteurs à combustion interne : à gaz inventé par Lenoir. Ensuite à essence, puis le moteur diesel. Ces moteurs légers et plus puissants vont s’imposer sur la route puis dans l’air. L’école industrielle de Liège, créée à l’initiative de la Société libre d’Émulation, date de 1826. Quant à l’école industrielle de Seraing, elle est créée à l’initiative du docteur Kuborn et a le souci d’actualiser sans arrêt ses cours pour suivre le progrès scientifique. Désormais, il faudra de plus en plus de science et une nouvelle génération d’ingénieurs, sortis de l’université et de l’Institut Montéfiore. Ils vont entrer dans l’industrie, ils vont se frayer un chemin jusqu’au conseil d’administration et ils vont souvent s’allier aux filles des grandes dynasties industrielles.

Le minerai de fer de notre bassin ne convient plus pour l’acier et celui de la Lorraine prend le relais. Il faut des capitaux importants pour adapter les usines et les premières fusions ont lieu. Les rapports sociaux changent vers 1886 avec la crise et les luttes ouvrières. Entre 1914 et 1918, toutes les industries liégeoises ont été démantelées par l’occupant dans le but de détruire un concurrent commercial. Paradoxalement, ces destructions ont été une chance car avec le dynamisme qui nous caractérisait et qui caractérisait nos industriels, très vite, ils vont rebâtir avec du matériel ultramoderne.

La situation fut différente en 1945 car les besoins étaient énormes et nos usines ont tourné à plein rendement pendant quelques années. Seulement, l’outil n’a pas été modernisé assez vite et est devenu obsolète.

d’après Robert HALLEUX

  • Illustration en tête de l’article : Léonard Defrance, “Intérieur de fonderie” © Walker Art Gallery

La CHICC ou Commission Historique et Culturelle de Cointe (Liège, BE) et wallonica.org sont partenaires. Ce texte est le résumé d’une conférence de Robert HALLEUX, organisée en mai 2002 par la CHiCC : le voici diffusé dans nos pages. Pour les dates des autres conférences, voyez notre agenda en ligne

Plus de CHiCC ?

VAN HEULE : Le meuble liégeois (1952)

Temps de lecture : 7 minutes >

Cette notice sur le meuble liégeois devait paraître dans la feuille intitulée ART MOSAN éditée à Liège, à l’occasion de l’exposition de 1951. En dernière minute, l’article de fond ayant dépassé les limites prévues, la notice ci-dessous, déjà imprimée en épreuve, dut être supprimée. Très aimablement, M. G. Thone et M. J. Lejeune m’ont proposé d’en faire un tirage spécial en y ajoutant une série de planches dont les clichés m’ont été prêtés par l’Institut archéologique liégeois. Que tous trouvent ici l’expression de ma reconnaissance.

H. van Heule

Si l’art est né d’une conception spiritualiste, son évolution est due à une suite de courants étrangers, d’échanges, auxquels chaque peuple apporte son génie propre. D’où différenciation dans l’unité. S’il est un art dans lequel les Liégeois ont excellé, c’est bien celui du meuble.

Le meuble est né d’une nécessité, celle de rendre la vie plus commode [sic] et de conserver des objets précieux en les mettant à l’abri des déprédations ou des tentations.

Au début, bancs, sièges pliants, tabourets pour s’asseoir, planches sur tréteaux en guise de table, lits, coffres formés de lourdes planches maintenues à queue d’aronde, c’était rustique. La recherche, l’élégance vinrent ensuite.

Les coffres furent d’ailleurs, avec les lits, les seuls gros meubles jusqu’à la fin du XIVe siècle. À l’occasion, ils servaient même de lit. Sinon, on y entassait vêtements, vaisselle, tapis, et, quand on en possédait, les bijoux. On ne s’encombrait pas, en ce temps-là. De plus, en cas d’alerte ou de déménagement, ce qui était fréquent, le tout demandait un minimum de préparation au départ. Les coffres chargés étaient emportés par l’animal de bât, cheval ou âne, ou posés sur un char.

Au cours des âges, les coffres s’étaient agrémentés de pentures en fer forgé, de solides serrures par surcroît de sécurité. S’ils étaient robustes, ils étaient aussi très pesants. On chercha à les rendre plus maniables. Les coffres furent travaillés à panneaux dès avant le XIVe siècle, travail de menuiserie plus souple, qui leur conférait une certaine élégance grâce au jeu des ombres et des lumières. Bientôt les panneaux s’ornèrent de fines arcatures inspirées par les dessins des fenestrages de nos églises, de serviettes plissées ou parchemins repliés. De menuisier, l’artisan passait ébéniste, sculpteur ; il devenait un artiste.

Quelques beaux coffres gothiques sont conservés dans nos musées liégeois, celui du Musée diocésain date du XIVe siècle ; d’autres, au musée Curtius, appartiennent aux XVe et XVIe siècles.

De la conjugaison du menuisier et de l’ébéniste, les productions allaient devenir aussi heureuses que fécondes. Les types de meubles se multiplièrent afin de s’adapter aux nécessités d’une existence rendue plus facile. L’artiste, protégé, pourra donner libre cours à son imagination : le meuble en série est une invention moderne. Les coffres reposèrent, sur une base les rendant mieux à portée de la main. Du coffre posé sur une base, tout naturellement on passa au dressoir.

Au XVIe siècle, les églises, les monastères, par destination plus sédentaires, disposant de plus d’espace, souvent aussi d’un personnel artisanal très compétent, purent s’offrir le luxe d’imposantes armoires, dont quelques-unes ont réussi à braver les siècles.

Comme pour les coffres, le décor, d’inspiration architecturale au début, empruntera ensuite des motifs puisés dans la nature tout en les stylisant. Témoins, le coffre et l’armoire influencés par le style gothique anglais (gothique Tudor), avec leurs moulures formant des courbes, des contrecourbes : décor en X autour desquels s’enroulent des pampres, conservés au musée Curtius.

Sous le souffle d’un courant venu d’Italie lors du règne d’Erard de la Marck (1505-1538), le style Renaissance, si en honneur dans la péninsule et en France, fait son entrée dans l’art liégeois. Il s’y est tempéré. L’armoire liégeoise du deuxième quart et du milieu du XVIe siècle, tout en gardant une structure encore gothique, s’orne de personnages dans des arcatures, même de motifs puisés au répertoire des céramistes. Les pentures ont un rôle plus discret. Evidemment, tous ces meubles sont devenus rarissimes.

Autre changement d’aspect au XVIIe siècle, le type du meuble brabançon prédomine : lourds bahuts avec corps supérieur en retrait et corniche débordante ; décor en méplats, pastilles en chapelet, pointes de diamants, godrons, mufles de lion retenant un anneau en cuivre. Les pentures ont disparu. Le chêne ciré a la prédilection des Liégeois. Les incrustations d’ébène, recherchées aux Pays-Bas, sont plus rarement employées. Les tables sont à traverses ou entretoises, les sièges aux lignes nettes et rigides, recouverts de cuir ou de tapisserie, agrémentés de clous de cuivre. A côté des gros bahuts, viennent se ranger les meubles d’importation dans le goût italien : ces charmants cabinets à multiples tiroirs en bois d’essences variées, incrustés d’écaille, d’ivoire, de cuivre ou d’étain, dont beaucoup furent l’œuvre des Fokkerhout, à Anvers. C’était cossu et bien en rapport avec le costume aux lourdes étoffes, avec la pompe de cette époque. Tous ces beaux meubles résultent de commandes que seuls pouvaient se permettre certaines catégories de personnages, disposant aussi chez eux de place suffisante pour les caser. En effet, c’est du XVIIe siècle que date l’essor de la grande industrie liégeoise, source de sa prospérité.

Mais, pour nous, le meuble liégeois, c’est le meuble du XVIIIe siècle. Cette période est aussi la mieux connue, parce que plus proche de nous ; le temps, de sa dent vorace, n’est pas encore arrivé à en avoir raison.

Le soleil de Louis XIV éblouissait tout l’Occident, mais ses rayons n’aveuglèrent pas les Liégeois. Mesurés et réfléchis, ils surent, intelligemment adapter le faste français en le ramenant à leurs proportions. Et voilà pourquoi, avec goût, avec tact, nos huchiers créèrent des œuvres parfaites.

Au XVIIIe siècle, le standard de vie s’était considérablement amélioré. Liège, capitale d’un petit Etat quasi indépendant, comptait un important patriciat, tant ecclésiastique que séculier. Que d’hôtel construits ou transformés à partir de 1691, après le bombardement de la ville par le marquis de Boufflers !

Que l’on songe à l’hôtel de ville, aux hôtels particuliers d’une si harmonieuse architecture de la rue Hors-Château, de Féronstrée, du Mont-Saint-Martin, de la Basse Sauvenière, et j’en passe; aux maisons plus modestes, mais si jolies quand même, des rues Neuvice, du Pont, de la place du Marché. La décoration intérieure ne pouvait que suivre : sculptures des portes, des lambris, des volets, des hottes de cheminée, des départs d’escaliers, encadrements de trumeaux ou de tableaux ; stucages des plafonds et des murs ; peintures décoratives dans le goût chinois, singeries (sous Louis XV) ; paysages, scènes de genre ou religieuses ; riches tapisseries de Bruxelles ou d’Audenarde… De tels cadres ne pouvaient que servir d’écrin à de beaux meubles.

Les ébénistes liégeois ne faillirent pas à leur tâche. Fort d’une longue tradition, le travail du bois n’avait plus aucun secret pour eux. En plein chêne, ils manièrent le ciseau ou la gouge avec dextérité, avec souplesse et légèreté, évitant les reliefs exagérés. Chez eux tout était mesure et équilibre.

Les créations se multiplièrent en raison même du confort enfin découvert : chaises aux sièges rembourrés ou cannés, aux dossiers de mieux en mieux adaptés aux courbes du dos, fauteuils savamment étudiés en fonction de leur destination, invitant au repos ou à la causerie, Les tables, elles, sont toujours de petite dimension. On continue à se servir de planches posées sur tréteaux pour les repas réunissant de nombreux convives. Mais le triomphe des ébénistes liégeois est incontestablement l’armoire, que ce soit le bahut à simple ou à deux corps, souvent le corps supérieur vitré ; que ce soit la garde-robe, l’horloge en gaine, le bureau à abattant, appelé scriban, les commodes à trois ou quatre tiroirs, rectilignes avec les styles Louis XIV ou Louis XVI, galbées ou mouvementées pour le Louis XV. Presque toujours, ces meubles sont à pans coupés, ce qui leur confère un caractère de légèreté en adoucissant le profil. Souvent, ils forment des combinaisons : un dessus plein ou vitré se posait tout aussi aisément sur une commode ou un scriban que sur un bahut à deux ou trois portes, munis ou non de tiroirs.

Toutes les fantaisies se donnaient libre cours suivant le caprice du client qui passait la commande. Aux moulures, tantôt symétriques, tantôt asymétriques, selon l’ordonnance Louis XIV ou Louis XV, rectilignes avec le style Louis XVI, s’ajoutent de fins décors inspirés de la nature : branches fleuries auxquelles se mêlent les palmettes Louis XIV, les coquilles Régence, les rocailles, les courbes et contrecourbes Louis XV.

Bahut Louis XIV liégeois © drouot.com

Les styles Louis XIV et Louis XV furent connus à peu près en même temps à Liège. Nos ébénistes les amalgamèrent et créèrent un style Régence, bien à eux, qui s’éloigne du calme, de la statique du décor Louis XIV et rejette l’exubérance agitée du décor Louis XV. Il fait incontestablement leur gloire et leur tresse une couronne impérissable. Quant aux meubles Louis XVI, leurs moulures en sont fréquemment brisées : chapelets formés de bâtonnets, de perles, ou les deux motifs associés, alliés à de délicats décors floraux accompagnés de trophées, de nœuds de ruban plissé très gracieux. La décoration du meuble liégeois de l’époque Louis XVI est infiniment plus légère que celle de ses prédécesseurs, plus gracile, et, comme en France, malgré la délicatesse des sculptures, elle annonce la décadence.

Le bois de chêne ciré continuait à avoir la faveur des Liégeois, mais les meubles de marqueterie n’étaient pas dédaignés. Ceux-ci semblent avoir été fabriqués plus particulièrement dans la région de Verviers, témoins les nombreux scribans, les commodes mouvementées ou galbées que l’on y trouve.

Une étude approfondie du meuble liégeois est encore à faire. Il serait possible de mieux dégager les différents centres où œuvrèrent nos artistes, parce qu’ici, le régionalisme joue son plein effet. De plus, les recherches dans les archives permettraient peut-être de rendre un juste hommage à des artistes restés inconnus et d’ajouter leur nom à ceux des Lejeune, des Mélotte, des Herman, dont nous sommes justement fiers.

H. van HEULE, Conservatrice honoraire
des musées archéologiques liégeois

Téléchargez la brochure complète ici…

Tous les meubles figurés sur les planches disponibles dans la DOCUMENTA, ainsi que beaucoup d’autres, sont exposés dans les Musées de la Ville de Liège :


[INFOS QUALITE] statut : validé | mode d’édition : transcription, correction, édition et iconographie | sources : collection privée |  contributeur : Patrick Thonart | crédits illustrations : en-tête, le Musée d’Ansembourg © Visitez Liège ; © drouot.com.


Documenter encore en Wallonie…

HAINE : Les facteurs d’instruments de musique actifs en Wallonie et à Bruxelles en 1985 (Pierre Mardaga, 1985)

Temps de lecture : 10 minutes >

Les facteurs d’instruments de musique en Wallonie et à Bruxelles

LES SECTEURS DE LA FACTURE INSTRUMENTALE

La Communauté française de Belgique en 1985 compte 81 artisans dans la facture instrumentale qui se répartissent en sept catégories :

      1. clavecins et pianoforte 9,
      2. orgues 12,
      3. lutherie 31,
      4. instruments à vent 12,
      5. percussions 3,
      6. instruments mécaniques 6,
      7. instruments populaires 8.

Les facteurs d’instruments rangés dans la catégorie des clavecins fabriquent indifféremment des clavecins ou des instruments plus petits de type épinettes, virginals ou clavicordes. Un seul d’entre eux se consacre aussi à la construction de pianoforte. Tout récemment. un facteur de clavecins vient de décider de mettre sur le marché des pianos munis de sa marque.

Dans le secteur des orgues, les facteurs réalisent principalement des grandes orgues d’église ; quelques-uns fabriquent aussi des orgues positifs de dimensions plus réduites. Une entreprise s’adonne à la fois à la facture des orgues et des clavecins.

La lutherie, les instruments à vent et les instruments populaires présentent une certaine diversité dans leurs spécialisations. Certains luthiers ne se limitent pas à la fabrication des instruments du quatuor moderne ou ancien : les uns se spécialisent dans les violes d’amour, violes de gambes ou barytons, les autres se consacrent aux guitares ou aux luths ; d’autres enfin s’adonnent à la fabrication d’archets ou d’outils de lutherie.

De même, dans les instruments à vent qui se subdivisent en bois et en cuivres, la spécialisation à un type déterminé d’instruments est une pratique courante. Dans les bois, seules des flûtes de type Renaissance ou baroque sont fabriquées dans nos régions. Suite à la forte concurrence étrangère, les instruments à vent en cuivre ne sont pratiquement plus construits chez nous ; seules des entreprises dont la création remonte au 19e siècle ou au début du 20e siècle présentent encore au public des instruments munis de leur marque. La plupart d’entre elles se sont tournées vers l’entretien ou la restauration des cuivres ; la vente d’instruments importés occupe par ailleurs une grande partie de leurs activités. Un seul facteur d’instruments à vent distribue une cinquantaine de modèles divers, à la fois dans les bois et dans les cuivres, qui tous sont marqués de son nom. Mais il faut souligner que c’est à l’étranger que ce facteur fait fabriquer ses produits.

Cornets à bouquin © rtbf.be

Trois artisans se sont tournés vers une activité très spécifique au sein des instruments à vent : le premier fabrique des cornets à bouquin de type Renaissance, le deuxième reproduit des embouchures anciennes, le troisième se spécialise dans des becs de saxophones fabriqués dans des matières diverses.

Le secteur des instruments populaires offre une large variété de types divers. Si l’un ou l’autre facteur se consacre uniquement à la fabrication des cornemuses, des vielles à roue ou des accordéons diatoniques, d’autres s·occupent de plusieurs catégories à la fois: dulcimers, épinettes des Vosges et harpes celtiques.

Enfin, les facteurs d’instruments mécaniques fabriquent surtout des orgues de Barbarie. Deux d’entre eux réalisent également des instruments plus importants de type orchestrion.

La facture instrumentale est un métier essentiellement masculin. Seules trois femmes facteurs exercent cette activité : deux s’occupent de lutherie et une autre de clavecins.

Les artisans de la facture instrumentale ont une moyenne d’âge de 42 ans pour l’ensemble de ses secteurs. Seules les spécialités de la lutherie et des clavecins présentent une moyenne d’âge légèrement inférieure à cette moyenne générale, avec respectivement 39 et 41 ans. Par contre, la moyenne d’âge est légèrement supérieure dans les instruments mécaniques (44 ans), les orgues (45 ans), les instruments populaires (46 ans). les instruments à vent et les percussions (47 ans).

LES SECTEURS NON REPRESENTES : CLOCHES, PIANOS, SYNTHETISEURS

Lorsque l’on observe les divers secteurs de la facture instrumentale dans la Communauté française de Belgique en 1985, on constate que trois catégories d’instruments n’y sont pas représentées : ce sont les cloches, les pianos et les synthétiseurs.

La dernière fonderie de cloches de Wallonie installée à Tellin dans le Luxembourg a fermé ses portes cette année suite au décès de la dernière représentante d’une dynastie de fondeurs se transmettant l’art du métier de père en fils ou de père en filles depuis plusieurs générations.

Quant au secteur des pianos, il n’est plus du tout représenté. Actuellement les pianos vendus sont importés de l’étranger : U.S.A., Allemagne, Autriche, Japon et Corée. La vente des pianos importés se fait soit par des grandes maisons soit par des entreprises familiales plus réduites. Toutes ces maisons ont été créées il y a près d’un siècle : elles produisaient alors leurs propres pianos. Au fil des années, elles sont passées entre les mains de membres d’une même famille.

Alors que la facture de pianos était très florissante au 19e siècle et jusque dans les années 1920, les premières défections s’annoncent dans l’immédiate après-guerre (1945-1950) et continuent tout au long des années qui suivent: Hanlet abandonne la facture en 1960. Van der Elst en 1963 et Hautrive en 1973, pour ne citer que quelques noms.

© superprof

Les raisons de cet abandon sont d’ordres économique et financier : coût trop élevé du matériel de base souvent importé de l’étranger et charges sociales trop lourdes pour la main-d’œuvre occupée. Le coup de grâce est porté lors de l’invasion massive du marché de pianos étranger, notamment allemands et japonais de haute qualité et à des prix nettement plus concurrentiels que ceux pratiqués en France et en Belgique.

Les manufactures existantes se sont alors tournées vers des activités essentiellement commerciales. Pourtant. depuis 1960, la demande ne cesse de progresser (certaines petites entreprises vendent jusqu’à 300 pianos par an !), avec cependant une légère stagnation au cours de ces cinq dernières années, suite à la crise économique. Le système de leasing, location avec option de vente, est désormais pratiqué par tous avec succès (pour certains, il représente même 90 % des revenus). La clientèle est essentiellement formée d’amateurs, auxquels se joignent les grandes institutions professionnelles telles les conservatoires, académies, ou les radios et télévisions belges.

Pourtant, il faut noter que depuis mars 1985, une maison livre à nouveau des pianos modernes, munis de sa marque, à des prix très concurrentiels par rapport aux marques étrangères. Sans doute est-il trop tôt pour estimer la présence d’une relance dans ce secteur tout au moins peut-on parler d’un renouveau, ou en tous cas d’une tentative pour faire face aux marques étrangères. La structure d’exploitation de cette maison permet de prendre le risque d’une telle aventure. Sans doute faudra-t-il attendre encore quelques années avant de pouvoir estimer si ce secteur a réellement quelques chances de renaître dans nos régions.

Les synthétiseurs sont les derniers venus sur le marché des instruments de musique. La demande est importante mais aucun appareil n’est conçu ni réalisé, ni même assemblé dans nos régions. La majorité des synthétiseurs sont importés du Japon (marques Yamada. Korg, Kawai, Roland) ou des U.S.A. (Oberheim, Sequential Circuits, EM, MOC). Au niveau européen, la République Fédérale d’Allemagne et l’Italie se présentent comme les deux grands constructeurs, travaillant néanmoins en grande partie sous licence américaine. Enfin, la marque australienne Fairlight est à l’heure actuelle considérée comme produisant le synthétiseur le plus performant.

REPARTITION GEOGRAPHIQUE

Tels qu’ils sont répartis dans le tableau [disponible dans le catalogue], les 81 facteurs d’instruments de musique sont installés pour près de deux tiers en Wallonie et pour un tiers à Bruxelles (voir cartes pp. 12 et 13). La province la plus riche en facteurs d’instruments de musique est le Hainaut ( 17) suivie de Liège ( 14), du Brabant (11), de Namur (8) et du Luxembourg (3). Aucune province ne compte des facteurs de toutes les spécialités : de même, on ne peut dire que tel ou tel secteur est davantage implanté dans une région déterminée. Néanmoins. les facteurs d’orgues, les facteurs d’instruments mécaniques et d’instruments populaires préfèrent la province à la capitale. Le Brabant semble offrir le plus de variétés puisque seule la catégorie des percussions n’y est pas représentée.

A l’intérieur de la capitale, les facteurs d’instruments de musique sont dispersés dans plusieurs communes. Certes, trois luthiers se sont installés au cœur même de Bruxelles, dans le quartier du Sablon. près du Conservatoire royal de Musique, et deux facteurs-marchands d’instruments à vent se trouvent au centre-ville. Les communes situées au sud de Bruxelles-ville semblent être davantage choisies comme lieu d’exploitation, quoique celles du nord ne soient pas pour autant complètement désertées.

Près d’un quart des facteurs, principalement les luthiers, connaissent plusieurs lieux d’exploitation. Souvent, ils changent de commune lorsqu’ils habitent Bruxelles, mais ils ne se dirigent pas nécessairement vers le centre ville. Quelques luthiers de province viennent s’installer à Bruxelles. Mais c’est plutôt le mouvement inverse que l’on observe d’une manière générale : les facteurs d’instruments de musique qui ont acquis un certain renom dans la capitale quittent celle-ci pour s’installer en province. Il faut par ailleurs remarquer que ces facteurs ne choisissent pas nécessairement les villes pour y fixer leur atelier ; au contraire, ils semblent préférer la campagne.

La grande majorité des facteurs sont de souche wallonne ou bruxelloise. Seuls six d’entre eux sont d’origine étrangère (un Français, un Italien, deux Allemands. un Anglais, un Néo-Zélandais).

APPRENTISSAGE ET FORMATION

En général, la formation des artisans de la facture instrumentale est très diversifiée. L’apprentissage en autodidacte se rencontre fréquemment parmi les luthiers (50 %), les facteurs d’instruments à vent en bois ou les facteurs d’instruments mécaniques (50 %), alors qu’il est nettement plus rare chez les facteurs d’orgues ou les facteurs de clavecins (10 %).

L’apprentissage se fait soit par des stages auprès de facteurs étrangers (50 % ) ou belges (35 % ), soit par des études dans des écoles de facture instrumentale (15 %).

La plupart des facteurs d’orgues et de clavecins ont d’abord acquis une formation de menuisier ou d’ébéniste avant d’entreprendre une spécialisation dans la facture instrumentale. Il faut également noter que 30 % des facteurs d’instruments à vent et d’instruments à percussion ont acquis leur formation dans les ateliers paternels. La majorité des facteurs connaissent la pratique des instruments qu’ils fabriquent. Ils sont quasiment tous instrumentistes amateurs ou, dans quelques cas, professionnels ; certains ont un diplôme du Conservatoire. La plupart des facteurs d’instruments populaires font partie de groupes folkloriques ou de musiques populaires.

Benoît Paulis est le seul facteur d’orgues de barbarie wallon (2023) © Pauliphonic

Quelques facteurs bénéficient aussi d’une formation de musicologue (sortis des universités francophones du pays).

Il existe deux écoles de facture instrumentale dans la partie flamande du pays, une créée en 1976 à Puurs, le Centrum voor Muziekinstmmentenbouw, et l’autre créée en 1981 comme section de l’école technique provinciale de Boom. La première de ces écoles procure un diplôme de formation sociale complémentaire tandis que la section de Boom délivre un diplôme technique. Dans chacune de ces écoles. les cours de facture instrumentale s’insèrent dans un programme de cours généraux dispensés pendant trois ans par des luthiers de métier. Chaque école compte une trentaine d’étudiants qui tous reçoivent une formation de luthier. Il semble qu’il n’y ait pas de cours concernant les autres spécialités : ni la facture d’orgues ni celle de clavecins. Il n’existe pas d’écoles semblables en Wallonie (voir p. 25).

Les deux tiers des facteurs d’instruments de musique actuels de Wallonie et de Bruxelles se sont installés à leur compte après 1971 ; plus précisément, la plupart de ceux-ci ont commencé la facture instrumentale entre 1976 et 1980, suite au renouveau de la musique ancienne. Toutefois, le mouvement s’est amorcé dès les années 1965-1975 avec une dizaine d’artisans débutant dans ce métier  Par contre. depuis 1981, il semble qu’il y ait un net ralentissement dans le nombre de nouveaux facteurs.

Les facteurs d’instruments de musique s’installent à leur compte généralement vers l’âge de 30 ans. Toutefois, selon les spécialités, on constate de légères variations oscillant entre 27 ans (facture d’orgues) et 35 ans (instruments populaires). Il faut cependant remarquer qu’il est parfois assez malaisé de préciser exactement le début de leurs activités de facteur : la plupart commencent en amateur, bien souvent en sus d’une autre activité professionnelle qu’ils n’abandonnent d’ailleurs parfois pas complètement. Ce lent démarrage n’est bien entendu possible que dans les secteurs qui ne nécessitent pas de capitaux importants de départ.

Mais pour une fabrication continue et de choix. il faut toutefois investir dans des réserves de bois importantes qu’on laisse sécher plusieurs années. Dans le secteur des orgues, le montant des capitaux nécessaires est par ailleurs plus important.

D’où viennent ces capitaux de départ ? Quelques luthiers et facteurs de clavecins installés après 1970 ont remporté une bourse de la Fondation belge de la Vocation qui leur a permis un démarrage plus facile. D’autres ont bénéficié d’un emprunt spécial jeune ; certains possèdent des économies personnelles provenant d’une autre occupation principale ou de facilités familiales.

Si la grande majorité des facteurs d’instruments de musique de Wallonie et de Bruxelles ont ouvert de nouveaux ateliers en s’installant à leur compte, il faut remarquer qu’il existe quelques entreprises à tradition familiale. Six d’entre eux en sont à leur deuxième ou troisième génération de facteurs d’instruments : Gomrée (orgues), Schumacher (orgues), Thirion (instruments mécaniques), Camurat (lutherie), Bantuelle (cuivres), Kerkhofs (cuivres), Maheu (cuivres) (certains toutefois se sont à présent convertis uniquement dans la vente d’instruments) ; huit facteurs d’instruments appartiennent à des maisons qui remontent au 19e siècle : la maison Delmotte (orgues) date de 1812, la maison Kaufmann (clavecins) quoique créée à l’étranger remonte à 1828, la maison Mahillon (cuivres) est fondée en 1836 et passe aux mains de Steenhuysen en 1939, la maison Bernard (lutherie) est ouverte en 1868, la maison Van Linthout (cuivres) a débuté en 1870, la maison Persy (cuivres) s’est établie en 1897, la maison Maheu (cuivres) débute en 1890 et la maison Biesemans (percussions) commence en 1908.

MILIEU FAMILIAL

La moitié des facteurs d’instruments de musique sont issus d’une famille dont les parents exerçaient, dans 30 % des cas, une profession libérale (médecin, industriel, avocat) et, dans 20 % des cas, des activités dans la facture instrumentale. Pour le reste, on peut dénombrer 11 % appartenant à un milieu ouvrier (verrier, tourneur, menuisier, textile, tôlier), 10 % issu d’un milieu d’artistes (musicien professionnel, peintre, photographe), 8 % d’un milieu de petits commerçants (boucher, pâtissier), 7 % d’un milieu d’enseignants (instituteur, régent, professeur dans le secondaire). Un dernier groupe représentant 14 % de l’ensemble des facteurs d’instruments de musique s’apparente à des milieux divers : comptable, employé, chef de gare, officier dans l’armée de l’air ou ébéniste.

Dans la catégorie des facteurs de clavecins, des luthiers, des facteurs d’instruments à vent en bois, on remarque une nette tendance à l’appartenance à un milieu familial de type professions libérales. La majeure partie des facteurs d’orgues et des facteurs d’instruments à vent en cuivre est issue d’un milieu de facteurs d’instruments de musique. Quant aux facteurs d’instruments mécaniques, ils appartiennent à un milieu plus populaire. […]

Suivent les sujets suivants :

      • Structures d’exploitation
        • Artisan ou chef d’entreprise ?
        • Nature des activités
        • Activité principale ou activité secondaire ?
        • Choix du métier
        • Clientèle
      • Importance de la production
        • Evolution au cours des dernières années
        • Publicité
        • Prix des instruments
        • Difficultés économique
        • Frais et répartition des charges
      • Initiatives souhaitées
        • Au niveau des professionnels
        • Au niveau des pouvoirs publics
La suite est disponible dans le PDF complet avec reconnaissance de caractères, à télécharger dans la DOCUMENTA. L’ouvrage présente également une fiche individuelle pour chacun des 82 facteurs identifiés par l’étude… en 1985.

[INFOS QUALITE] statut : validé | mode d’édition : transcription, correction, édition et iconographie | sources : Pierre Mardaga, éditeur |  contributeur : Patrick Thonart | crédits illustrations : © Pierre Mardaga ; © rtbf.be ; © superprof ; © pauliphonic.


Plus de musique en Wallonie…

I.A. : ChatGPT, tu peux écrire mon mémoire ? (quand les profs mènent l’enquête…)

Temps de lecture : 4 minutes >

[RTBF.BE, 7 juin 2023] C’est une nouvelle réalité dans le monde de l’enseignement : les applications capables de générer du contenu, comme ChatGPT, aident certains étudiants à finaliser leurs travaux. Ces “coups de pouce” de l’intelligence artificielle passent-ils inaperçus ? Comment font les profs pour les débusquer ? Et avec quelles conséquences, à la clé ? Nous avons, nous aussi, mené notre petite enquête…

Pour ceux qui auraient loupé l’info, ChatGPT, c’est ce robot qui vous rédige une lettre de motivation, un poème, un discours de mariage en moins de temps qu’il ne faut pour l’écrire. L’application compte déjà plus de 100.000 utilisateurs dans le monde. Et parmi ses fans, beaucoup d’étudiants.

C’est très tentant, manifestement

Caroline est prof dans le supérieur. Cette habitante de Wallonie picarde parcourt à longueur de journée des travaux d’étudiants, des rapports de stage ou des mémoires. De façon très claire, certains ont eu recours à l’IA (Intelligence Artificielle) pour composer leurs textes. “On s’y attendait. Mais c’est un peu plus rapide que ce qu’on imaginait. On pensait avoir encore un peu le temps… Je pense d’ailleurs que les logiciels de détection de plagiat sont eux aussi un peu pris de court ! C’est tentant, je pense, pour un étudiant d’utiliser l’intelligence artificielle pour se rassurer, avoir des idées, ou peut-être être malhonnête, ça arrive aussi !

Habituée à corriger les productions écrites de ses étudiants, Caroline pense pouvoir détecter, assez rapidement, les passages “made in ChatGPT“. “Cela ne complique pas le métier de correctrice, cela complique l’enquête. Quelqu’un qui tombe sur un texte généré par l’IA et qui ne connaît pas l’étudiant peut tomber dans le panneau. Il peut trouver ça bien écrit, ça tient la route… Mais quand on connaît bien ses étudiants, leur style, leur qualité d’orthographe, etc., on se réveille. On se dit ‘tiens, c’est bizarre’, et ça met la puce à l’oreille !

Je leur ai permis d’utiliser ChatGPT

Avoir recours à l’intelligence artificielle, est-ce du plagiat ? De la fraude ? Y a-t-il une base légale sur laquelle les enseignants peuvent se reposer ? Ces questions sont particulièrement “touchy”, vu le vide juridique qui entoure ces outils. “C’est une question très intéressante, mais à laquelle il n’y a pas de réponse absolue, nous explique Yves Deville, professeur à l’UCLouvain et conseiller du recteur pour le numérique. ChatGPT est un outil extrêmement nouveau. Il n’y a pas aujourd’hui de règles communes. Qu’est-il admis ? Interdit ? En quoi ChatGPT peut-il aider ? Ce n’est pas très clair ! Pour l’instant, c’est un peu à l’enseignant de déterminer par rapport à ses étudiants quelles sont les limites qu’il veut mettre en place.

Par rapport à mes étudiants, j’ai autorisé le recours à ChatGPT pour autant que les étudiants expliquent comment ils utilisent ChatGPT et à quel endroit de leur mémoire de fin d’étude il est utilisé. Ça n’a pas beaucoup de sens d’interdire ce type d’outil, car cela va se déployer de plus en plus dans la vie citoyenne. Il faut surtout apprendre à utiliser ces outils de manière intelligente.” Il faut, pour lui, distinguer les extraits “sourcés” et les extraits “pirates”, qui seraient de simples “copiés-collés”, assimilables à du plagiat. “Le plagiat, c’est reprendre une idée d’un autre sans le citer. Si on dit qu’on a utilisé ChatGPT et qu’on indique à quel endroit, ce n’est pas du plagiat : on prévient le lecteur.

ChatGPT ? Un excellent baratineur !

Pour Yves Deville, ChatGPT peut se révéler d’une grande efficacité pour une série de tâches : “corriger l’orthographe, améliorer la syntaxe, la forme d’un texte dans une langue étrangère. On peut utiliser ChatGPT pour déblayer aussi une thématique.

Mais gare à l’excès de confiance ! “Il faut surtout, surtout vé-ri-fier que ce que ChatGPT dit est bien une réalité scientifique ! ChatGPT est un excellent baratineur. Il ne faut pas utiliser ce type d’outil comme une encyclopédie.” L’Intelligence Artificielle peut jouer de vilains tours à ceux qui lui font trop confiance. En témoignent certaines anecdotes, récits de mésaventures relayés sur internet. “Il y a par exemple cet avocat américain qui a sollicité ChatGPT pour bâtir un argumentaire, dans un procès, raconte Yves Deville. Oups : ChatGPT a inventé des cas de jurisprudence. L’avocat n’a pas vérifié et transmis cette jurisprudence fantaisiste au juge. L’avocat a passé pour un idiot ! ChatGPT doit être considéré comme une aide, un premier jet, un générateur d’idées premières. Ensuite, on vérifie, on s’informe ailleurs, on travaille son sujet… Ne surtout pas tout prendre pour argent comptant.”

Yves Deville et Caroline se rejoignent sur ce point : l’importance de conserver (et d’activer) son esprit critique. Il doit agir comme un véritable bouclier, capable de débusquer les erreurs et fausses pistes sur lesquelles ChatGPT peut emmener ceux qui lui font confiance aveuglément.

Charlotte Legrand, rtbf.be


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rtbf.be | contributeur : Patrick Thonart | crédits illustrations : en-tête, l’œil du robot HAL (= IBM moins une lettre) dans 2001, l’odyssée de l’espace de Stanley Kubrick (1968) © MGM.

Pour bien faire la différence entre des références validées (comme dans wallonica.org, par exemple) et des textes fabriqués au départ des données statistiquement les plus probables (comme via ChatGPT), lisez sur le même sujet :

L’intelligence artificielle génère aussi des images et nous ne résistons pas à l’envie de partager une info (ou un délicieux canular) : un utilisateur aurait demandé à Dall-E [programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles] une photographie de “Montaigne inscrivant son dernier Essai”… Si non e vero, e bene trovato !

Source : Jean-Philippe de Tonnac

Plus de dispositifs en Wallonie-Bruxelles…

HUSTINX, Astrid (1950-2022)

Temps de lecture : 5 minutes >

C’est désormais établi (puisque c’est dans wallonica.org !) : les petites belges ont le caractère bien trempé et cela, depuis longtemps. De Marie Popelin à Marie Mineur, elles ont été nombreuses à marquer notre histoire (même si les manuels scolaires ne leur ont pas toujours fait justice). Plus proches de la grande sportive Hélène Dutrieu, deux femmes moins célèbres n’en ont pas moins imposé le respect dans des domaines qui, à leur époque, étaient l’apanage de ces Messieurs : Fernande Hustinx dans les rallies automobiles (elle est la coéquipière de la fameuse Simone ; pas Simone de Beauvoir mais celle de l’expression “En voiture, Simone“) et une autre Hustinx, Astrid, récemment disparue, qui s’est imposée dans… l’aviation civile, en pilotant rien moins que des A-340 !

Air Astrid

[RATEONE.BE]Le pilote d’un avion de ligne, c’est un homme tout de même, non !?” Eh bien, pas forcément. Il y a plus de 40 ans déjà, Astrid HUSTINX, alors encore une jeune femme, brise la voûte du ciel et sa carrière de pilote prend alors son envol. Accompagnons donc Astrid lors de ses voyages, du Congo à Tahiti. Sautons hors des frontières, out of the box. Ou même, comme Astrid, out of the plane

Née pour sauter

Astrid a vu le jour le 9 mars 1950 à Zele. A ses deux ans, la famille Hustinx s’installe à Elisabethville (aujourd’hui Lubumbashi) au Congo. Sa mère y travaille comme sage-femme, son père comme directeur technique. “Lors de mon enfance, je jouais aux billes avec les garçons, se souvient-elle, et je construisais des locomotives à l’aide de restes de bouts de bois. Jouer à la poupée avec mes copines ? Moi ? Jamais !” Lorsqu’elle a 7 ans, son père l’emmène à un meeting aérien local. Elle est fascinée par les corolles dans le ciel et le Fouga Magister. “De retour à la maison, je voulais absolument sauter en parachute ! J’ai pris le parasol du jardin et ai survolé plusieurs marches de la terrasse… l’atterrissage était hum… hasardeux !” Fin 1961, la crise congolaise oblige la famille Hustinx à rentrer en Belgique. Mais Astrid ne renonce pas à son rêve de sauter en parachute. A l’âge de seize ans, encore mineure, il lui faut impérativement la signature des deux parents. “Papa ne cautionnait pas et préférait que je garde les deux pieds sur terre.” Heureusement, il travaille de temps à autre au Liberia et à la maison, maman a le dernier mot.

© Collection privée

Astrid se rend au terrain presque tous les weekends. Ayant du talent, le Para Club de Spa subventionne ses sauts d’entraînement de voltige et de précision d’atterrissage. Même lors de compétitions internationales, caractérisées par un haut niveau de testostérone masculine, Astrid s’impose malgré tout remarquablement comme femme ! Les revenus gagnés lors de son premier job comme collaboratrice auprès de compagnies d’aviation d’affaires lui permettent de découvrir l’espace aérien de la planète et ses sauts préférés sont des vols de grande formation, dès le milieu des années 70 jusqu’au début de années 90.

Echange combinaison de saut contre uniforme

Sa carrière de pilote n’est pas moins impressionnante. La crise pétrolière de 1973 a d’abord tout gâché… Ne trouvant pas immédiatement de travail comme pilote professionnel, Astrid s’est contentée de petit boulots dans le monde de l’aviation d’affaires. “J’ai lavé des avions, raconte-t-elle, transporté des bagages, assuré la restauration… J’ai également été hôtesse sur Mystère 20 et Falcon 10, et finalement déléguée commerciale, remportant de beaux contrats de location d’avions d’affaires…” En 1977, le moment tant attendu arrive enfin. Astrid est qualifiée copilote Beechcraft-99, sur la ligne Liège-Ostende-Londres Heathrow. Fin 1982, elle s’installe en France. Elle y épouse un pilote français, veuf avec une petite fille. Astrid adopte la fille et… la nationalité française. Cinq années plus tard, à l’âge de 37 ans, Astrid est nommée commandant de bord Mystère 20 et Falcon 10. Une jeune femme commandant de bord d’un avion civil, sans antécédents militaires… il faut le faire ! Elle effectue souvent des vols aussi pour Europ Assistance.

D’Air France…

En 1988, Astrid est embauchée par Air Inter en tant que copilote Caravelle Super XII. Après de longues années passées dans l’aviation d’affaires, ce poste à Air Inter lui permet de consacrer un peu plus de temps à sa famille. Trois ans plus tard, Astrid obtient sa licence de pilote de ligne puis est qualifiée copilote sur Airbus A-320. Pus tard, à 47 ans, à l’époque de la fusion entre Air Inter et Air France, Astrid est nommée commandant de bord de la famille Airbus ! Elle vole désormais sur A-318, A-319, A-320 et aussi l’A-321. En 2005, Astrid est promue commandant de bord sur quadriréacteur Airbus A-340 et elle réalise ses premiers vols transatlantiques, et aussi transpacifiques depuis la base de Tahiti. Cerise sur le gâteau : à peine un an plus tard, Astrid Hustinx se régale sur le biréacteur Airbus A-330 !

© Collection privée

Entre-temps, Astrid reste toujours fidèle à ses premières amours : le parachutisme. Son autre passion aussi est de repousser les limites : faire du vol à voile à une altitude de 5.000 mètres en Nouvelle-Zélande, réaliser des vols en Mustang en Floride ou en P-40 Kittyhawk en Californie… Après sa retraite en 2012 qu’elle qualifie de nouvelle vie, elle reste néanmoins airborne : que ce soit à bord d’un ULM, une montgolfière, ou en parapente… the sky is her limit ! 15.600 heures de vol parmi lesquelles des missions humanitaires… pas étonnant que le président d’Air France en personne ait décoré Astrid Hustinx de la Légion d’Honneur !

…à Air Femme

Les anecdotes à propos d’un pilote féminin dans l’aviation civile pourraient remplir tout un Airbus. “Au début des années ’80, j’étais basée à Bruxelles à bord d’un Mystère 20, immatriculé OO-VPQ, en abrégé : Oscar Papa Québec. Mais, sourit Astrid, les contrôleurs aériens avaient fini par m’appeler Oscar MAMA Québec !” Au cours de l’été 1987, lors d’une réserve, je suis bipée pour un vol en Falcon 10, du Bourget à Bilbao. Mais lorsque mes quatre passagers voient un commandant de bord féminin, ils passent quelques coups de fil pour trouver “un appareil avec un autre équipage.” “Hélas, s’esclaffe Astrid, ils ont dû se contenter de moi ! Et comme ils avaient un contrat important à négocier à Bilbao, ils m’ont finalement suivie vers l’avion, mais en traînant des quatre fers. Imaginez leur soulagement quand ils ont vu que le copilote était un homme ! L’atterrissage à Bilbao fut mon petit moment de gloire : vent de tra-vers, pluie battante, mauvaise visibilité, de nombreuses turbulences et malgré tout… un super Kiss Landing ! Satisfaction pour tout le monde ! Le contrat enfin signé, ils ont même demandé que ce soit dorénavant moi leur commandant de bord !

Air FranceBus, comme dans Airbus

© Collection privée

En 2007, Astrid est basée durant six semaines en Polynésie pour assurer la ligne Air France Papeete – Los Angeles en Airbus-340. Entre deux courriers, lors d’une excursion au Lagon Bleu de Rangiroa, elle se retrouve en compagnie de 4 touristes. Quand ils lui demandent quelle est sa profession, préférant éviter les bavardages, elle leur dit être chauffeur de bus. Quel étonnement lorsque deux jours plus tard, en souhaitant la bienvenue aux passagers, elle revoit ces mêmes touristes. Confus et même un peu abasourdis de voir une Astrid-en-maillot-de-bain vers une Astrid-en-uniforme… “Mais, vous étiez conductrice de bus, non !?” Réponse d’Astrid : “Ah oui, j’ai oublié de vous préciser que c’est un AIR-bus…

Ces touristes eux aussi l’auront compris ! Avec Astrid Hustinx, ce commandant féminin d’Air France, on vole bien loin du business as usual


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie | sources : rateone.be | contributeur : Patrick Thonart | crédits illustrations : © Collection privée.


Plus de sport en Wallonie-Bruxelles…

À l’origine de Wikipédia, l’opposition entre deux visions du savoir

Temps de lecture : 5 minutes >

[RADIOFRANCE.FR/FRANCECULTURE, 28 février 2023] À l’origine de Wikipédia en 2001, ses deux fondateurs partagent la volonté de rendre disponible tout le savoir du monde. Mais leur opposition va révéler deux utopies divergentes – un conflit idéologique dont est issue la Success Story de Wikipédia.

Quand Ayn Rand rencontre Montessori

À la fin des années 1990, l’un des deux fondateurs de Wikipédia, Jimmy Wales est un trentenaire qui vit à Chicago aux Etats-Unis. La transmission des savoirs le passionne depuis son enfance.

Rémi Mathis, historien et conservateur, ancien président de Wikimedia France, auteur de Wikipédia : dans les coulisses de la plus grande encyclopédie du monde (2021) : “Jimmy Wales accorde une grande importance à la connaissance, parce que sa mère et sa grand-mère tiennent une petite école privée, avec un côté un peu Montessori, où elles enseignent à une classe multi niveaux.

Jimmy Wales suit sa route, fait des études de finance et devient courtier. Rémi Mathis : “On est à l’époque de la bulle de l’Internet de la fin des années 1990. Les opportunités sont nombreuses, il est facile de lever des fonds. On peut avoir plein d’idées pour monter des entreprises. Et Jimmy Wales est un entrepreneur dans l’âme.

En 1996, il fonde Bomis, un portail donnant des informations sur Chicago, transformé en site ‘pour hommes’. Rémi Mathis précise : “Bomis est tourné vers les grosses voitures, les femmes dénudées, des choses pas forcément très liées au savoir encyclopédique ! Jimmy Wales a donc eu l’idée de lancer une encyclopédie sur Internet, parce que c’est quelque chose qui l’intéressait, qu’il avait envie de développer. Il avait besoin de fonds, mais ces fonds étaient apportés par Bomis. Et donc Wales a créé une encyclopédie qui s’appelait Nupedia et a embauché pour ça un rédacteur en chef, Larry Sanger.

L’entrepreneur Jimmy Wales (gauche) et le philosophe Larry Sanger (droite) © DP

C’est donc en 2000 à Chicago, que Jimmy recrute la 2ème figure de Wikipédia, Larry Sanger, qui va avoir un rôle crucial. Des débuts que retrace Rémi Mathis : “Dans un premier temps, Larry Sanger va développer Nupedia, une encyclopédie où des internautes peuvent proposer des textes, qui, après avoir été validés par un conseil scientifique, un comité de rédaction, vont être publiés sur Internet.” Larry Sanger a un rôle important, puisque c’est lui qui, travaillant à temps plein sur le projet, va amener certaines idées. Originaire de Washington, c’est un intellectuel, titulaire d’un doctorat de philosophie. Il a rencontré Jimmy six ans plus tôt grâce à leur curiosité commune pour la philosophie d’Ayn Rand, considérée comme la théoricienne du capitalisme individualiste. “C’est une philosophie qui se veut une philosophie de la raison et qui accorde une importance toute particulière à la notion d’individu agissant,” précise Rémi Mathis.

‘wikiwiki’ : ‘vite’ en hawaïen

À la fin des années 1990, plusieurs conditions sont réunies pour permettre à Nupedia de se développer :

      1. Internet devient accessible au grand public,
      2. Richard Stallman initie le principe du logiciel libre, un logiciel qui peut être librement utilisé, copié, distribué et modifié par tous ses utilisateurs.

Le 2 janvier 2001, Larry discute avec un programmeur qui lui parle du ‘wiki’, un logiciel qui permet à un grand nombre de personnes de collaborer sur un même site Internet. Comme Nupedia progresse lentement, Larry propose à Jimmy de créer un wiki pour accélérer le développement des articles. C’est ainsi que moins de deux semaines plus tard, le 15 janvier 2001, est créée Wikipédia. Ce nom est la contraction de ‘wiki’ (‘wikiwiki’ en hawaïen signifie ‘vite’) et d’encyclo-‘pédia’.

Rémi Mathis : “Wikipédia va utiliser un logiciel de wiki pour développer ses articles, alors que Nupedia existe encore et continue de tenter ce modèle de la validation a priori.” Très rapidement, on se rend compte que Wikipédia est plus efficace pour proposer des textes de qualité suffisante. Et donc Wikipédia va se développer et prendre le pas sur Nupedia qui ferme avec 25 articles en 2003, alors qu’à la même époque Wikipédia a atteint les 10 000 articles en 2001, les 40 000 en 2002 et se développe ensuite de manière exponentielle jusqu’à atteindre plusieurs millions d’articles aujourd’hui.

Wikipédia devient rapidement un géant de la tech. Mais contrairement aux autres, elle n’est financée que par des dons. Jimmy Wales (archives INA) : “Les gens me demandent si je suis communiste ou anticapitaliste. Mais pas du tout ! Je pense que c’est très bien que les gens gagnent plein d’argent. Mais on ne peut pas en faire avec tout. Pas avec un site Internet culturel comme Wikipédia.

Wikipédia se développe dans d’autres langues, comme en français à partir de mai 2001. Et en parallèle, le profil des contributeurs se transforme, comme le rappelle Rémi Mathis : “Wikipédia, dans les premiers temps, attirait des geeks. C’était lent, il fallait vraiment savoir où on allait parce qu’il n’y avait pas de moteur de recherche, donc ça fonctionnait par le bouche à oreilles. À partir du milieu des années 2000, arrive une nouvelle vague de wikipédiens, des personnes du milieu intellectuel, du monde de l’université, des bibliothèques, qui, comme ce fut mon cas, vont se dire : “Ah oui, il y a une encyclopédie qui existe, ça a l’air de bien fonctionner. Est-ce qu’on ne pourrait pas se mettre ensemble pour faire quelque chose de bien ?

Validation a priori ou a posteriori : un enjeu crucial

Au moment où Wikipédia prend son envol et que Nupedia bat de l’aile, Jimmy et Larry commencent à ne plus être sur la même longueur d’ondes. Jimmy soutient l’idée d’horizontalité. La contribution à l’encyclopédie est collective et ouverte à tout internaute. Larry, lui, défend une vision traditionnelle de la connaissance et estime nécessaire la validation par un comité d’experts.

Rémi Mathis retrace ce moment de rupture : “Dès 2002, Larry Sanger va quitter son poste. Officiellement parce que le financement proposé par Bomis et par Jimmy Wales va être supprimé. En réalité, parce qu’un certain nombre de dissensions se font déjà jour. Larry Sanger va expliquer que l’idée-même de Wikipédia est vouée à l’échec, que jamais on ne pourra atteindre une qualité suffisante avec des contributeurs non-spécialistes, qu’à un moment donné, il faut qu’un spécialiste intervienne, pour trancher Il faut un rédacteur en chef, quelqu’un qui soit spécialiste du sujet.

Une polémique naît alors : Larry Sanger est-il un cofondateur ? Pour Jimmy Wales, Larry a seulement été son employé et lui-même est le seul fondateur de Wikipédia. À ce jour, Jimmy Wales est le président honoraire de la Wikimedia Foundation et reste une figure tutélaire pour les wikipédiens.

Les “wikipédiens” déclarent (archives INA) : “Ce qu’il a fait est vraiment très important. Partager les connaissances, c’est vraiment l’esprit d’Internet. Il a inventé une énorme plateforme d’information disponible par tous et pour tous. C’est une sorte de héros.

Larry Sanger, quant à lui, s’est radicalement retiré du monde wikipédien, en développant sa critique du modèle. Rémi Mathis évoque la façon dont cette critique a récemment fait l’objet d’une récupération politique aux Etats-Unis : “Larry Sanger a eu une très grande audience chez les trumpiens parce qu’il a critiqué Wikipédia toujours avec les mêmes arguments. Il y a une espèce de récupération politique de la critique de Wikipédia, pour expliquer que si les informations qu’on trouve sur Internet vont à l’encontre de ce que je crois, c’est parce qu’il y a, sinon un complot, en tout cas un groupe de pouvoir qui a pris le contrôle de Wikipédia et qui peut le faire, parce que Wikipédia est foncièrement mauvais dans son fonctionnement.

Malgré des critiques émises à son encontre, quant à sa fiabilité notamment, Wikipédia s’est imposée comme l’encyclopédie en ligne de référence. La version française a été consultée 12 milliards de fois en 2022 et il semble difficile de s’en passer. Comme le résume Rémi Mathis : “Wikipédia a véritablement changé notre rapport au savoir.”

Anna Mexis & Camille Renard, France Culture


[INFOS QUALITE] statut : validé | mode d’édition : partage, correction, édition et iconographie | sources : radiofrance.fr/franceculture | contributeur : Patrick Thonart | crédits illustrations : en-tête © franceculture ; © DP.


Plus de presse en Wallonie-Bruxelles…

TRIBUNE LIBRE : Intelligence Artificielle, l’oxymoron du siècle

Temps de lecture : 8 minutes >

[FUTURIMMEDIAT.NET, 11 janvier 2023] Puisque tout le monde en parle, il doit certainement se passer quelque chose. Pas une journée ne s’écoule sans que sorte un nouvel article, dithyrambique ou alarmiste, dans le domaine très en vogue de l’Intelligence Artificielle. Depuis le Guardian jusqu’à Trust My Science, on nous apprend comment l’IA, en ce moment même, est en train de nous propulser dans une nouvelle ère – ou de nous condamner à l’apocalypse numérique. Sommes-nous à l’aube d’une réelle transition technologique, qui nous apporterait enfin des logiciels d’image pourvus d’imagination, des véhicules autonomes fiables, et des assistants rédacteurs capables de résumer plusieurs textes et d’en faire la synthèse ? Ou bien sommes-nous désormais proches de la “singularité”, plus menacés que jamais par un futur dystopique, du genre Matrix ou Terminator, où les machines auront atteint leur autonomie et prendront le contrôle de l’humanité ?

Ni l’un ni l’autre : les progrès récents, bien que réels et importants pour l’Intelligence Artificielle elle-même, n’auront probablement qu’un impact négligeable sur l’industrie et sur notre quotidien. Le seul vrai problème avec Chat GPT, l’outil de génération de texte que les commentateurs montrent du doigt, c’est la profusion des articles alarmistes – et très mal documentés – qui nous mettent en garde contre cette prétendue menace.

Quant aux synthétiseurs d’images par diffusion (Dall-e, Stable Diffusion, Midjourney, etc.) ils n’ont pas pour objectif de révolutionner les métiers graphiques, et n’en ont pas les moyens, quoiqu’en disent les millions de geeks désœuvrés qui passent leurs nuits à générer des images sans queue ni tête. Tempête dans un verre d’eau, à moitié vide ou à moitié plein, selon l’humeur de l’auteur. Beaucoup de bruit pour des clopinettes. Jouer avec les IA est certes merveilleux : c’est fascinant de les voir écrire, dialoguer, dessiner, cracher des photographies stupéfiantes et élaborer des créations graphiques à couper le souffle. Mais, malheureusement, ces jouets extraordinaires ne pourront pas nous servir à grand’chose de plus qu’à jouer.

Quand l’artifice nous trompe énormément

Au premier contact, les nouvelles intelligences artificielles sont brillantes. On a vu fleurir un peu partout sur le web des images inédites et spectaculaires dans tous les styles graphiques et photographiques, des paysages somptueux, des portraits séduisants, des pastiches délirants, et même des œuvres nouvelles de grands peintres.

Quant à ChatGPT, il est capable de disserter brillamment, à peu près dans toutes les langues, sur n’importe quel sujet pas trop récent. Et cela même en français, à propos de la littérature française :

© futurimmediat.net

Mais si on gratte sous le vernis de sa tchatche, le bot raconte n’importe quoi : les trois citations sont montées de toutes pièces, un Frankenstein vraisemblable – et totalement factice – prétendument extrait d’un livre qui, vérification faite, n’a jamais existé !

C’est d’autant plus pernicieux que, dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante. Et comme il ne se trompe pas systématiquement, on a vite fait de croire que c’est juste une maladie de jeunesse, qui va s’arranger avec les corrections successives. Malheureusement, comme on le verra plus loin, c’est une espérance qu’il faut abandonner, et qui a d’ores et déjà conduit les geeks du monde entier à accorder à l’intelligence artificielle un crédit qu’elle ne mérite absolument pas.

En ce qui concerne la synthèse d’images, pour peu que l’on essaie de se servir des outils existants avec un minimum de sérieux, on finit par passer des nuits blanches à éliminer des tombereaux d’images grotesques, incohérentes ou simplement moches, dans l’espoir d’en trouver une seule qui tienne la route. Florilège :

© futurimmediat.net

Tristes coulisses : derrière les superbes images partagées par les geeks du monde entier se cachent une multitude de ces résultats inutiles, et des heures de fastidieux labeur digital.

Limites techniques, limites de conception

Si les systèmes d’IA dont on parle tant aujourd’hui échouent à dépasser certaines limites, c’est d’abord par manque de puissance et ensuite en raison de limites inhérentes à leur conception. Pour ce qui est du déficit de puissance, il suffit de se rappeler qu’un réseau de neurones artificiels est essentiellement un programme d’ordinateur, et qu’il est donc contraint par les limites d’un pc courant.

Un système d’IA typique est limité à quelques couches d’une centaine de neurones chacune, parce que tous les neurones d’une couche donnée doivent dialoguer avec chacun des neurones de la couche suivante et de la couche précédente, et donc chaque neurone supplémentaire augmente les besoins en ressources. Par comparaison, un cerveau humain comprend une bonne centaine de milliards de neurones. Et on pourrait mettre en avant de nombreuses autres différences.

Mais plus encore que les problèmes de puissance, c’est leur conception même qui rend les réseaux artificiels actuels cruellement inefficaces. Ces réseaux sont entraînés sur des corpus (d’images légendées, de phrases en contexte) et leur objectif est de produire, pour toute demande quelconque (légende dépourvue de l’image associée, question attendant une réponse) un complément vraisemblable (image, texte).

On obtient ce complément par tentatives successives, en produisant plusieurs assemblages de divers fragments pertinents du corpus original. L’assemblage finalement retenu sera celui qui, dans l’ensemble, semble statistiquement le plus proche des données du corpus. Comme le réseau de neurones ne dispose pas d’un modèle (pas de représentation mentale des mots utilisés dans les phrases, pas de notion des objets objets présents dans les les images) et que la ressemblance formelle avec le corpus constitue le seul critère de filtre, on a une vraisemblance purement superficielle, dépourvue de sens : les images produites avec Stable Diffusion sont souvent absurdes, les textes générés par ChatGPT peuvent révéler de profondes incohérences.

Le mirage fatal de l’autocorrection

On peut légitimement se poser la question : pourquoi les nouvelles IA génératives, comme ChatGPT ou Stable Diffusion, ne peuvent-elles pas corriger d’elles-mêmes leurs propres erreurs ? Ainsi, par exemple, le YouTuber Anastasi in tech, se demande pourquoi le système ne donne pas de lui-même un degré de confiance à ses résultats ?

La réponse est simple : du fait de leur manière de traiter l’information, les IA considèrent chacune de leurs productions comme la meilleure production possible : leur indice de confiance est de 100 % à chaque fois. En effet, de manière à obtenir le produit le plus vraisemblable, les AI optimisent déjà en permanence la cohérence de chaque fragment au sein de leur réponse. C’est même là le secret technique essentiel de leur fonctionnement.

Dans les générateurs d’images, on peut même contrôler de manière précise, et en divers endroits, le degré de hasard qu’on souhaite faire intervenir dans la génération : on peut régler le taux de conformité par rapport au texte (”guidance”), le degré de ressemblance du résultat avec une éventuelle image initiale, et sélectionner la matrice de bruit initiale (”seed”). Les chatbots basés sur GPT et les générateurs d’images à base de diffusion sont structurellement incapables d’évaluer la pertinence de leurs réponses et ne peuvent donc pas être améliorés dans ce domaine.

Quand qui peut le plus ne peut pas le moins

Les IA produisent de telles merveilles (images somptueuses, surprenantes et réalistes, réponses limpides et amplement documentées) que pour nous, humains, leurs erreurs évidentes, voire grossières (mains à six doigts, raisonnements incohérents…) paraissent par contraste extrêmement simples à éviter. Malheureusement, cette “évidence” est une projection anthropomorphique. Qui donc aurait un style écrit aussi brillant et serait en même temps incapable de disserter ? Qui donc serait en mesure de dessiner de si belle images et oublierait une jambe, voire un œil, de son personnage ? Réponse : les machines !

Quand on voit l’IA générer un enfant à trois jambes ou une main à dix doigts, on pense tout de suite, “qui peut le plus peut le moins, une machine tellement douée pourra forcément arriver à corriger ces bêtises”. Anthropomorphisme, fatale erreur : les machines ne pensent pas comme des êtres humains.

Rivés à leurs écrans, les geeks du monde entier s’imaginent que les limites intrinsèques des IA seront aisément dépassées, tant les inepties qu’elles contribuent à générer sont criantes : à force d’essais et d’erreurs, par itérations et corrections successives, on parviendra forcément à entraîner des systèmes fiables, capables de détecter par avance ces échecs évidents, et de les éliminer.

Mais non. Pour aider les machines à dépasser leurs limites, il ne suffira pas de leur apporter des améliorations à la marge : il faudra soit augmenter leur puissance, soit améliorer leur conception.

Dans le domaine de la puissance, les progrès sont dans le meilleur des cas contraints par la loi de Moore, selon laquelle le progrès technique permet de diviser la taille des transistors par deux tous les deux ans. Cette contrainte ne satisfait pas les exigences d’un réseau neuronal un peu costaud (rappelez-vous, chaque nouveau neurone fait croître de manière exponentielle le nombre d’interconnexions nécessaires à son fonctionnement). Or, tous les progrès récemment engrangés par les modèles GPT de génération de texte sont basés sur l’augmentation de puissance.

Il faudrait donc se tourner du côté de la conception. Mais les découvertes sont directement liées à la recherche et leur fréquence d’apparition n’est pas prévisible. Aujourd’hui, tous les systèmes populaires de génération d’images procèdent de la combinaison des modèles GPT avec une solution de conception relativement ancienne, la diffusion, inventée en 2015, et qui est à l’origine de tous les progrès qu’on a pu voir en 2022. On ne sait absolument pas quand on aura à nouveau la joie d’assister à une découverte autorisant un progrès d’une telle ampleur.

Tout bien considéré, la geekosphère peut redescendre de son perchoir, rien ne garantit que la prochaine révolution nous attende au coin de la rue.

Proprioception, affects, et conscience, insurmontables limites de l’IA ?

Notre intelligence humaine est multimodale : lorsque nous prononçons un mot, celui-ci ravive une série d’expériences préalablement mémorisées qui sont intellectuelles, pratiques (réponse à la question “que puis-je faire ?”), perceptives (visuelles, auditives, tactiles, olfactives, gustatives), proprioceptives (liées à nos sensations corporelle internes) et, par-dessus tout, émotionnelles. Ainsi le mot “chat” c’est conceptuellement un “animal domestique non-chien”, lié à un tas de perceptions dont des déplacements souples, une couleur et une fourrure, les miaulements, les ronronnements, l’odeur du chat, celle des croquettes qu’on lui donne, la fourrure qu’on touche, l’animal qu’on caresse et grattouille, qu’on nourrit et à qui on doit ouvrir la porte, etc. Sans parler des liens affectifs et des rapports psychologiques qu’on peut entretenir avec un chat, domaines dans lesquels on fera sans doute bien de ne pas se cantonner aux instructions d’un chat-bot.

Cette réalité multidimensionnelle et imbriquée de la mémoire, thématique des romans de Marcel Proust, constitue la limite théorique de l’approche binaire de l’intelligence. Son importance pour la compréhension des énoncés et des images avait été démontrée au plan théorique par quelques sémanticiens mal connus du grand public, comme l’américain Georges Lakoff (Metaphors we Live By) et le belge Henri Van Lier (L’Animal Signé). Cette vision théorique est à présent étayée par des expériences récentes d’imagerie cérébrale, qui ont effectivement rendu visibles, lors de la prononciation d’un mot, l’activation à travers tout le cerveau humain, de réseaux multi-fonctionnels spécifiquement associés à ce mot (conversement, l’imagerie en question permet aussi de plus ou moins bien deviner à quoi pense la personne observée !). En somme, l’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines électroniques.

Quant à la conscience, manifestement, on nous vend de la peau de Yéti : d’année en année, les spécialistes reportent encore et encore à plus tard leurs prédictions quant l’apparition d’une IA consciente et autonome, ou “General Purpose AI” (intelligence artificielle généraliste), qui prendrait sa destinée en mains. Demain, la Singularité rase gratis.

Dernière annonce en date, la fameuse “interview” de LaMDA, le système d’IA de Google, soi-disant devenu capable de ressentir et conscient de lui-même. Suite à cette fumeuse publication, Google a pris ses distances avec l’auteur et a publié un démenti. Le misérable article inspire même à présent un discours appelant à une évaluation plus raisonnable des systèmes actuels. Another hoax bites the dust.

Si on considère que proprioception, affects et conscience font partie intégrante de l’intelligence, alors il n’y a aucune raison légitime d’utiliser ensemble les mots “intelligence” et “artificielle”.

Michelange Baudoux, sémanticien et blogueur


[INFOS QUALITE] statut : validé | mode d’édition : partage, édition, correction et iconographie (l’article original contient plus d’illustrations et de références) | sources : futurimmediat.net | contributeur : Patrick Thonart | crédits illustrations : en-tête, © futurimmediat.net.


Plus de dispositifs en Wallonie-Bruxelles…

Prince Bira (1914-1985)

Temps de lecture : 3 minutes >

Le Prince BIRABONGSE (dit Prince Bira) faisait partie des plus grands gentlemendrivers de son époque, reconnu pour son élégance irréprochable, avec des “détails” comme le port du smoking… sous sa combinaison de pilote.

Il vint en Europe en 1927 pour finaliser son éducation à luniversité dEton et de Cambridge. Le Prince Bira fit sa première expérience dans les sports mécaniques avec son cousin le Prince Chula Chakrabongse qui possédait une équipe, la White Mouse Racing. Le Prince Bira courut dans une Riley Imp sur le circuit de Brooklands en 1935. Cest avec cette voiture que le Prince Bira établira les couleurs de course du Siam : bleu pâle et jaune.

Plus tard, cette même année, le Prince Chula lui donna une voiturette de course ERA : une R2B, qui rapidement prit le surnom de Romulus. Il termina second de sa première course avec Romulus, malgré un arrêt au stand. Le reste de la saison vit le Prince Bira aligner sa petite voiture parmi les places de tête, tenues le plus souvent par des autos de GrandPrix, avec une autre seconde place et une cinquième au GrandPrix de Donington.

© f1i.autojournal.fr

En 1936, le Prince Bira décida que les résultats de la saison précédente méritaient une seconde ERA. Une Remus fut achetée par léquipe pour les courses britanniques, Romulus restant affectée aux courses internationales. Le Prince Chula se porta également acquéreur dune Maserati 8CM pour allonger la liste des monoplaces de course. Le coup de volant du Prince Bira lui permit de remporter la Coupe du Prince Rainier à Monte-Carlo. Le Prince Bira gagna encore quatre courses avec lERA cette saison. Il amena la Maserati de GrandPrix à la 5e place à Donington et à la 3e place à Brooklands.

Malheureusement, ce fut le point haut des carrières du Prince Bira et du White Mouse Racing Team. À la suite du départ de Dick Seaman vers léquipe Mercedes en 1937, les cousins thaïs achetèrent une Delage de GrandPrix et toutes ses pièces détachées avec une deuxième Delage. Malgré des remises à niveau répétées et lembauche dun ingénieur dexpérience, Lofty England (futur chef de léquipe Jaguar), les voitures ne fournirent pas les résultats attendus. À plusieurs occasions, le Prince Bira fut obligé de courir avec ses voitures plus anciennes, désormais dépassées. En plus, les sommes dépensées aux mises à niveau répétées de la Delage mirent les finances de léquipe à mal. Il fallut réduire les sommes allouées à la maintenance des ERA. Si le Prince arrivait à maintenir des résultats respectables dans les courses anglaises, les courses internationales étaient, elles, un désastre.

Après la guerre, le Prince Bira reprit la course automobile dans plusieurs équipes. En 1951 il courut sur une Maserati 4CLT équipée dun moteur Osca V12, sans grand résultat, dautant plus que le Prince souffrait des conséquences dun assez grave accident de ski. En 1954, grâce à du nouveau matériel, une Maserati 250F, il gagna le Grand-Prix des Frontières à Chimay, en Belgique. Il termina 4e du GrandPrix de France de 1954 avec sa propre Maserati. Il prit sa retraite du sport automobile lannée suivante, après avoir gagné le GrandPrix de NouvelleZélande (hors championnat).

d’après FR-ACADEMIC.COM


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercialisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations :  © f1i.autojournal.fr


Plus de sport ?

MAIRESSE, Willy (1928-1969)

Temps de lecture : 3 minutes >

D’origine simple quand tant de ses “collègues” étaient des aristocrates bon teint, sa rage de progresser lui fait brûler les étapes. Willy MAIRESSE (Momignies le 01/10/1928 – Ostende le 02/09/1969) se fait les dents dans les épreuves de longue haleine comme Liège-Rome-Liège qu’il remportera en 1956 sur Mercedes 300SL.

Repéré et intégré à l’Ecurie Nationale Belge, il accèdera dès lors à nombre de belles autos et les succès s’aligneront. Le Commendatore Enzo Ferrari le voudra pour défendre ses couleurs alors que la période était riche en pilotes doués et expérimentés.

Willy Mairesse sur Ferrari

Plusieurs accidents graves, entre lesquels il glanera encore des victoires avant Le Mans 1968 où, dans le premier tour des 24 Heures, la porte de sa Ford GT40 s’ouvre, déséquilibre l’auto qui s’écrasera durement. Fort touché, il ne se remettra jamais et conscient de son impuissance à jamais repiloter, il se suicide tristement en septembre 1969.

David Limage


Willy Mairesse était un pilote automobile belge des années 1950 et 60. Il a participé à treize GP en Formule 1 avec à la clé un podium et un total de sept points marqués au championnat du monde des pilotes. Il se suicide dans sa chambre d’hôtel après avoir arrêté sa carrière automobile (il ne pouvait plus piloter depuis son accident aux 24 heures du Mans 1968 en raison des séquelles du coma qui s’ensuivit).

Avant de courir avec des voitures de sport, Mairesse commence sa carrière en rallye dans les années 1950, d’ailleurs il gagne le Liège-Rome-Liège en 1956, puis, il passe aux voitures de sport l’année suivante avec Ferrari.

Deux ans après, il termine deuxième des 12 heures de Reims avec une berlinette. En 1959, Willy finit troisième du Grand Prix automobile de Monza derrière Alfonso Thiele et Carlo Abate, tous deux également sur Ferrari. Il termine 3e des 1000 km du Nürburgring en 1960 et remporte le Tour de France automobile. C’est grâce à cela que Mairesse obtient un volant en Formule 1.

Au 24 heures du Mans 1961 le doublé Mairesse-Parkes sur Ferrari échoue à la deuxième place, précédés par Phil Hill et Olivier Gendebien. Durant les 24 heures du Mans 1963, Mairesse et Surtees menaient les débats depuis 14 heures de course avant qu’un incendie empêche le sacre attendu. Ce sont alors Ludovico Scarfiotti et Lorenzo Bandini qui gagnent la course.

En août 1963, durant le GP d’Allemagne à Adenau, un jeune allemand de la Croix-Rouge, du nom de Guenther Schneider, a été tué sur le coup après avoir été frappé violemment par une roue qui s’est détachée de la voiture de Mairesse, elle-même renversée, il avait seulement 19 ans. En revanche, Mairesse s’en sort vivant mais grièvement brûlé. Mais l’année suivante, il gagne le GP d’Angola et un an plus tard, remporte haut la main les 500 km de Spa-Francorchamps. Aux 24 heures du Mans 1967, Mairesse partage son baquet avec Jean Beurlys, un pilote belge, ceci avait été déjà fait en 1965. Ils finissent la course en 3e position, une course gagnée par Dan Gurney et A.J. Foyt.

Les 24 heures du Mans 1968 sera l’épreuve qui va détruire sa carrière et sa vie. Dès le premier tour, Mairesse se crashe violemment lorsque la portière de sa Ford GT40 s’ouvre. Blessé gravement à la tête, il tombe dans le coma.

Grâce à sa victoire au Tour de France Automobile en 1960, Mairesse accède enfin au monde de la Formule 1. Ses débuts sont bons : malgré 2 abandons sur 3 pour problèmes de transmission, il réalise dès son 3e Grand Prix son premier et seul podium de sa carrière en se classant en 3e position au Grand Prix automobile d’Italie 1960 à 1 tour de Phil Hill, vainqueur ce jour-là et Richie Ginther.

La suite sera moins bonne. Sur ses 9 derniers GP, il jeta l’éponge à 7 reprises. Il marquera seulement les 3 points de la 4e. Mairesse confirmera en 1963 qu’il reste un bon pilote avec une 3e place aux qualifications, son meilleur résultat dans son pays natal. Malgré cela, il ne termine aucun GP cette saison et arrête la Formule 1 pour revenir aux voitures de sports.

d’après Motor Club Eau Blanche Eau Noire


[INFOS QUALITE] statut : actualisé  (1ère publication par wallonica sur agora.qc.ca) ; Motor Club Eau Blanche Eau Noire | mode d’édition : rédaction et iconographie ; transcription et correction | commanditaire : wallonica.org | contributeur : David Limage (in memoriam) ; Patrick Thonart  | crédits illustrations : © DP ; © MCEBEN.


Plus de sport ?

Le burkinabè Diébédo Francis Kéré sacré meilleur architecte au monde

Temps de lecture : 6 minutes >

Le burkinabé Diébédo Francis Kéré est le lauréat de l’édition 2022 du Pritzker Prize. Il devient le premier architecte africain à remporter ce prix d’architecture. Créé par l’homme d’affaires Jay Pritzker en 1979, le Pritzker Prize récompense les architectes qui ont eu un apport significatif à l’architecture. Décerné par un jury indépendant, il apporte visibilité et reconnaissance au lauréat, qui remporte 100 000 $ versés par […] une chaîne internationale d’hôtels. Pour cette édition 2022, le Pritzker Prize est décerné à Diébédo Francis Kéré. Il est notamment connu pour son engagement en faveur d’une plus grande justice sociale, qui passe par la participation des communautés locales à ses projets et l’utilisation de matériaux naturels. Il est devenu le premier Africain à recevoir la distinction suprême du monde de l’architecture.

Du Burkina Faso à Berlin : une révélation artistique
Diébédo Francis Kéré © afrik.com

Né en 1965, Diébédo Francis Kéré a grandi au Burkina Faso, sur des terres dépourvues d’eau potable, d’électricité, d’infrastructures… et d’architecture. Très jeune, son goût prononcé pour l’architecture s’est développé en réponse au manque de confort de vie à la maison comme à l’école, dont il espère agrandir les murs et laisser respirer les espaces. Avec la création de l’école primaire de Gando en 2001, une de ses œuvres phares, il remporte le prix Aga Khan d’architecture en 2004. Il étudie l’architecture à Berlin, où il obtient son diplôme à l’Université technique en 2004.

La réalisation d’autres établissements au Burkina Faso, au Kenya, au Mozambique et en Ouganda s’inscrit dans un vaste projet visant à accroître le bien-être des communautés. L’architecte burkinabé s’engage depuis toujours en faveur de la justice sociale et du droit de tous à de meilleures conditions de vie. J’avais cette idée que même les plus dépourvus ont droit au confort, et à la beauté”, déclare-t-il au journal Le Monde.

La sophistication au service du bien-être

Il sait, de l’intérieur, que l’architecture ne concerne pas l’objet mais l’objectif ; pas le produit, mais le processus” souligne le jury dans un communiqué. C’est ainsi que son travail sur des matériaux locaux revêt une importance majeure dans sa création. L’architecte explore des formes hybrides qui font dialoguer le traditionnel avec le contemporain, les matériaux locaux avec un souffle de modernité et de créativité.

Kéré contribue au débat en intégrant les dimensions locales, nationales, régionales et mondiales dans un équilibre très personnel entre expérience de terrain, qualité académique, low tech, high-tech et multiculturalisme réellement sophistiqué”, précise un communiqué. La sensibilité et l’humanité de cet architecte se remarque dans ses projets, conçus pour et avec les communautés locales, tandis que l’usage de matériaux naturels (bois, granite, argile…) et la valorisation du réemploi et du recyclage témoignent de ses préoccupations écologiques.

d’après CONNAISSANCE DES ARTS.COM


Bibliothèque de Gando (BF) © connaissancedesarts.com

Pionnier des constructions durables au service des populations, comme l’école de son village au Burkina Faso, l’architecte Diébédo Francis Kéré a reçu mardi le prix Pritzker, devenant le premier Africain à recevoir la plus haute distinction de la profession.

“Grâce à son engagement pour la justice sociale et à l’utilisation intelligente de matériaux locaux pour s’adapter et répondre au climat naturel, il travaille dans des pays marginalisés, où les contraintes et les difficultés sont nombreuses et où l’architecture et les infrastructures sont absentes”, ont expliqué les organisateurs du prix Pritzker dans un communiqué.

C’est la première fois qu’un architecte d’un pays africain reçoit la distinction qui a déjà couronné les plus grands noms de cet art, comme Frank Gehry, Tadao Ando, Renzo Piano, Zaha Hadid ou Jean Nouvel. Il est notamment connu pour son implication dans des projets au fort potentiel d’usage public, comme des écoles, et nombre d’ouvrages de Diébédo Francis Kéré sont situés sur le continent africain, notamment au Bénin, Burkina Faso, Mali, Togo, Kenya, et Mozambique.

Mais l’architecte de 57 ans, qui possède également la nationalité allemande, est depuis longtemps reconnu au niveau international et s’est aussi vu commander des pavillons et installations en Europe et aux Etats-Unis. En 2004, il avait déjà reçu le prix Aga Khan d’architecture. “Il construit des institutions scolaires contemporaines, des établissements de santé, des logements professionnels, des bâtiments civiques et des espaces publics, souvent dans des pays où les ressources sont fragiles et où la fraternité est vitale”, ajoute le prix Pritzker, remis par la fondation Hyatt.

Ressources limitées

“À une époque où la pandémie a mis en évidence notre codépendance et où nous sommes également confrontés à des conflits croissants autour de la diminution des ressources, le fait que mon approche soit mise en lumière par un tel honneur me rend humble “, a déclaré Diébédo Francis Kéré. “Cela me donne beaucoup d’espoir d’expérimenter de première main que, peu importe si votre début est apparemment petit et lointain, vous pouvez aller au-delà de ce que vous avez toujours pensé possible.”

Parmi ses réalisations phares, figure l’école primaire de Gando, le village burkinabè où il est né et où il a mené d’autres projets. Pour les organisateurs du prix Pritzker, cette école “jette les bases de son idéologie : bâtir une source avec et pour une communauté afin de répondre à un besoin essentiel et de corriger les inégalités sociales”.

L’école est conçue pour résister à la chaleur et à des ressources limitées et son succès a conduit à son extension, à la construction de logements pour les enseignants et à une nouvelle bibliothèque. Avec toujours la même ligne directrice, des bâtiments sobres aux tons chauds, sable ou ocre, qui s’insèrent dans le paysage et où la lumière est cruciale.

Opera Village, Laongo (BF) © arquitecturaviva.com
Matériaux locaux

À titre d’exemple d’utilisation de matériaux locaux, l’architecte a utilisé de l’argile indigène enrichie de ciment pour former des briques conçues pour retenir l’air frais à l’intérieur tout en permettant à la chaleur de s’échapper par un plafond en briques et un toit surélevé – une ventilation qui ne nécessite pas de climatisation. Le projet a permis de faire passer l’effectif de l’école de 120 à 700 élèves.

“J’espère changer le paradigme, pousser les gens à rêver et à prendre des risques. Ce n’est pas parce que vous êtes riche que vous devez gaspiller du matériel. Ce n’est pas parce qu’on est pauvre qu’on ne doit pas essayer de créer de la qualité”, dit Francis Kéré, dans le communiqué du prix Pritzker. “Tout le monde mérite la qualité, tout le monde mérite le luxe et tout le monde mérite le confort. Nous sommes liés les uns aux autres et les préoccupations en matière de climat, de démocratie et de pénurie nous concernent tous”, ajoute celui qui passe son temps à moitié entre Berlin et son Burkina Faso natal.

“J’ai commencé là où je suis né, et où la croissance démographique est un problème clé et où les infrastructures sont nécessaires de toute urgence. J’avais un devoir envers mon peuple et il était important pour moi d’utiliser des matériaux qui sont abondants et de construire avec des approches qui causent peu de charge sur l’environnement. Mes bâtiments étaient donc axés sur les solutions. Et ces solutions, je m’en suis rendu compte, étaient transférables à travers les lieux et le temps, car toutes les crises causées par l’homme ont besoin de solutions fondées sur une pensée durable”, devait déclarer l’architecte primé.

“Expression poétique”

La fondation Hyatt a salué “une expression poétique de la lumière” à travers ses œuvres. “Les rayons du soleil filtrent dans les bâtiments, les cours et les espaces intermédiaires, surmontant les conditions difficiles de la mi-journée pour offrir des lieux de sérénité ou de rassemblement.”

Un autre projet de campus plus récent, dans une école technique du Kenya, a utilisé des pierres de carrières locales et des tours empilées pour minimiser la climatisation nécessaire à la protection des équipements technologiques. À l’Institut de technologie du Burkina Faso, Francis Kéré a utilisé des murs en argile rafraîchissante et des eucalyptus en surplomb pour recouvrir les toits en tôle ondulée, indique la fondation.

Parmi d’autres de ses réalisations, figure la rénovation du parc National du Mali à Bamako. Il a également conçu des pavillons ou des installations au Danemark, en Allemagne, en Italie, en Suisse, au Royaume-Uni et aux États-Unis.

Francis Kéré a également été chargé de construire une nouvelle maison pour l’Assemblée nationale du Burkina Faso à Ouagadougou, après qu’un soulèvement en 2014 ait détruit l’ancienne structure. Elle n’a pas encore été construite “dans le contexte actuel d’incertitude”. Le plan comprend une structure en forme de pyramide pour abriter une salle d’assemblée de 127 personnes à l’intérieur et permettre une congrégation informelle à l’extérieur.

Le burkinabè est le 51e lauréat du prix d’architecture Pritzker, créé en 1979 par le défunt entrepreneur Jay A. Pritzker et son épouse, Cindy. Les lauréats reçoivent une bourse de 100 000 dollars et un médaillon en bronze.

d’après AFRICANEWS.COM


[INFOS QUALITÉ] statut : validé | sources : africanews.com ; connaissancedesarts.com | mode d’édition : partage, décommercalisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustration : en tête de l’article, Serpentine Pavillion, Londres (GB) © futura-sciences.com ; © afrik.com ; © connaissancedesarts.com ; © arquitecturaviva.com.


Plus d’architecture…

Musée Pierre-Joseph Redouté, à Saint-Hubert

Temps de lecture : 4 minutes >

INITIATIVE. L’asbl Musée Pierre-Joseph Redouté (1759-1840), fondée à Saint-Hubert le 7 juin 1984, a pour but de promouvoir la connaissance et le rayonnement du peintre-botaniste, né à Saint-Hubert le 10 juillet 1759, de sa famille et des artistes de son époque qui ont enrichi le patrimoine culturel de la ville de Saint-Hubert, de l’Ardenne et du Luxembourg, ainsi que la conservation de leurs œuvres, de leur esprit et de leurs souvenirs. En 1987, la ville a mis à sa disposition l’immeuble situé au numéro 11 de la rue Redouté, face à l’emplacement de la maison natale de l’artiste, détruite lors d’un bombardement à la fin de la Seconde Guerre mondiale. Cet immeuble héberge maintenant le Musée Pierre-Joseph Redouté qui présente en permanence des œuvres originales du « Raphaël des fleurs », des objets qui lui ont appartenu et quelques gravures de son jeune frère, Henri-Joseph. Le musée accueille également des expositions temporaires.


Le saviez-vous ? Pierre-Joseph REDOUTE (1759-1840), le peintre-botaniste est né à Saint-Hubert le 10 juillet 1759. C’est un des ceux de chez nous… Dans la famille Redouté, depuis Charles-Joseph Redouté, arrière-grand-père de Pierre-Joseph qui peignait pour les Princes-Evêques de Liège jusqu’à P.J.Redouté, on est artiste de père en fils. On ne peut, dès lors, s’étonner de l’héritage culturel et pictural que reçut le Prince des roses.

À l’influence familiale s’ajoute celle de la célèbre abbaye de Saint-Hubert. Dom Clément Lefèbvre, abbé de Saint-Hubert (1686-1727) natif de Ciney, alors occupé à de grands travaux au sein de l’abbatiale, fait appel au peintre Jean-Jacques Redouté, originaire de sa région. Le grand-père de Pierre-Joseph collabore aux travaux dans les années 1720-1730. Successeur de Dom Lefèbvre, Dom Célestin De Jong (1727-1760), entreprend quant à lui la construction du quartier abbatial (1729), une opportunité de travail pour le peintre Charles-Joseph Redouté, père de Pierre-Joseph. Il s’installe à Saint-Hubert, se mariant en 1750 avec une fille de la localité, Marguerite-Josèphe Chalon.

Pierre-Joseph Redouté (gravure d’époque) © DP

En 1782, Pierre-Joseph, alors âgé de vingt-trois ans, gagne Paris à l’invitation de son frère aîné Antoine-Ferdinand. Celui-ci est peintre décorateur. Il travaille entre autres pour le Théâtre Italien, le Palais-Royal, mais aussi pour la réalisation de décorations aux châteaux de Compiègne et de Malmaison. Pierre-Joseph l’accompagne pendant deux ans. Ensuite pendant plus de 50 ans, Pierre-Joseph mettra ses talents confirmés de peintre au service des botanistes.

L’Héritier de Brutelle, magistrat de formation de Louis XVI et passionné de botanique, ouvre à Pierre-Joseph les portes de la renommée et lui enseigne les bases de l’étude des plantes et l’art de les dessiner avec la rigueur et l’exactitude d’un scientifique. Séduits par la qualité de ses illustrations, d’autres botanistes auront recours à ses services : De Candolle, Ventenat, Rousseau, Michaux, etc.

L’Europe envoie aux quatre coins du monde ses explorateurs comme Dombey, Cook, Humbold etc., souvent accompagnés de botanistes, qui ramèneront dans les cales des navires les plantes exotiques les plus diversifiées. Pierre-Joseph Redouté collaborera ainsi à la création d’un Jardin illustré d’une partie de la flore mondiale

Au XVIe siècle, le grand peintre allemand Albrecht Dürer est un des précurseurs de l’aquarelle. Jusqu’au XVIIIe s., Dürer faisant exception, l’aquarelle n’aura qu’une valeur documentaire et ne sera que l’auxiliaire de la peinture à l’huile dont la valeur artistique sera seule prise en considération.

C’est en Angleterre qu’est créée la première société d’aquarellistes au monde. La France ne connaît vraiment l’aquarelle qu’à la fin du XVIIIe siècle. C’est alors qu’apparaissent les Hubert Robert, Chapalle, van Spaendonck et les frères Redouté, Pierre-Joseph et son cadet Henri-Joseph. Tous deux sont recrutés par le Muséum d’histoire naturelle pour continuer la prestigieuse Collection des vélins, l’un pour la botanique et l’autre pour la zoologie.

Si Pierre-Joseph reste l’artiste le plus populaire de la famille, Henri-Joseph est aussi un excellent aquarelliste. Il fait partie d’une Commission des sciences et des arts qui accompagne Bonaparte en Égypte. Il est un des collaborateurs de la célèbre Description de l’Égypte, recueil des observations et recherches faites en Égypte pendant l’expédition de l’armée française.

À partir de ce moment, l’aquarelle est reconnue pour elle-même, comme une expression artistique à part entière. Comme la demande devient très importante, Pierre-Joseph doit employer une technique de reproduction plus rapide et moins coûteuse : la gravure en taille-douce. Une particularité chez lui est l’estampe réalisée à l’aide d’une roue dentée pour obtenir des points sur le métal (cuivre), technique dite du pointillé. La différence de densité des points permet de marquer les jeux d’ombre et de lumière.

Redouté P.J., Bouquet de roses et tulipes (détail, 1822) © DP

Pierre-Joseph Redouté a peint d’innombrables fleurs mais ses Roses sont considérées comme le sommet de son art. Il immortalise leur beauté éphémère. Cet inventaire des roses, le plus complet de l’époque, a été réalisée par Pierre-Joseph, avec la collaboration du botaniste Le Thory qui en rédigea les textes. Il compte trois volumes qui rassemblent 169 planches.

Les roses de Pierre-Joseph Redouté, fleurs de la séduction, ont charmé la reine Marie-Antoinette, l’impératrice Joséphine, épouse de Napoléon 1er et la première reine des Belges, Louise-Marie d’Orléans. Comment rêver meilleure publicité pour le professeur Redouté que de donner cours au Muséum de Paris aux dames les plus célèbres de la noblesse parisiennes ?

d’après une notice du Musée Redouté à Saint-Hubert


[INFOS QUALITÉ] statut : validé | Source : museepjredoute.be | mode d’édition : partage et iconographie | commanditaire : wallonica.org | contributeur : Patrick Thonart | crédits illustrations : © DP.


Contempler encore…

Il y a 100 ans, la retouche des portraits avant Photoshop

Temps de lecture : 4 minutes >

Vous pensiez que la retouche des portraits est liée à l’arrivée de Photoshop ? Détrompez-vous ! L’art d’embellir les photos de portrait existe depuis les débuts de la photographie, comme en témoigne un manuel d’apprentissage, publié il y a plus d’un siècle.

L’embellissement des portraits bien avant l’arrivée de l’informatique

Publié en 1909 par l’American School of Art and Photographie, la Bibliothèque complète d’apprentissage autodidacte de la photographie compte un total de 10 volumes à destination des apprentis photographes. L’ouvrage aborde de manière concrète tous les volets de la photographie de l’époque, tant pour la technique photographique que pour l’étude des sujets.

Ainsi, le 10ème et dernier ouvrage de cette collection s’attarde sur la retouche des négatifs. En quelques 43 chapitres, il aborde les différentes techniques utiles pour supprimer les imperfections et embellir les photographies de portrait en retouchant les contours du visage, les lèvres, le nez et les sourcils, etc.

La retouche des portraits : une demande bien réelle

L’introduction de l’ouvrage s’avère intéressante, car elle explique comment les évolutions techniques de la photographie ont engendré une demande de retouche des portraits. “En livrant votre travail à vos clients, vous ne leur remettez pas les négatifs, mais un tirage réalisé à partir de ces négatifs.”

Dans les premiers temps de la photographie, lorsqu’étaient utilisées les plaques au collodion humide, les tirages étaient réalisés directement à partir des négatifs, sans aucune altération, puisque les plaques humides offraient un rendu plus doux que celui obtenu avec les plaques sèches. Les imperfections étaient moins visibles, et à cette époque le grand public était satisfait de la restitution de leur image.

Avec l’avènement des plaques sèches, en revanche, les défauts présents sur les visages sont beaucoup plus visibles sur le négatif. Ainsi est née une demande pour des lignes plus douces et un retrait des imperfections les plus évidentes. Dans un premier temps, ces derniers étaient retirés, au moyen de pinceaux et de couleurs, de chaque tirage.

Mais plus le nombre d’imperfections est élevé, plus le travail de retouche sur chaque tirage devenait important. Aussi, le photographe se devait de trouver un moyen d’appliquer ces corrections directement sur le négatif, afin que chaque tirage effectué à partir de ce négatif soit déjà débarrassé de ses imperfections. Ces recherches ont donc mené à la retouche des négatifs.

© phototrend.fr
Retoucher les portraits : jusqu’à quel point ?

L’auteur de l’ouvrage en profite également pour interroger la quantité de retouche nécessaire pour un portrait. Plus de 100 ans avant l’arrivée des “filtres beauté” incontournables sur les réseaux sociaux, la question se posait déjà pour la retouche des négatifs.

Voici un extrait de l’ouvrage sur la question de la quantité de retouche à effectuer : “Bien que peu de photographes soient d’accord sur la quantité exacte de retouche requise, tous s’accordent à dire qu’une certaine quantité est absolument indispensable pour que le négatif soit en parfait état pour le tirage.

Certains prétendent que seule une infime quantité de mine à plomb doit être appliquée à la plaque pour enlever les défauts les plus apparents. À l’opposé, certains recouvrent littéralement le négatif de mine à plomb, en retouchant sans aucun égard pour le modelé, sans même tenter de conserver la ressemblance avec l’individu. Leur but est donc d’idéaliser le sujet.

Bien qu’une utilisation judicieuse de la mine de plomb et de l’eau-forte permette cela, le caractère et l’expression du visage sont perdus à cause de la retouche excessive. Ainsi, comme dans toute autre branche de la photographie, la retouche doit être appliquée avec discernement, et le photographe doit tendre vers un équilibre entre ces deux extrêmes”.

Enfin, rappelons que l’embellissement des portraits est loin d’être l’apanage de la photographie. Bien avant l’invention des premiers procédés photographiques, les peintres classiques avaient une certaine tendance à embellir le visage de leurs sujets – et d’autant plus lorsqu’il s’agissait d’une commande.

Cependant, il paraît évident que la puissance des outils de retouche dont nous disposons aujourd’hui accentue encore davantage ce phénomène – ce qui n’est pas sans conséquence pour la santé mentale de nombreuses personnes… [d’après PHOTOTREND.FR]


[INFOS QUALITÉ] statut : validé | mode d’édition : partage, décommercalisation et correction par wallonica | commanditaire : wallonica.org | contributeur : Philippe Vienne | crédits illustrations : © phototrend.fr


Plus d’arts des médias…

BOURDEAUT : J’ai décidé de me séparer de ce téléphone, si intelligent qu’il me rendait parfaitement débile

Temps de lecture : 3 minutes >

[FRANCEINTER.FR] Après l’immense succès de son premier roman, En attendant Bojangles (2016), Olivier BOURDEAUT vient de publier Pactum Salis. Invité pour en parler au micro d’Augustin Trapenard dans Boomerang, l’écrivain s’est lancé à l’antenne dans une très belle ode à l’ennui et à l’observation…

Invité au micro d’Augustin Trapenard, Olivier Bourdeaut affirme que l’ennui est “primordial dans la vie des gens“. Et dans la sienne ? Il estime que l’ennui est même fondateur :

Si je ne m’étais pas ennuyé autant lorsque j’étais enfant, je pense que je n’aurais jamais écrit de romans. C’est bien de laisser son esprit vagabonder, ses yeux s’accrocher à des détails, je pense que ça structure la cervelle – en tous cas ma petite cervelle à moi…

Ode à l’ennui et à l’observation

“Le téléphone intelligent a de nombreuses qualités. Ce n’est pas à moi d’en faire l’article, ses promoteurs s’en chargent à merveille à la télévision, dans les magazines et sur les murs des bâtiments parisiens en rénovation. En tant qu’abominable égoïste, je me moque royalement de ce que font les autres. Je me contente de me satisfaire, tous les jours, de la disparition du téléphone intelligent dans ma vie, il y a maintenant sept ans.

J’ai une chance inouïe : je vis désormais de mon écriture et c’est un luxe.

J’ai la naïveté de penser qu’un peu d’imagination n’est pas pas totalement absurde lorsqu’on écrit des romans. Or, à mon sens, et ce n’est que mon avis, l’imagination est le fruit de deux choses fondamentales : l’ennui, à qui on donne trop souvent un drôle de mauvais rôle, et l’observation, qui n’est pas seulement un terme médical.

Pourquoi observer le monde autour de soi quand on peut lire ses notifications Facebook et regarder des vidéos avec des chatons ? © cosmoglobe

Il s’avère que le téléphone intelligent est le plus féroce ennemi de ces deux activités de fainéants que sont l’ennui et l’observation. Ce charmant objet, si pratique, si nécessaire, si vital, fait peu à peu disparaître ces deux activités primordiales du cerveau humain.

Pourquoi s’ennuyer quand on peut regarder des vidéos de chatons dans une salle d’attente, et pourquoi regarder ses voisins dans la même salle d’attente lorsqu’on peut regarder des notifications Facebook de la plus haute importance, ou encore des vidéos d’abrutis qui se renversent un seau d’eau sur le visage pour sauver un bébé panda ou faire baisser la température terrestre ?

J’ai réalisé il y a sept ans que j’étais beaucoup trop sensible aux vidéos de chatons et aux notifications Facebook pour pouvoir y résister. J’ai donc décidé de me séparer de ce téléphone, si intelligent qu’il me rendait parfaitement débile…

Depuis, lorsque je sors d’une salle d’attente, je sais combien de personnes s’y trouvaient, j’ai tenté de deviner ce qu’ils faisaient comme métier, quelle maladie ils pouvaient bien avoir et j’ai construit dans ma petite cervelle pleine d’ennui le roman de leur vie. Le monde n’est plus dans le fond de ma poche mais sous mes yeux, et c’est bien suffisant pour me rendre heureux.


[INFOS QUALITE] statut : validé | source : interview d’Olivier Bourdeaut (avec pubs) par Augustin Trapenard, sur FRANCEINTER.FR (article du 22 janvier 2018) | mode d’édition : compilation (et corrections) par wallonica | commanditaire : wallonica.org | contributeur : Patrick THONART | crédits illustrations : © boligàn © cosmoglobe


Débattons-en…

Mais qui est la fameuse Simone de l’expression “en voiture Simone” ?

Temps de lecture : 3 minutes >
Simone de Forest (à droite) et Fernande Hustinx (à gauche) au rallye de Monte-Carlo avec leur Peugeot 301 équipée de pneus parés à toute éventualité…

“Nous connaissons tous cette expression, “en voiture Simone”. Mais peu d’entre nous connaissent la Simone en question. Cette femme a pourtant marqué l’histoire du sport automobile.

Simone de Pinet de Borde des Forest est née en 1910 à Royan. Sa famille est aisée et vit dans le Château de Fontorte, dans l’Allier. Dès ses douze ans, elle pose les mains sur le volant de la voiture de son oncle. C’est donc tout naturellement qu’elle passe son permis de conduire à 19 ans, un acte encore rare chez les femmes de l’époque.

Talbot T150 présentée par Fernande Hustinx

En 1934, elle part à l’aventure avec son amie Fernande Hustinx. A bord d’une Peugeot 301, les deux femmes prennent le départ du Rallye Automobile de Monte-Carlo. Partant de Bucarest, ce sont 3.772 kilomètres de tempêtes de neige et de vents glacials qui les attendent. Elles arrivent en 17ème position et remporte la Coupe des Dames, récompensant, comme son nom l’indique, les femmes participant à la course. Elle renouvelle l’exploit l’année suivante, cette fois-ci aux côté d’Odette Siko.

En 1937, elle participe à un essai de vitesse au circuit de Montlhéry, organisé par Yacco Oil. Elle fait partie d’une équipe de quatre femmes, menées par Odette Siko. Malgré l’animosité de Simone et de Claire Descollas envers Hellé Nice, ce sont vingt-cinq records qui sont établis ce jour-là, dont dix records mondiaux d’endurances.

En voiture Simone !

Simone participe à de nombreuses courses et rallyes jusqu’en 1957 sans le moindre accident à son actif, allant à l’encontre de la misogynie ambiante, sévissant à cette époque. Elle est également une des premières femmes à ouvrir sa propre auto-école en 1950, y enseignant la conduite pendant plus de vingt ans.

Reconnue dans le monde du sport automobile de l’époque, une expression naît pour lui rendre hommage :

En voiture Simone ! C’est toi qui conduis, c’est moi qui klaxonne…

Ce n’est qu’en 1962 que l’expression devient populaire, grâce à Guy Lux. Il présente alors Intervilles avec Léon Zitrone et Simone Garnier et lance un tonitruant “En voiture Simone” avant les épreuves.

Si beaucoup ont aujourd’hui oublié la carrière automobile de Simone, son expression est quant à elle bien installée dans les mémoires collectives.” [OSCARONEWS.COM]


Pas très Wallonie-Bruxelles tout ça, râleront les mauvais coucheurs, voire les machos du volant… Oh que si ! Fernande Hustinx -une des “deux jeunes filles”- est une ancêtre de l’éditeur responsable de wallonica.org et, partant, elle ne pouvait démériter ni au volant, ni en amour (nul doute que notre regretté journaliste sportif maison, David Limage, ne l’ait connue !) :

© collection privée

En 1934, dans le Rallye de Monte-Carlo, la Coupe des Dames était gagnée Mlle Hustinx, qui faisait équipe avec Mlle des Forest. Mlle Hustinx avait pris le départ à Bucarest. De cette même ville et conduisant une voiture de la même marque était parti Charles de Cortanze. Bien entendu, les deux voitures firent route ensemble. La conclusion définitive de l’ épreuve est celle-ci : le mariage a récemment été célébré à Lille, de M. Charles Roero de Cortanze avec Mlle Fernande Hustinx. Et c’est ainsi qu’apparaît une utilitié supplémentaire des rallies automobiles. Nous souhaitons bonheur et succès à la nouvelle équipe constituée par M. et Mme de Cortanze.” – M. Ph.


Plus de sport tue le sport (et Trotsky tue…) !

VAN DE POELE, Eric (né en 1961)

Temps de lecture : 2 minutes >

Verviétois par la naissance (en 1961) mais namurois de fait, Eric Van de Poele n’aura de cesse de griller les étapes pour atteindre son but : la Formule 1. Il se choisit dès lors une école de pilotage parmi celles qui fleurissent en Europe et rafle la mise à La Châtre. Il plonge en championnat de France (Formule 3) puis revient en Belgique gagner le titre Formule Ford. Il joue ensuite la carte des voitures de tourisme où il est intégré au BMW Junior Team, évoluant en Allemagne.
En 1987, dans le prestigieux championnat de tourisme allemand (le DTM), il coiffe la couronne, ayant de plus signé le premier de ses quatre succès aux 24 Heures de Spa. Il reviendra à la monoplace dans la série Formule 3000 d’où il émerge vice-champion (1990) avec trois victoires à la clef. Il a un pied en F1 même si la porte est celle de derrière ! Il signe avec Modena, écurie d’un play-boy italien, magnat de la chaussure qui a eu les yeux un peu grands que le ventre. Eric marque pourtant son passage avant d’intégrer Brabham, écurie mythique alors à l’agonie. Tintin se bat mais ne peut inverser le cours des choses. Il entre chez Fondmetal qui n’est guère plus vaillante. Il arrêtera le massacre pour traverser la Manche et s’investir en tourisme chez Nissan, mais l’auto est loin du compte.
Eric saute plus haut et plus loin, tendant les bras à l’Amérique où il retrouvera la joie de gagner et d’asseoir sa réputation de pilote d’endurance, alignant les succès. En parallèle de programmes éclectiques en sport-prototypes, il reviendra régulièrement en Europe faire de jolies piges en tourisme. Il connaîtra une alerte avec un accident sérieux au Mans mais l’enthousiasme est toujours là. Plus que jamais en bonne place sur la “shopping list” des managers de bonnes écuries de pointe, le Namurois fait partie de l’équipe gagnante de Maserati avec laquelle il a enlevé les éditions 2005 et 2006 des 24 Heures de Spa.

David LIMAGE

Le pilote verviétois a également un site officiel : ericvandepoele.com

Plus de sport en Wallonie-Bruxelles…

van BEURDEN, R. & SHEPARD, S., The Meaning of HACCP in Food Safety Management and the Contribution of Lumac/L’importance des systèmes HACCP dans la gestion de la sécurité alimentaire – La contribution de Lumac (Landgraaf: Perstorp Analytical Lumac, 1995)

Temps de lecture : 13 minutes >

À l’heure du dérèglement climatique et de l’effondrement de la biodiversité, nous sommes nombreux à souhaiter un mode de développement durable et respectueux de notre environnement. Cette nature que nous devrions protéger pourrait-elle nous y aider ? Elle et nous vivons dans le même monde, sommes sujets aux mêmes lois, aux mêmes contraintes physiques. Léonard de Vinci l’avait déjà compris. Parmi les millions d’espèces vivantes, y en aurait-il certaines qui auraient développé des solutions éprouvées par le temps, optimisées par l’évolution et transposables à nos défis technologiques et sociétaux ?” [d’après NEWS.ULIEGE.BE]

Qui aurait dit que -sans le faire vraiment exprès- nos lucioles des soirs d’été inspireraient aux ingénieurs du secteur agro-alimentaire une méthode aujourd’hui couramment utilisée : la bioluminescence.

Il s’agit ici de ce que l’on nomme du biomimétisme : une technologie est mise au point par imitation d’un processus qui existe déjà dans la nature. Je résume : la luciole produit sa petite lumière si charmante quand une enzyme qu’elle transporte dans son postérieur entre en contact avec des bactéries. Une fois transposée dans un milieu de test pour produits agro-alimentaires, la confrontation enzyme-bactérie produit une luminescence qui peut être mesurée.

En clair : je prélève un simple pot de yaourt dans une chaîne de production agro-alimentaire, j’y introduis l’enzyme de la luciole et je mesure la luminescence qui est produite ou non. S’il y a luminescence, il y a bactéries, donc danger pour la sécurité alimentaire (ex. salmonelles). Le reste du lot de production est suspect.

Il ne restait plus qu’à systématiser ces tests à des points de la chaîne de production dits ‘critiques’ et on appliquait la méthodologie HACCP aux tests par bioluminescence.

Intéressés ? Nous vous livrons ci-dessous les bonnes feuilles d’un ouvrage épuisé sur le sujet (nous en conservons une copie papier : si cela vous tente, contactez-nous). S’il s’agit d’un texte à teneur scientifique, il a été publié à des fins commerciales : à vous de faire la part des choses. Bonne lecture…

© Patrick Thonart

Table des matières

      1. Introduction à HACCP
      2. Mise en œuvre de l’HACCP dans le cadre d’un système de gestion de sécurité alimentaire
        • Etape 1 : Définition du cadre de référence
        • Etape 2 : Sélection de l’équipe HACCP
        • Etape 3 : Description du produit final et de la méthode de distribution
        • Etape 4 : Identification de l’usage escompté du produit
        • Etape 5 : Elaboration du diagramme de fabrication
        • Etape 6 : Vérification sur site du diagramme de fabrication
        • Etape 7 – Principe 1 : Analyse des dangers
        • Etape 8 – Principe 2 : Identification des CCP
        • Etape 9 -Principe 3 : Détermination des Niveaux-cibles et des Limites critiques
        • Etape 10 -Principe 4 : Elaboration du système de surveillance pour chaque CCP
        • Etape 11 -Principe 5 : Détermination des actions correctives à prendre pour remédier aux écarts observés
        • Etape 12 – Principe 6 : Elaboration d’un système d’archivage et de documentation
        • Etape 13 – Principe 7 : Vérification du système HACCP
        • Etape 14 – Principe 7 : Révision du plan HACCP
      3. Utilisation de méthodes microbiologiques rapides dans les programmes HACCP
        • Les systèmes basés sur la Bioluminescence ATP
        • La solution LUMAC appliquée aux programmes HACCP
      4. Systèmes HACCP dans l’industrie laitière : la solution LUMAC
        • Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
        • Exigences microbiologiques d’un système de contrôle des matières premières
        • Exigences microbiologiques d’un système de contrôle des produits finis dérivés du lait
      5. Les systèmes HACCP et la Solution LUMAC pour l’industrie des boissons non alcoolisées (soft drinks)
        • Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
        • Exigences microbiologiques d ‘un système de contrôle des matières premières
        • Exigences microbiologiques des systèmes de test de produits finis
      6. Les systèmes HACCP et la Solution LUMAC pour le secteur de la brasserie
        • Exigences microbiologiques d’un système d’évaluation de l’hygiène des citernes, des usines et des machines
        • Exigences microbiologiques d’un système de contrôle des matières premières
        • Exigences microbiologiques des systèmes de test de produits finis
      7. L’HACCP et la Solution LUMAC pour d’autres industries du secteur agro-alimentaire
        • L’HACCP et la Solution LUMAC pour le secteur de la boucherie
        • L’HACCP et la Solution LUMAC pour le secteur de la restauration

Préface

Aujourd’hui -et dans le monde entier- les systèmes HACCP sont considérés comme les moyens les plus sûrs d’assurer la sécurité des aliments. A la base de la forte expansion des procédures CCP au cours de la dernière décennie, on trouve divers éléments favorables dont les moindres ne sont pas les mesures de régulation et les dispositions légales prises face à la multiplication des cas d’empoisonnement alimentaire, le souci croissant de protéger l’environnement et les pertes financières encourues par les industriels du fait d’un contrôle insuffisant de la production et de la mauvaise qualité des matières premières. Sur la scène commerciale internationale, les différents opérateurs soutiennent l’HACCP, estimant qu’il leur permet de démontrer à leurs clients combien leurs produits alimentaires satisfont aux exigences qualitatives du marché. On ne compte actuellement plus les livres, les articles, les formations et les guides portant sur l’implémentation des systèmes HACCP ; la plupart d’entre eux sont basés sur les mêmes principes de départ, établis à l’origine par la Pillsbury Company aux USA. Dans le sillage du succès croissant des dispositifs HACCP, les méthodes d’analyse microbiologique rapide se sont également implantées de plus en plus dans l’industrie agro-alimentaire. Cette tendance à la hausse est principalement due à la haute compatibilité de ces applications, et plus particulièrement de la Bioluminescence ATP, avec les programmes HACCP. Si l’information en matière d’HACCP est facilement disponible, il est moins aisé de trouver des indications complètes sur l’implémentation de la Bioluminescence ATP dans le cadre de programmes HACCP. C’est dès lors la finalité que nous avons choisie pour le présent manuel, basé sur des données LUMAC réelles, collectées auprès des utilisateurs, et d’autres données encore, produites par notre département R&D. L’objectif est ici de proposer un manuel pratique exposant clairement la Solution LUMAC et, partant, de faciliter l’implémentation des programmes HACCP. Nous espérons que ce volume pourra vous être très utile et que vous pourrez tirer de multiples avantages de l’utilisation de la Solution LUMAC dans le cadre de votre programme HACCP. Vos commentaires, vos questions, vos remarques et vos compléments d’information sont toujours les bienvenus chez LUMAC : n’hésitez pas à prendre contact avec votre concessionnaire LUMAC, chaque fois que vous l’estimerez nécessaire.

Rob van Beurden & Sue Shepard Landgraaf (mai 1995)

Introduction à l’HACCP

Aperçu historique du système HACCP

La notion de HACCP (Hazard Analysis and Critical Control Point) telle que nous la connaissons aujourd’hui date de 1959. C’est à celte époque en effet que la NASA (National Aeronautics and Space Agency) demanda à la société américaine Pillsbury de produire une nourriture pouvant être consommée dans l’espace, en état d’apesanteur. Le problème -mal connu à l’époque- du comportement des aliments dans des conditions d’apesanteur fut vite résolu. Il restait cependant une partie plus délicate au programme : éliminer les dangers microbiens, chimiques ou physiques présentant un danger potentiel pour la santé des astronautes en mission. Pillsbury en vint rapidement à la conclusion qu’il était impossible de garantir la qualité de ces aliments spéciaux en utilisant les techniques existantes, essentiellement basées sur des méthodes d’analyses destructives du produit fini. Le système non destructif de contrôle de qualité mis au point par Pillsbury se basait sur des actions préventives : en contrôlant la totalité du processus (matières premières, process, distribution, nettoyage, personnel, etc.) et en procédant à un enregistrement rigoureux des données, il était possible de limiter les contrôles entraînant la destruction du produit fini.

Ce programme spatial marqua le début du système HACCP actuel, qui est par essence une méthode préventive de contrôle de la qualité. Ce système repose sur une analyse approfondie e l’ensemble du circuit alimentaire, depuis les matières premières jusqu’au consommateur. Après analyse des processus, il est possible de localiser les dangers et de définir les points de contrôle.

Facteurs ayant influencé l’émergence de l’HACCP

On estime que chaque année, dans les pays occidentaux, quelque 30% de la population est victime de gastro-entérites causées par des agents pathogènes présents dans l’alimentation (Notermans & Van der Giessen, 1993). La salmonellose reste, à ce jour, la principale maladie d’origine alimentaire, et, ces dernières années, on a enregistré en Europe une augmentation du nombre d’épidémies. On pense que celte hausse ne peut uniquement s’expliquer par les modifications des procédures de recensement de ces maladies (Gerick, 1994).

Les maladies d’origine alimentaire représentent un coût élevé pour la société. A titre d’exemple, une étude réalisée au Royaume-Uni en 1986 révélait que l’entérite bénigne causée par le Campylobacter aurait coûté aux alentours de 600 £ par cas. En 1992, on a enregistré plus de 38.000 cas, ce qui représente déjà, même sur base du coût estimé six ans plus tôt, un montant de 22 millions £ rien que pour le Royaume-Uni (Phillips et al., 1994). Pour faire face à ce problème lié à la contamination bactérienne des aliments, il faut apporter des améliorations à tous les stades de la production. C’est là que l’HACCP révèle toute son importance, car la mise en œuvre d’un système HACCP dans une chaîne de fabrication alimentaire permet de superviser chaque étape de la transformation des aliments et de prévenir ainsi les dangers de contamination microbiologique.

S’il est vrai que la contamination microbiologique peut donner lieu à des pertes financières importantes, il ne faut pas sous-estimer l’importance de la contamination physique et chimique des aliments. Le système HACCP a été conçu de manière à couvrir l’ensemble de ces dangers.

L’approche préventive sur laquelle il repose a suscité l’intérêt de sociétés du secteur agro-alimentaire et des instances officielles de contrôle nationales et internationales, qui voient en ce système un moyen efficace de contrôler tous les aspects liés à la sécurité alimentaire.

Ces facteurs socio-économiques ont sans doute contribué à la multiplication, ces dernières années, des textes législatifs en rapport avec la sécurité alimentaire, l’hygiène et l’HACCP en Europe et aux Etats-Unis. Il existe actuellement deux Directives européennes qui soulignent la nécessité, pour les entreprises du secteur agro-alimentaire, de mettre en œuvre un système de suivi et de contrôle :

    1. 92/46/ CE, Directive concernant l’hygiène des produits laitiers, intitulée “Directive arrêtant les règles sanitaires pour la production et la mise sur le marché de lait cru, de lait traité thermiquement et de produits à base de lait
    2. 93/43/ CE; Directive générale concernant l’hygiène alimentaire, intitulée “Hygiène des denrées alimentaires

Le contenu de ces directives a été traduit dans les différentes législations européennes. Par exemple, au Royaume-Uni, le “Food Safety Act” a été modifié de façon à ce que toute directive CE puisse être appliquée dans le cadre du droit national. Ceci signifie que l’industrie britannique de l’agro-alimentaire devra se conformer à la législation instituée par la CE.

A l’instar de la CE, les Etats-Unis ont également reconnu la nécessité d’un contrôle plus strict dans le domaine de la sécurité des aliments. La FDA (Food and Drug Administration) recommande l’adoption des principes HACCP dans les entreprises du secteur alimentaire, même si, pour l’instant, ces directives ne font par partie du droit fédéral et n’ont pas force de loi.

Définitions et principes

En novembre 1989, le Comité Consultatif National américain pour les Critères Microbiologiques des Aliments (National Advisory Committee on Microbiological Criteria for Foods, ou NACMCF) a présenté un guide décrivant le principe des systèmes HACCP. Dans ce document, le comité concluait que l’HACCP constitue un outil efficace et rationnel de contrôle de la sécurité alimentaire (NACMCF, 1989). Ce document clé a été mis à jour en mars 1992 par le même comité (NACMCF, 1992).

L’HACCP peut être défini comme un système qui identifie des dangers spécifiques (c’est-à-dire toute propriété biologique, chimique ou physique qui affecte la sécurité des aliments) et spécifie les actions nécessaires à leur maîtrise. On entend par “Point de Contrôle Critique” (CCP) tout point de la chaîne de production alimentaire, depuis les matières premières jusqu’au produit fini, où une perte de contrôle pourrait faire courir un risque inacceptable (danger) à la sécurité alimentaire. Lorsqu’on met en œuvre un système HACCP, les tests microbiologiques traditionnels constituent rarement un moyen efficace de surveiller les CCP étant donné le temps nécessaire pour obtenir les résultats. Dans la plupart des cas, le mieux est d’assurer cette surveillance par le biais de tests physiques et chimiques, ainsi que par l’observation visuelle. Le Tableau 1.1 reprend quelques-uns des termes HACCP les plus importants ainsi que leurs définitions.

Les sept principes suivants constituent les règles de base du concept HACCP (NACMCF, 1989, Codex Alimentarius, 1993). Ces sept principes sont utilisés pour élaborer, mettre en œuvre, entretenir et améliorer le système HACCP. Ils constituent la base de l’HACCP et on les rencontre dons tous les textes qui traitent de ce sujet :

    1. Identifier le ou les dangers éventuels associés à la production alimentaire, à tous les stades depuis la culture ou l’élevage jusqu’à la consommation finale, en passant des matières premières et ingrédients à la fabrication, la distribution, la commercialisation, ainsi qu’à la préparation et la consommation de l’aliment (Analyse des dangers) et identifier les actions préventives nécessaires à leur maîtrise.
    2. Localiser les Points de Contrôle Critiques (CCP) qui doivent permettre de maîtriser des dangers identifiés ;
    3. Déterminer les “Niveaux-cibles” et les “Limites critiques” auxquels doit satisfaire chaque CCP ;
    4. Fixer les procédures de surveillance des CCP ;
    5. Déterminer les actions correctives à prendre lorsqu’un CCP donné est non maîtrisé ;
    6. Elaborer des systèmes efficaces d’enregistrement des données servant de base à l’élaboration du plan HACCP ;
    7. Définir les procédures destinées à vérifier que le système HACCP fonctionne correctement.

Ces principes seront expliqués de façon plus détaillée dons le Chapitre 2.

Tableau 1.1 : Définitions de termes HACCP importants
      • HACCP : Analyse des dangers points critiques pour leur maîtrise
      • Danger  : Propriété biologique, chimique ou physique susceptible de rendre un aliment impropre à la consommation
      • Analyse des dangers : Evaluation de toutes les procédures ayant trait à la production, la distribution et l’utilisation de matières premières et de denrées alimentaires, visant à :
        • Identifier les matières premières et les aliments présentant un danger potentiel
        • Identifier les sources potentielles de contamination
        • Déterminer la capacité de survie ou de prolifération de micro-organismes au cours de la période de production, de distribution, de stockage ou de consommation
        • Evaluer les dangers et la sévérité des dangers identifiés
      • Risque : Estimation de la probabilité que ce(s) danger(s) se présente(nt) effectivement
      • Sévérité : Gravité d’un danger
      • CCP Critical Control Point (Point Critique) : lieu, étape, procédure ou processus qui doit être maîtrisé en intervenant sur un ou plusieurs facteurs afin d’éliminer ou réduire un danger ou une de ses causes et de minimiser sa probabilité d’apparition.
      • Surveillance : Séquence planifiée d’observations ou de mesures pour déterminer si un CCP est maîtrisé et produire un document d’archive précis destiné à être utilisé ultérieurement à des fins de vérification

Avantages et problèmes potentiels du concept HACCP

Le concept de l’HACCP comporte de nombreux avantages :

    • Il est efficient, car il suppose une concentration des efforts de contrôle
    • Il est économique, car les méthodes de surveillance reposent essentiellement sur des techniques rapides et simples, et
    • il est extrêmement efficace, car il permet de prendre rapidement les actions correctives nécessaires.

Cette approche rationnelle et intégrée visant à garantir la sécurité des aliments a suscité l’intérêt de diverses instances chargées de la réglementation en la matière (offices de contrôle alimentaire , ministères de la santé et de l’agriculture, etc.). Leur attitude positive à l’égard de l’HACCP a également eu pour effet de renforcer l’intérêt des entreprises du secteur de la transformation des aliments. Comme c’est le cas lors de tout changement important au sein d’une entreprise, il y a quelques obstacles à franchir au moment de mettre en place un système HACCP sur mesure. Ces obstacles peuvent varier d’un cas à l’autre en raison des différences qui existent au niveau de l’organisation, de la culture d’entreprise et du degré d’engagement du personnel. Voici quelques-uns de ces problèmes et des solutions qui s’y rapportent (Pearson, 1994).

Résistance aux pratiques et aux protocoles de travail standardisés

Si le personnel n’est pas habitué à travailler selon des règles strictes, il se peut qu’il manifeste une résistance à la mise en œuvre d’un système HACCP. Il se peut que les travailleurs doivent changer certaines de leurs habitudes, le succès d’un tel système reposant en effet sur le respect scrupuleux des protocoles. Un aspect positif est que les nouveaux venus peuvent être rapidement opérationnels car toutes les activités sont décrites dans des documents. Une bonne information et une explication de l’impact du système sur la qualité des aliments devraient permettre de convaincre ceux qui se montrent réticents à adopter les actions nécessaires.

Nécessité éventuelle d’investissements

Dans certains cas, les installations de transformation des aliments sont vétustes et inefficaces, voire mal conçues. Pour pouvoir mettre en œuvre un système HACCP, il se peut qu’une partie de l’infrastructure doive être réorganisée, déplacée ou modernisée. Ces investissements de départ sont habituellement rentabilisés à long terme grâce à une diminution des coûts et une meilleure productivité.

Contrôle de l’hygiène personnelle des travailleurs

Les personnes qui manipulent les aliments ou qui sont impliquées dans leur transformation constituent une source possible de contamination. Il est donc important d’exercer un contrôle rigoureux de leur hygiène individuelle. Il se peut que certains travailleurs doivent changer leurs habitudes (coiffure, lavage des mains, éternuements, etc.) ou être temporairement déplacés s’ils souffrent de maladies d’origine alimentaire telle qu’une infection aux salmonelles. L’explication de quelques notions de base de microbiologie alimentaire peut contribuer à sensibiliser le personnel à l’importance de l’hygiène individuelle. Une plaque de gélose incubée avec l’empreinte digitale d’un travailleur peut être utilisée pour ouvrir les yeux des sceptiques !

Main d’œuvre mal formée

Une formation insuffisante peut induire un manque de respect des normes. Une mauvaise communication et des explications incomplètes des normes et des protocoles auront pour effet d’augmenter les réticences et de diminuer la motivation du personnel. Les travailleurs à temps partiel et le personnel temporaire sont souvent oubliés ou simplement exclus lorsqu’il est question de formation.

N’essayez pas de gagner du temps ou de l’argent en rognant sur les formations ! L’aspect humain est l’élément le plus important dans la réussite de l’HACCP !

Le travail contre la montre

Quand les produits doivent être fabriqués et livrés rapidement (notamment suite à une hausse soudaine de la demande), un personnel mis sous pression peut avoir tendance à être moins attentif aux normes et aux règles de production. C’est surtout durant ces périodes que le système HACCP risque d’être mis à l’épreuve et que l’on pourra se rendre compte du degré de motivation et de dévouement du personnel. Or, c’est en ces moments-là que les erreurs ou les “raccourcis” délibérés se rencontrent souvent…

Un bon planning de production et l’utilisation du personnel adéquat peuvent permettre d’éviter les  problèmes liés à ces périodes de travail sous pression.

Limitation de la créativité, de l’esprit d’innovation et du savoir-faire

Certains craignent parfois que la mise en œuvre d’un système HACCP ne vienne entraver la créativité, l’esprit d’innovation et le savoir-faire. Pourtant, le fait d’introduire une standardisation des pratiques et des procédures ne signifie pas qu’il faille supprimer ces éléments, son objectif étant simplement de garantir la sécurité des aliments produits.

Les obstacles potentiels mentionnés plus haut n’ont pas empêché l’industrie agro-alimentaire d’adopter le concept HACCP. Il est clair en effet que les avantages à long terme l’emporteront sur les éventuelles difficultés à court terme.

Pour être efficace, l’HACCP doit faire partie intégrante de la politique de l’entreprise en matière de qualité, et il peut donc être associé à un programme de “bonnes pratiques de fabrication” ou à la mise en œuvre de la norme ISO 9000. Cela nécessite d’importants investissements tant en heures de travail qu’en termes de ressources financières de l’entreprise. Pour réussir, un tel programme doit bénéficier de l’appui et de l’engagement total de la direction et du personnel, travaillant ensemble dans un esprit d’équipe.

L’amélioration du rapport coût/avantages lié à l’HACCP n’apparaîtra clairement qu’à long terme, au moment où l’utilisation de ce système se traduira par des économies engendrées notamment par un meilleur rendement et une réduction des rebuts. Certains avantages n’ont pas de retour financier tangible, mais contribuent à améliorer l’image et la réputation de l’entreprise. Un certain nombre d’avantages commerciaux du système HACCP sont repris dans la liste qui suit:

    • Augmentation de la sécurité alimentaire
    • Minimiser les dangers de produit non conformes
    • Conformité à la législation en matière d’alimentation et à la directive européenne sur l’hygiène
    • Meilleur rendement
    • Réduction des rebuts
    • Amélioration des conditions de travail
    • Amélioration du moral et réduction de la rotation du personnel
    • Fiabilité accrue permettant de rencontrer les exigences du client
    • Renforcement de la confiance du client
    • Elargissement des perspectives commerciales
    • Amélioration de l’image et de la réputation
    • Amélioration de la qualité des produits
    • Diminution du nombre de réclamations
    • Diminution du nombre de produits retirés de la vente
    • Réduction du risque de contre-publicité
    • Réduction des coûts
[…]

Références bibliographiques

      1. Gerick, K. 1994. Foodborne Disease Trends in Europe. Intervention à la Conférence sur la sécurité alimentaire, Laval, France, Juin 1994.
      2. National Advisory Committee for Microbiological Criteria for Food (NACMCF), 1989. HACCP principles for food production. USDA-FSIS Information Office Washington, DC.
      3. National Advisory Committee for Microbiological Criteria for Food (NACMCF), 1992. Hazard Analysis and Critical Control Point System. International Journal of Food Microbiology, 16, 1-23.
      4. Notermans, S., et Van der Giessen, A., 1993. Foodborne disease in the 1980s and 1990s. Food Control 4, 122-124.
      5. Pearson, R. 1994. Personal communication, Food Dialog, UK.
      6. Phillips, C., et J. T. George, 1994. Food Poisoning in context, International Food Hygiene, 5, 45-49.

Traduction : Patrick Thonart


Plus de technique…