vendredi 12 août 2022

L'affaire du Perceptron

Research trends, Vol. VI, N°2, 
 Cornell University, été 1958 

 Report MARK 1 Perceptron operators’ manual, 
Cornell Aeronautical Laboratory,février 1960

                                                                Crédit: Université de Cornell

Résumé : Il y a soixante ans, la première réalisation matérielle d’un neurone artificiel posa les bases de l’interfécondation entre neuro sciences et data sciences. Cette machine, le Perceptron, suscita des controverses sur des problématiques toujours d’actualité.

« The Navy revealed the embryo of an electronic computer today that it expects will be able to walk, talk, see, write, reproduce itself and be conscious of its existence. »

Quelle est donc cette machine, cette IA, vouée à se reproduire d’elle-même et à être dotée de conscience ? Ces dernières années, les médias se font régulièrement écho de telles promesses fracassantes, y compris cet été 2022, où Blake Lemoine s’est répandu en témoignages de l’émergence d’une conscience au sein de LaMDA, projet dans le quel il opérait comme ingénieur chez Google (qui l’a licencié). L’article évoqué, du très sérieux New York Times, est bien plus ancien. Il date de 1958 et fait référence au Perceptron, suite à une interview de Frank Rosenblatt, son concepteur.

Monstre sacré ou star déchue, le Perceptron a marqué les débuts de l’intelligence artificielle. Son histoire constitua toute une affaire dans la communauté naissante de l’IA, elle demeure significative des idées qui ont conduit aux réseaux de neurones artificiels célèbres aujourd’hui, et aussi aux spéculations pseudo scientifiques qui ne cessent d’entourer l’IA.

Le Perceptron marque la première réalisation matérielle de neurones artificiels. Les moyens d’observation confortant la théorie d’un cortex constitué de neurones ne datent que de la toute fin du 19e siècle. Les premières modélisation de fonctionnement viennent un demi siècle plus tard, avec la description de la transmission d’impulsion par McCulloch et Pitts, et la règle d’apprentissage de Donald Hebb, toutes deux restées sur le papier jusqu’à ce que Rosenblatt conçoive son Perceptron. Chercheur en psychologie, son but était d’étudier nos processus d’apprentissage. A cette fin, l’architecture du Perceptron reprend le modèle de McCulloch et Pitts et l’algorithme d’apprentissage s’inspire de la règle de Hebb.

Une expérience typique était de faire apprendre la machine à reconnaître des lettres de l’alphabet. La « rétine » de lecture était un tableau de 20 lignes de 20 « pixels » blancs ou noirs (les pixels noirs représentaient la lettre) fournis par une caméra ou directement par un tableau de 400 interrupteurs manuels! La machine « répondait »en allumant ou non chaque lampe d’une rangée de huit voyants. On convenait une fois pour toute d’un code pour les lettres (par exemple « A » doit allumer seulement la lampe 1, « B » doit allumer seulement la lampe 2, etc (avec 8 lampes, on peut coder 256 caractères, mais le Perceptron n’est jamais allé jusque là). L’« allumage » de pixels aboutissait à l’allumage ou non d’un voyant selon les lois de l’électricité à travers un fouillis de câblages et de relais munis de résistances variables qui simulaient les coefficients synaptiques. On présentait dans un ordre quelconque, et autant de fois qu’on le voulait, des écritures différentes de chaque lettre. Si la réponse n’était pas le code attendu de la lettre – autrement dit si « le Perceptron se trompait » - certaines résistances étaient modifiés selon la loi de Hebb.

Si au bout d’un nombre indéterminé de « lectures » le Perceptron finissait par donner la bonne réponse pour chaque variante de chaque lettre, l’apprentissage était réussi. Et si alors on lui présentait de nouvelles variantes de lettres, qu’il n’avait jamais lues, il donnait en général la bonne réponse là ou un humain fait de même.

Que ce soit avec des lettres de l’alphabet, avec les chiffres, avec quelques figures géométriques simples, en général l’apprentissage réussissait mais pas toujours, et un détail dans un échantillon pouvait faire échouer. On ne savait pas prédire si l’apprentissage réussirait, ni pourquoi il réussissait ou échouait, mais on constatait à l’expérience qu’il s’améliorait souvent au fil des tests, c’est-à-dire que le Perceptron commettait de moins en moins d’erreurs.

Chacune de ces expériences, prenait plusieurs jours, car les manipulateurs devaient pour beaucoup intervenir en tournant des molettes et en réglant au tournevis. Il faut se représenter ce qu’étaient les moyens techniques de l’époque. Pas de caméras numériques1 mais des cellules photoélectriques, des fils de cuivre et des rhéostats. Le coeur du Perceptron était un enchevêtrement de câbles à faire pâlir un central téléphonique de l’époque, avec des opérateurs qui maniaient les connections comme les « Dames des PTT ». Le tout intégré à ce qui se faisait de mieux comme calculateur, un Mark1 d’IBM, de cinq tonnes, non pas électronique mais électro-mécanique, avec des engrenages et des poulies. Une multiplication prenait six secondes. Durant mes études nos rares profs qui avaient eu le privilège d’accéder à de telles machines racontaient qu’à la longue ils distinguaient au son si la machine était en train de réaliser une multiplication ou une division.

Si ces conditions d’expérience font maintenant sourire, il n’en demeure pas moins que les résultats d’apprentissage soutenaient la comparaison avec l’humain, ce qui alimenta d’intenses controverses sur les capacités potentielles de ce type de machine, controverses qui aboutirent dix ans plus tard au livre de Marvin Minsky et Seymour Papert « Perceptrons: An Introduction to Computational Geometry2 ». Cet épais ouvrage délimite clairement les possibilités des Perceptrons, et établit l’incapacité de ce type de dispositif à classer des exemples très simples – le cas du XOR est célèbre. XOR désigne le « OU exclusif », c’est-à-dire « l’un ou l’autre mais pas les deux », ou encore « soit l’un soit l’autre ». Il est peu usité dans le langage courant mais omniprésent dans les circuits électroniques. Ceci revient à dire que si on se donne un rétine de deux pixels en entrée et une lampe en sortie, un Perceptron devrait apprendre à allumer la lampe réponse si un des pixels est allumé mais pas les deux. On montre facilement que c’est impossible3.

Si l’on mit plusieurs années à y voir clair dans les capacités d’un Perceptron, sa nature mathématique et ses limites, c’est que la machine historique4, son manuel d’utilisation de 67 pages5, aussi bien que la publication scientifique qui l’accompagna6 étaient particulièrement confus. En soi, le fait qu’il faille du temps et des travaux de la communauté de chercheurs pour décanter, clarifier, valider, simplifier un concept fait partie de la marche normale de la science. Aussi faut-il replacer l’« affaire » dans son contexte historique et humain pour en comprendre les ressorts.

C’est encore l’après guerre, Hiroshima, les camps et la médecine nazie ne sont pas loin. La guerre froide bat son plein, les USA se vivent plus que jamais comme défenseurs du monde libre, ils vont s’enliser au Viêt Nam. Sur les campus, les laboratoires d’idées foisonnent, en quête de spiritualité nouvelle aussi bien que d’innovations stratégiques. Les spéculations débridées exhalent souvent un parfum de mystère, ce qui inspira « La Gnose de Princeton7». En 1956, une poignée de chercheurs se réunissent durant deux mois à Dartmouth dans le New Hampshire. Beaucoup deviendront des grands noms des sciences du numérique. C’est là qu’est inventé le terme Artificial Intelligence. Rosenblatt ne participe pas à cette conférence, pourtant il connaît très bien Minsky, une des fortes personnalités du groupe, ils avaient étudié ensemble un an à New York.

Rosenblatt survendit son Perceptron. En témoigne la légende de sa présentation dans la revue interne de Cornell8 «Le Perceptron, une machine qui perçoit, reconnaît, mémorise et répond comme l’esprit humain ». Machine que Minsky s’acharna à dénigrer.

Quand il conçut le Perceptron, Rosenblatt n’avait que trente 30 ans. Il passa vite à autre chose, il mena des expériences en injectant à de jeunes rats des extraits de cervelle de congénères expérimentés, afin de tester une hypothèse qui courait sur la possible transmission de cette façon de connaissances acquises. Evidemment, ce fut en vain. Il mourut d’un accident de bateau le jour de son 43e anniversaire. Des hommages appuyés lui furent rendus, jusqu’au Congrès des Etats-Unis, évoquant une personnalité et un scientifique hors des sentiers battus9.

Minsky, d’un an son aîné, mourut à 89 ans, couvert d’honneurs. La presse salua la disparition d’un père de l’IA. Il s’était fait connaître d’un large public par son ouvrage « La société de l’esprit 10», recueil de réflexions où il expose comment selon lui l’« esprit » est induit par l’interaction d’agents simples. A la fin de sa vie, il s’affirma transhumaniste11, aspirant à des post-humains faits de pièces remplaçables sans fin, quitte à dériver le contenu du cerveau dans des IA le temps d’une intervention, un peu comme on dérive la circulation sanguine durant une opération cardiaque. Pour lui, la frontière entre humains et IA avait vocation à s’estomper, rendant caduque l’«escroquerie que sont les religions ». Il militait pour la cryogénisation dans l’attente que la science progresse suffisamment pour nous rendre éternels. Deux jours après son décès, la société de cryogénisation Alcor dont il était administrateur publia un communiqué entretenant le doute sur sa congélation12.

***********

Il s’amorce à la croisée des neuro sciences et des data sciences un corpus de lois de l’information13 comparable à celui de la physique. Forts d’un socle de lois communes à la matière, la biologie et la technologie, on a su construire des avions volant comme des oiseaux pour développer l’internationalisation industrielle. Forts d’un socle de lois communes à la pensée et aux technologies de l’information, nous saurons construire les instruments permettant l’essor d’un humanisme nouveau. Tel est du moins la thèse de ce blog.


Sans aller si loin pour le moment, nous verrons dans de prochains articles comment le Perceptron à mis en lumière les similitudes entre un neurone et un classifieur linéaire, ouvrait la voie aux problématiques actuelles.

- Similitude entre un Perceptron, un neurone et un classifieur liénaire.Les débats suscités par le Perceptron – à commencer par les travaux de Minsky – ont mis en lumière la similitude entre un neurone (nous en avons presque cent millards) et un séparateur linéaire (outil aussi courant pour le statisticien que la règle pour l’écolier)14.

- La règle de Hebb qui régit le renforcement ou l’inhibition des liaisons entre les neurones fournit un algorithme d’apprentissage qui donne des résultats bluffants en reconnaissance d’images (ce sont les expériences menées sur le Perceptron) mais bute aussi sur des exemples élémentaires.

- Cette règle permet d’apprendre à classifier des formes sans avoir à en faire la moindre analyse géométrique.

- Il est nécessaire de présenter un grand nombre de variantes pour avoir un apprentissage statistiquement satisfaisant.

- Le choix du câblage entre les neurones importe grandement.

Il faut noter que sur ces deux points Rosenblatt s’est techniquement trompé. En l’occurrence le modèle élucidant les capacités du Perceptron relève de l’algèbre linéaire et non des probabilités, et les unités d’association n’accroissent pas les capacités. Mais l’intuition est là.

Nous détaillerons au fil des articles ces points et leurs développements de façon abordable sans aucune formation mathématique, physique ou informatique. Il est en effet déterminant qu’une large partie de la société comprenne les tenants et aboutissants de la révolution scientifique qui se met en marche pour en faire un objet de progrès social et humain.

En attendant, on ne peut que recommander l’excellent article de l’université de Cornell, berceau du Perceptron, à l’occasion du soixantième anniversaire de cette machine. Son intitulé résume bien la situation : « Rosenblatt montra le chemin, 60 ans trop tôt15 ».

_____________________________

1Le terme « pixel » a été forgé dix ans plus tard.

2MIT Press, 1969.

3Voir article suivant de ce blog.

4Elle gît démantelée dans une cave de l’université de Cornell.

5Cornell Aeronautical Laboratory, Report MARK 1 Perceptron operators’ manual, février 1960. Ce document est librement consultable mais difficile à trouver. Je l’ai placé dans

https://www.dropbox.com/s/3jnkft5ufyyl0eb/P4%20236965%20manuel%20perceptron%20%281%29.pdf?dl=0

6The perceptron: a probabilistic model for information storage and organization in the brain. F Rosenblatt - Psychological review, 1958

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.335.3398&rep=rep1&type=pdf

7Raymond Ruyer, éditions Fayard, 1974. Cet ouvrage, entre fiction et réalité, eut une certaine audience. Sa tonalité frise parfois parfois le complotiste.

8Photo en tête de cet article.

10The Society of Mind, Simon and Schuster ed., 1987.

11The Jerusalem Post titrait en 2014, à l’occasion du prix Dan David, un article « For artificial intelligence pioneer Marvin Minsky, computers have soul »

13von Neumann, Shannon et Kolmogorov furent visionnaires en la matière.

14Ce sera l’objet du prochain article de ce blog.

samedi 6 août 2022

L’évolution de l’intelligence comme apprentissage




                     
Stanislas Dehaene                                                             Yann Le Cun
crédit wikipedia                                                                crédit: wikipédia

Résumé : ce que je retiens dans l’optique de ce blog d’un petit livre de deux grands chercheurs sur l’intelligence humaine et l’intelligence machine.


Je suis récemment tombé sur le recueil d’une interview1 de deux chercheurs français mondialement connus et reconnus : Stanislas Dehaene pour notre cerveau et notre intelligence, et Yan Le Cun pour les machines bio-inspirées comme le deep learning et leur intelligence. Ce livre est passé sous les radars des media car il privilégie la science au détriment du buzz.

Il se lit d’un trait. Voici ce que j’en retiens.

L’intelligence est présentée comme la capacité générale à s’adapter à une situation. Selon cette définition, l’intelligence émotionnelle est un aspect de l’intelligence, à laquelle contribuent aussi bien nos sens, nos mains que notre cortex, le tout constituant un système de saisie et de traitement d’informations qui accroît les chances de survie de l’espèce en fonction de son environnement, ainsi que celles de l’individu au sein de son espèce. Il s’agit d’une organisation qui n’est pas nécessairement basée sur des neurones, ainsi l’intelligence d’une moule consiste en son aptitude à filtrer l’eau pour en tirer des nutriments. Néanmoins, au fil du temps, les systèmes interconnectant les petites cellules grises ramifiées se sont avérés particulièrement performants. Quant à l’humain, il a bénéficié de circonstances ayant permis l’extension de la boite crânienne et son cortex.

Tout le développement de la vie peut ainsi être vu comme un apprentissage compétitif de perpétuation. Le cerveau et son cortex ne sont pas de simples réseaux de neurones interconnectés au hasard, il sont doté de zones organisées et spécialisées et de processus de contrôle des connexions synaptiques sophistiqués. Les structures cérébrales les plus favorables ont été sélectionnées et figées avec plus ou moins de souplesse selon les avantages procurés. Ces zones ont constitué au fil du temps la partie innée de notre cerveau, dont les « noyaux gris » tels le striatum évoqué par Bohler2. Le fonctionnement hérité de ces structures est inconscient, qu’il s’agisse de la régulation vitale de notre organisme, du traitement de la vision ou de tout autre signal capté par nos sens. L’évolution a conjointement à la structuration cérébrale de l’espèce préservé une plasticité cérébrale qui assure un avantage adaptatif à court terme, voire une capacité à se reconfigurer en cas d’accident ou d’invalidité. Cette plasticité permet chez l’humain une large part d’acquis à deux échelles. A l’échelle individuelle, il s’agit de l’apprentissage par l’expérience, le groupe, l’école, la culture. Cet apprentissage se traduit en l’établissement de circuits de neuronaux grâce à des « réglages » des synapses, qui sont des millions de milliards de points de transmission d’informations électrochimiques entre les neurones. Les connaissances ainsi apprises par un individu durant sa vie disparaissent avec lui. Mais elles sont transmises à l’échelle collective par un processus qui sort du cadre de l’hérédité génétique et est spécifique aux hominidés : la civilisation, ses constructions, ses outils, ses objets, ses cultures, ses croyances, ses sciences et ses arts – et en dernier lieu l’écriture et la capacité à se construire une histoire. Au lieu de coévoluer avec sa savane, sa mer ou sa forêt, l’humain coévolue avec l’accumulation de ses créations. Pour illustrer la dualité inné-acquis, Dehaene prend l’exemple des langues et de la causalité. Un bébé peut apprendre n’importe quelle langue, mais c’est parce que toutes les langues ont des principes communs, et qu’une zone du cerveau s’est spécialisée dans leur traitement. Pour la causalité, imaginons deux populations sur une île3. L’une fait le lien entre une chute de pierre et un danger, entre un crocodile et un danger, entre un signe de congénère et son attitude envers lui, autant d’exemples de lien entre cause et effet. L’autre population ne fait pas le lien, celle-ci disparaîtra et à la longue l’espèce survivante héritera de structures ou zones du cerveau « câblés » pour la recherche de causalités.

Ces considérations donnent la tonalité du récit de l’évolution de l’intelligence proposé dans ce livre et font consensus dans les milieux scientifiques actuels. Il faut néanmoins souligner qu’il ne s’agit que de récits, pas de modèles aussi éprouvés que l’électromagnétisme ou la relativité. Il s’agit d’une tentative de dresser le tableau d’ensemble d’un puzzle dont de nombreuses pièces sont manquantes. Il en est de même du récit darwinien en général, à une différence considérable près : en neurosciences, on peut monter des expériences pour conforter ou infirmer des hypothèses, et Dehaene en relate quelques-unes, alors qu’en paléontologie ou en anthropologie on est réduit à fouiller à la recherche d’indices peut-être disparus.

Pour ce qui est des machines, Le Cun fait à juste titre remarquer que le terme « intelligence machine » serait plus adéquat que celui consacré d’« intelligence artificielle » car l’intelligence est un système évolutif et interactif, dont l’organisation importe plus que le support, biomoléculaire ou silicium. On pourrait même voir l’écologie et l’évolution de la planète comme une intelligence, sans pour autant verser le moins du monde dans le culte de Gaïa (un chapitre du livre s’intitule d’ailleurs « L’intelligence de la vie »). Remarquons au passage que cette idée évoque la mouvance nord américaine de l’Intelligence design, à ceci près – nuance qui n’est pas des moindres - que dans cette vision épurée du judéo-christianisme, l’intelligence évoquée est finaliste, elle est la main de Dieu. Alors que dans le darwinisme nul objectif, nulle réalisation de dessein ne sont assignés au cheminement de l’évolution. Ce qui fait envisager en fin d’interview le dépassement de l’intelligence humaine sur le temps long, le passage par un couplage humain-machine semblant aux auteurs une étape probable. A noter qu’il n’est heureusement pas pour autant question dans l’ouvrage de transhumanisme, ensemble de micro-mouvements pseudo scientifiques surfant entre crainte d’un grand remplacement (par des cyborgs) et quête d’immortalité.

L’intelligence machine est survolée dans cet opuscule à travers sa comparaison à l’humain, et sous l’angle des machines bio-inspirées, comme l’est le deep learning dont Le Cun est un des pères. Le neuro et le data scientiste ne voient pas de limites a priori à l’intelligence machine, des progrès majeurs restant pour cela à accomplir dans la capacité de planification d’ensemble d’une stratégie, qui constitue un avantage majeur du cerveau humain. A noter que le mot « conscience » apparaît 22 fois sans être explicitement défini, car pour les interlocuteurs il est évacué de toute considération philosophique. Les activités innées sont inconscientes, celles apprises comme la conduite automobile le deviennent au fil de l’habitude. Les activités conscientes sont celles qui nécessitent de la réflexion.

Sur un plan technique, la rivalité historique entre l’approche symbolique (par le raisonnement) et l’approche connexionniste (par les réseaux neuronaux) de l’IA est brièvement rappelée. Le Cun y évoque ce que l’on a baptisé « l’hiver de l’IA », fait de discrédit et d’assèchement des financements, dans lequel les déconvenues du Perceptron avait plongé le connexionnisme. Il souligne un fait souvent passé inaperçu qui éclaire pourtant la triomphale résurgence des réseaux de neurones. Il s’agit des travaux activement menés durant cet « hiver » de deux décennies sous la modeste appellation de « traitement du signal et des images » pour ne pas agiter le chiffon rouge d’une intelligence artificielle bio-inspirés. Ces travaux ont notamment mené aux réseaux de convolution (CNN Convolution Neural Network) chers à Le Cun et qui sont à la base du succès du deep learning.

Enfin les auteurs pointent un principe essentiel, qui lui est largement connu mais qu’il est bon de marteler : « Apprendre, c’est éliminer » dit Dehaene en écho à une expression fétiche de son maître Jean-Pierre Changeux. Et l’on peut ajouter qu’apprentissage et créativité sont les deux faces d’une même pièce. Pas seulement au sens de la connaissance terreau du progrès, mais en un sens beaucoup plus fondamental relevant des bases de la data science au même titre que la chute de la pomme relève des lois physiques. En deux mots, apprendre par coeur ne sert à rien, si l’on apprend à reconnaître un visage en retenant par coeur chaque pixel d’un photo, on ne saura pas reconnaître la personne sur une autre photo, il faut approximer un visage par quelques caractéristiques, c’est à dire « éliminer » intelligemment les informations inutiles. Et il se crée ainsi des représentations internes du monde qui en sont des approximations utiles pour nous. Cependant, aucune pression évolutive n’a « verrouillé » l’usage de ces représentations en les limitant aux instances qui les avaient suscitées. Ainsi notre propension « câblée » à la causalité, déjà évoquée, sorte d’approximation de la logique usuelle du monde qui nous entoure, nous a fait imaginer des dieux comme causes des évènements naturels, et nourrit aussi le complotisme4 et sa recherche de causes cachées.

Nous reviendrons largement au fil des articles de ce blog sur les propos des deux paragraphes précédents, étant donnée leur importance sur la « façon de penser le monde ». En attendant, on ne peut que chaudement recommander au lecteur motivé les vidéos des cours donnés au Collège de France par Stanislas Dehaene, Yan Le Cun et aussi ceux de Stéphane Mallat en sciences des données, ces derniers portant sur les réseaux de neurones comme approximateurs au sens des lignes qui précédent.

______________________________

1La Plus Belle Histoire de l’intelligence. Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution. Stanislas Dehaene, Yan Le Cun. Ed. Robert Laffont, collection La Plus Belle Histoire, 2018. Le format kindle est pratique.

2Le défi écologique. II. Un bug du Sapiens ?, article de ce blog.

3Cet exemple est de mon cru, son éventuel caractère inapproprié de ma seule responsabilité.

4Dans le livre seuls les dieux sont évoqués comme « inventions », le complotisme n’est pas cité. Plus généralement les considérations sur les approximations extrapolent les propos du texte. Selon moi, le sujet serait venu dans les débats si Stéphane Mallat y avait été associé.

jeudi 23 juin 2022

Le défi écologique, et au delà. III. Outiller le futur


L’Homme rationnel                              La Personne intégrale 
Crédit : les silhouettes humaines sont celles de la plaque en aluminium doré
 
fixée par la NASA sur la sonde Pioneer 10 (1972).


Résumé : Le malaise actuel de nos sociétés se nourrit pour partie de notre incapacité à repenser le monde alors que les représentations que nous nous en faisions montrent leurs limites. Il est nécessaire d’étendre aux systèmes d’interactions – tels les écosystèmes - notre vision actuelle qui demeure trop braquée sur les systèmes hiérarchiques. Toutes les lèvres le balbutient comme un vœu pieux. Pour y parvenir, la data peut apporter l’outillage intellectuel qui manque encore, et son émergence est en cela aussi importante que celle de l’écriture.


Les Lumières sont un souffle qui porte la démarche scientifique et l’exercice de la raison, assises de l’humanisme européen et de notre république. Ce souffle est revendiqué comme vecteur historique de clairvoyance et de progrès. Pourtant, il nous a mené au pied de la muraille environnementale, ou du moins ne nous a pas permis de l’éviter. Le cartésianisme a fini par nous égarer avec sa soi-disant toute puissante raison humaine. Sur cette ligne, des encyclopédistes à Auguste Comte, s’est développée une démarche analytique et déductive que l’on croyait apte à saisir par ramifications la réalité du monde. Le présent nous montre que non.

Dans cet héritage de pensée, l’homme agit sur un décor qui ne réagit pas sur lui, le maître d’école transmet aux élèves qui en retour ne lui apprennent rien. Comme on cherche toujours sous le lampadaire, les Lumières n’ont éclairé qu’autour de l’humain, elles n’ont longtemps formé les esprits et forgé des outils intellectuels que pour servir l’idée d’un homme surplombant le monde par la raison. Le débat politique, économique et social ne s’est pas écarté non plus de ce lampadaire. Pendant qu’à l’Est Staline asséchait la mer d’Aral pour cultiver le lin et vêtir l’armée rouge, pendant qu’il décorait Alekseï Grigorievitch Stakhanov pour avoir extrait cent tonnes de charbon en six heures, chez nous Louis Leprince-Ringuet, commissaire à l’énergie atomique, membre de l’Académie française et du Collège de France, glorifiait dans ses œuvres de peintre du dimanche les usines et les centrales bien fumantes.

Il y a cinquante ans, René Dumont, écologiste avant l’heure, passait plus pour un savant excentrique que pour un lanceur d’alerte, et le médiatique commandant Cousteau, que les océans conduisirent aussi à l’Académie Français, qualifiait de blabla absurde l’idée que le dioxyde de carbone dégagé par l’activité humaine puisse influer sur le climat1.

*************

La question environnementale a popularisé récemment la notion de réseaux d’interactions, où chaque espèce et chaque composant de l’environnement influe sur tous les autres et réciproquement. Cette question fait constater qu’une petite perturbation de l’un ou l’autre facteur peut bouleverser l’ensemble, que les équilibres peuvent y être précaires, ou au contraire robustes, qu’ils peuvent être prévisibles, ou pas. Ces écosystèmes ne sont qu’un exemple de réseaux d’interactions parmi tant d’autres. Ces réseaux fondent notre vie au sein du noyau de chacune de nos cellules aussi bien que Ies interactions sociales, ce qui se passe sous nos crânes, ou les flux mondiaux marchands et financiers. L’interactivité du monde est restée longtemps un impensé scientifique et philosophique parce que nous demeurions sur l’idée d’un monde bien ordonné, depuis les récits bibliques jusqu’aux encyclopédies et la mécanique rationnelle. C’est seulement depuis un siècle que l’on perçoit les limites intrinsèques, les impossibilités, les incertitudes, les instabilités, les chaos cachés dans les modèles que nous construisions.

Autrement dit, notre démarche de connaissance commence à dater sérieusement face à la complexité du monde. Dans le cul de sac où nous nous trouvons, deux attitudes s’opposent. L’une est un certain nihilisme, que d’aucuns appellent post-modernisme, où « tout se vaut », faute d’y voir clair à travers le désenchantement ; cette attitude nourrit l’obscurantisme et le complotisme. L’autre est le rebond, et pour cela il faut s’équiper pour détecter des issues et poursuivre le chemin ; la data, encore émergente, doit être dans la poche « sciences » de notre sac d’explorateur, ses nouveaux paradigmes éclaireront les limites épistémologiques actuelles2.

Ainsi, les schémas de pensée du rationalisme incitent à ranger les individus dans des catégories (comme les CSP Catégorie Socio Professionnelle), des tranches (de revenu), des genres, et à par dessus tout à les situer par rapport à des normes. Parce qu’on n’a pas d’outils pour penser et faire autrement, on pense norme, normal ou d’anormal – moins qu’avant certes, mais encore bien trop. On réduit les citoyens à quelques dimensions pour parvenir à les administrer. Au contraire, la data, qui traite les paramètres par millions ou milliards, permettra de prendre en compte chacun à travers une multitude de facettes et d’interactions humaines, sociales et environnementales3. En ce sens, la data permettra d’« administrer » la personne humaine dans son intégralité, rejoignant l’anthropologie de la Personne intégrale, porté par l’Église catholique depuis le concile Vatican II, mais qui vaut indépendamment de toute croyance religieuse 4

*************

L’invention de l’écriture a permis d’externaliser la mémoire, et de la mettre en débat sur des bases partagées en mobilisant nos intelligences soulagées du par coeur. Ainsi on peut mieux débattre démocratiquement de l’interprétation des lois et de la jurisprudence quand les lois sont écrites.

Pour sa part, la data ouvrira au fil du temps à de nouveaux modes de pensée encore insoupçonnés, comme n’a cessé de le faire l’écriture depuis cinq mille ans. Elle permettra de maîtriser nos représentations du monde sous forme d’interactions, comme le cartésianisme nous a permis de maîtriser une représentation plus incomplète sous forme de hiérarchies.

En dehors des progrès scientifiques et technologiques incontestables qui lui sont dus, la data imprègne déjà notre quotidien mais ses paradigmes demeurent en suspens. Sur le plan sociétal elle aide au diagnostic et à la décision en simulant les conséquences complexes des options en discussion, ou en proposant de nouvelles. Elle permet de plus en plus d’externaliser ce que les scientifiques appellent l’intelligence faible, à savoir la capacité des machines à trouver de façon autonome un moyen de réaliser une tâche dont le but est exprimé de façon testable. Gagner au go, conduire une voiture, traduire un livre est de l’ordre de l’IA faible car on peut vérifier si l’objectif est réalisé5. La data permettra de libérer l’esprit humain de l’intelligence faible et facilitera la mobilisation du débat citoyen sur des sujets de fond.

*************

Chaque affirmation à l’emporte-pièce de cet article suscite immédiatement des objections qui obligeront à préciser, argumenter, nuancer. Ce sera fait de manière impressionniste, par petites touches, au fil des articles. Pour cela il faudra se familiariser aux bases conceptuelles de certains aspects de la data comme le deep learning afin d’en appréhender l’impact potentiel. Pour de multiples raisons la tâche est moins aisée que de décrire le levier, l’écriture ou la lunette astronomique. Le recul du temps et la matérialité à taille humaine font défaut; cela fait belle lurette que les enfants bricolent des leviers et voient qu’un bâton enfoncé en oblique dans l’eau semble se briser au niveau de la surface, ce qui donne une idée du principe des lentilles optiques. Avec le numérique tout est codé et manipulé au niveau d’un infiniment petit que l’on ne peut pas observer directement. Chacun arrive encore à se représenter ce qui se passe quand il s’agit de retoucher une photo, mais cela devient bien plus obscure quand il s’agit de l’apprentissage du jeu de go.

Une métaphore pourrait capter l’orientation de nos propos à venir. Les arguments s’accumulent en faveur d’une similitude des processus du deep learning avec le fonctionnement de notre cortex. On peut alors tenter une comparaison avec les engins de levage, basés eux sur le même principe que nos biceps . Il est facile de réaliser combien ces engins ont métamorphosé l’industrie et les services en libérant le corps de l’homme des tâches physiques les plus lourdes et lui facilitant ainsi l’accès à des modes de travail moins pénibles. On peut imaginer que la data, basée sur le même principe que notre cortex, libère la pensée de l’homme des tâches intellectuelles les plus basiques au profit de modes nouveaux de réflexion. La métaphore atteint vite ses limites comme on peut s’en douter, aussi est-ce à pas comptés que nous cheminerons dans cette direction.

_______________________________

1Le « futur impossible », Rembob INA, LCP

2Sans prétendre pour autant toucher le fond des choses, la numérisation étant un filtre réducteur, contrairement à ce que soutiennent certains comme Nick Bostrom, Superintelligence, Quai des Sciences, Dunod ( 2017)

3Evitons d’emblée un malentendu. L’essentiel demeure de poser le débat démocratique au centre pour faire de ces outils des vecteurs d’humanisme et de liberté et non des Big Brothers. Le sujet n’est pas nouveau. Les régimes stalinien et hitlérien n’avaient que du papier, des crayons (et des armes) pour remplir leurs goulags et leurs stalags, la liberté est une question de politique, il est grave de se défausser en en faisant une question technique.

4Voir par exemple La notion d’éducation intégrale, pivot anthropologique de l’éducation catholique , François Moog, Transversalités 2017/2 (n° 141), pages 35 à 51

5Rendre les humains heureux ou surpasser en toutes choses les humains est hors de portée de l’IA faible, ces objectifs n’ont en fait aucune consistance scientifique, et personne ne peut en dire quoi que ce soit au nom de la science.


lundi 6 juin 2022

Le défi écologique. II. Un bug du Sapiens ?

Crédit image : capture partielle de la page 191 de Le monde sans fin


Peu de temps après la lecture de Pitron j’achetais pour mes petits-enfants Le monde sans fin de Jean-Marc Jancovici illustré par Christophe Blain1. Cette BD, succès mérité de librairie, met en scène l’ approche scientifique de l’écologie de Jankovici, qui est sans concession envers les incohérences de mouvements militants du secteur, ce qui ne lui vaut pas que des amis. Mais c’est par son introduction en fin d’ouvrage aux idées de Sébastien Bohler2 que je fis un lien avec mon rêve.

Selon Bohler notre obésité, infobésité, « consobésité » qui menace l’équilibre de la planète serait un héritage de notre comportement d’hominidé, câblé pour survivre à la pénurie permanente de tout et soudainement confronté à une profusion de tout. Du coup, l’essayiste scientifique prône une nouvelle quête de sens pour l’humanité, éclairée par notre jeune raison face à nos vieux instincts. Un peu comme si Depardieu se mettait à vivre comme Gandhi.

Pour le vulgarisateur des neurosciences, l’obésité est un bug de l’évolution. Il faut comprendre ce terme comme la propriété d’un programme qui n’est pas prévu pour fonctionner en dehors d’une certaine plage de données. C’est ainsi que la première Ariane 5 se scratcha. Des données de vol avaient dépassé le format de certains registres physiques de stockage. Pour Bohler le Sapiens serait en train de se scratcher parce que les hominidés n’ont pas été génétiquement sélectionnés par l’évolution pour fonctionner dans un contexte de surabondance.

Sur le plan darwinien, toutes les espèces héritent forcément de bugs, au sens de propriétés acquises par adaptation à un milieu donné qui s’avèrent inappropriées à un nouvel environnement. Nombre d’espèces disparaissent ainsi. Les hominidés ont vécu un ou deux millions d’années dans la disette, et leur cerveau s’est configuré pour les faire sauter sur tout ce qui se mange et l’engloutir aussitôt. Nous les Sapiens sommes donc programmés pour engraisser face à la soudaine société de consommation.

Dès lors, chaque occidental est confronté quotidiennement face à son frigo à l’angoissante question philosophique de la liberté. Sa jeune raison, que l’on situe généralement dans le néocortex, lui fait la leçon « attention à ta santé !» alors que son vieux striatum, jadis appelé cerveau reptilien, lui dit « vas-y profites en ! ».

On connaît la suite, l’industrie du régime, la tyrannie de l’image de soi, l’idéologie de l’orthorexie, l’anorexie du mannequinat.

L’infobésité, cette surconsommation de numérique, est une autre face de ce bug. Des études sur les macaques montrent que le cortex des mammifères supérieurs se dope aux interactions sociales, nécessaires à la survie du groupe face aux dangers et à la survie individuelle face aux autres membres du groupe. Quand le striatum prend le dessus, on reste scotché sur les réseaux sociaux. Le seul visionnage de porno dans le monde consomme plus d’énergie que l’ensemble des foyers français. Par contre, quand le néocortex l’emporte, l’usage du net comme formidable outil d’intelligence collective, à l’instar de Wikipédia, est considérablement moins gourmand. N’oublions pas que le web fut inventé dans cette intention par des chercheurs du CERN pour mettre en commun leurs expériences et leurs connaissances.

L’infobésité est elle-même le volet informationnel de ce que l’on pourrait appeler la « consobésité », la frénésie de consommation dictée par un striatum forgé par des millénaires de rareté. Pour les hominidés il n’y avait pas que la nourriture qui était rare, tout était rare. La population des tribus était réduite, la descendance était incertaine, il fallait sauter sur tout ce qui ressemblait au sexe opposé. Etre chef procurait des avantages considérables de ce point de vue en situation de précarité généralisée : on avait moins d’effort à faire pour obtenir quelque chose. Il fallait alors des complices pour garder son rang et des signes extérieurs pour afficher son statut. L’humain de ce siècle en a gardé le goût de la domination et du pouvoir.

A ce point, on se dit que la situation est désespérée. Difficile de contrer par la raison ce qui est inscrit dans notre ADN. Faut-il pour cela un régime autoritaire à la chinoise comme dans l’île aux Murailles de mon rêve ? Cependant, il est probable que les hominidés aient été confrontés à maintes dilemmes cruciaux alors que leur néocortex se développait, favorisé par l’avantage compétitif qu’il leur procurait. Et que leur plasticité cérébrale, leur capacité à élaborer des stratégies de survie, leur ait permis de s’adapter sans cesse de manière inattendue, comme sur l’île des Lumières. L’anthropologie en témoigne.

C’est là qu’intervient le troisième larron évoqué par Bohler, petit machin en forme de collier – d’où son nom3 -, le cortex cingulaire. Il semble être l’arbitre de nos conflits intérieurs entre le néocortex et le striatum, le chef d’orchestre du cerveau et le régulateur de nos comportements à coup de neurotransmetteurs et d’hormones, notre espace intime de débat et de délibération. De là à penser que, si l’on cherchait encore à localiser l’âme, on la logerait maintenant là...

Bohler y voit une piste pour une nouvelle quête de sens face à l’impasse écologique dans la quelle nous sommes empêtrés.

Tout cela ne me donne pas le dénouement de mon rêve, mais m’aide à comprendre pourquoi j’avais l’estomac barbouillé d’angoisse au réveil. 

Ne devons nous faire un pas de côté pour mieux penser et construire le futur ?

(A suivre)

 ************* 

Nous verrons au fil des articles, que, comme ici les neurosciences avec l'écologie, la Data nous permettra de faire un pas de côté pour mieux penser les problèmes et construire le futur.

___________________________

1Dargaud, 2021

2Sébastien Bohler est polytechnicien, docteur en neurosciences, journaliste et essayiste. Ses vidéos sur le net introduisent bien les idées développées dans ses ouvrages.

3Beaucoup de parties du cerveau sont désignées par leur forme, faute de savoir à quoi elles servaient quand on les a découvertes.   


dimanche 29 mai 2022

Le défi écologique. I. Un enfer ultra-libéral ?

 © Bastien Mazouyer pour Le Vent Se Lève

Résumé : A travers deux lectures, comment les neurosciences peuvent enrichir le débat sur le défi écologique1.

Je me suis endormi sur la dernière page d’un ouvrage d’investigation alertant sur l’impact écologique du numérique, L’Enfer numérique - Voyage au bout d'un like, de Guillaume Pitron2

La plupart des ouvrages grand public sur le numérique dénoncent les menaces des GAFAM – les Google, Amazon, Facebook, Apple, Microsoft – sur notre liberté, l’économie et la souveraineté de l’Europe. Pitron y ajoute – à juste titre, et de manière très documentée - l’impact environnemental. Celui-ci revêt deux aspects. Le plus connu est la consommation énergétique. Elle représente une part croissante de la consommation électrique. Rien que le minage de bitcoins3, plus célèbre des bien mal nommées monnaies virtuelles, exige autant d’électricité que la moyenne d’un pays européen. L’auteur met l’accent sur un aspect moins connu, la voracité en matières premières rares et le saccage de l’environnement que produit l’exploitation de leurs gisements. Toutes ces menaces sont réelles et doivent être documentées et débattues. Cependant, beaucoup de ces enquêtes ou reportages sont exclusivement à charge envers les ogres américains du numérique. Hurler avec les loups, jouer les chevaliers blancs alertant le bon peuple contre les méchants GAFAM, le ramdam médiatique se résume souvent en « Les GAFAM sont les produits de l’ultra-libéralisme américain. Leur moteur est le profit, qui les pousse à rendre captifs les usagers et exploiter les consommateurs et les autres continents. C’est cette course au profit qui nous a conduits dans le mur écologique».

Le propos se généralise au-delà du numérique en « C’est la course au profit qui exploite l’homme et pille les ressources de la planète ».

*************

Sitôt assoupi, j’ai fait un rêve.

Les GaFam venues d’Outre Océan proliféraient d’île en île dans un vaste archipel. C’est ainsi qu’on désignait les Gargantua Family. L’offre de ces chaînes de petites boutiques d’alimentation était de plus en plus alléchante et personnalisée pour jeunes et vieux, femmes, hommes et enfants. Rares étaient celles et ceux qui résistaient au désir de s’en goinfrer. Certaines officines se faisaient fort discrètes afin que l’on puisse s’y rendre en douce. L’offre des Gafam reposait sur une expertise agroalimentaire qui décourageait la concurrence, elle mobilisait les connaissances scientifiques les plus avancées, tant en biologie moléculaire pour le goût qu’en neurosciences pour l’effet produit sur les gens.

Succombant en masse à tant de gâteries, la population s’avachissait, repue et casanière. L’obésité sévissait. Pourtant chaque magasin – en général des franchises - était partagé en deux, le côté plaisir et le côté sagesse. C’était ainsi dans le cahier des charges de l’entreprise mère. La plupart des gens remplissaient leur cabas côté plaisir, avec au dessus quelques articles sagesse.

Les cinémas, les théâtres, les musées, les cafés, les restaurants périclitaient, les magasins d’alimentation traditionnels fermaient – même les poissonneries, un comble pour des îles - , la vie collective s’étiolait, les solidarités s’effilochaient et le monde associatif devenait squelettique. C’était du chacun pour soi face à son frigo.

Le diabète plombait l’économie de la santé, l’espérance de vie s’érodait, tout le monde disait que ce n’était pas soutenable. Sans pour la plupart savoir au juste ce que signifiait ce mot « soutenable », venu sur toutes les bouches en quelques années comme «  société résiliente » ou « épisode cévenol ».

La plupart des îles étaient des démocraties, qui en bonnes filles des Lumières n’imaginaient pas pour les autres d’autre avenir que d’y venir un jour. Sur ces îles la doxa était de fustiger la cupidité des Gafam, la course au profit des géants d’Outre Océan, le néo-libéralisme en général – l’accolade du préfixe néo- dispensant de toute compréhension du sujet - , tout en continuant à s’en lécher les babines pour les plus aisés, et à se priver pour en faire autant chez les plus pauvres.

Les Gafam n’avaient pas la côte et l’offre politique s’accordait à vouloir sévir : taxation, régulation, encadrement, interdiction ; protectionnisme, aide aux productions locales et aux circuits courts ; création de corps de contrôle sanitaire et d’inspecteurs nutritionnistes. Toutes ces velléités restaient lettres mortes ou s’enlisaient. Les Gafam s’adaptaient toujours, leurs campagnes de « greenwashing » et « carewashing », qui en faisant des défenseurs de l’environnement et de la santé, berçaient des îliens soumis à leurs papilles gustatives.

Deux îles faisaient exception à cet alignement politique.

L’île aux Murailles, ainsi appelée parce que ceinte de falaises abruptes, de loin la plus peuplée, sortait d’une tradition paysanne et d’auto suffisance. Elle n’avait connu que des régimes autoritaires, celui en place améliorait grandement le sort matériel de son peuple par une conversion à la haute technologie. Leur gouvernement, au nom de la santé bien commun du peuple, prit des mesures draconiennes. Les Gafam furent interdits et remplacés par des magasins et des produits d’état, promus par les canaux d’information officiels, les seuls admis. Cette politique, couplée à des activités sportives obligatoires (sous peine d’amende puis de prison), fit de cette île la championne de la longévité.

L’île des Lumières était pour sa part dans le giron des démocraties libérales. Elle les avaient même jadis inspirées. Ouverte directement sur le grand large, son histoire était faite d’échanges, d’émigrations et d’immigrations. La population y était si dense et ramassée qu’elle formait une sorte de cité-état, de longue date haut lieu de la culture et des arts rayonnant bien au-delà de l’archipel. Là, le « problème des GaFam » fut abordé autrement. Par une espèce d’ « empowerment », prise de pouvoir des gens sur eux-mêmes encore mal traduit dans notre langue. Empowerment que certains annoncent chez nous grâce au numérique, et que l’on ne voit pas beaucoup venir. Là cela marcha. Sur ces terres grouillantes de rencontres humaines programmées, fortuites ou improbables, ordinaires ou festives, nul n’aurait pensé à baptiser « tiers-lieux » ces lieux que l’on tente d’introduire pour faciliter les brassages, car chez eux ces lieux, plutôt « coeur-lieux » que tiers-lieux, avaient balisé leur histoire. Toujours est-il que ces gens ne cherchèrent par à faire des GaFam un bouc émissaire. Ils s’étaient toujours méfiés de la digestion ennemie de la cogitation et complice des passions tristes, ils préféraient l’activité à la sieste. Ils ne s’en prirent pas aux GaFam, dont les boutiques demeuraient rares chez eux. Au contraire ils y trouvaient une inventivité culinaire source d’inspiration pour leur propre gastronomie.

Je me réveillai en me demandant si l’île aux Murailles allait damer le pion aux démocraties ou se ranger à elles, si l’île des Lumières allait devenir un modèle ou demeurer une curiosité. Il est souvent vain de rationaliser un rêve mais nous le tentons tous. Je trouvais vite deux explications possibles. La première, mon goût de la bonne chère et conséquemment mon embonpoint, mâtiné du sentiment de pêché de gourmandise, ne fait pas de doute.

Une seconde lecture me fournit bientôt une autre clé (à suivre).

_______________________

1En attendant de voir au fil de ce site comment les sciences du numérique peuvent enrichir notre vision de l’avenir.

2Editions Les Liens qui libèrent, 2021

3Voir les excellents articles ou vidéos de vulgarisation de Jean-Paul Delahaye

jeudi 26 mai 2022

La mitre à maître de Victor Ruiz-Huidobro

 

Crédits photos : Emilie Hirayama

Flânant dans cet ouvre-boîte de l’esprit, ce décapsuleur d’imagination qu’est le LaM (Lille Métropole Musée d'art moderne, d'art contemporain et d'art brut – ouf!), je fus happé par un objet étrange. Le nom de l’auteur n’était pas affiché, le personnel ne le connaissait pas, il me fallut fouiller dans le catalogue pour le trouver. C’était fin 2020, l’exposition « vois ce bleu profond te fondre ».

En ajustant ma vue à la minutie des détails, je me trouvais clinicien en blouse blanche interprétant les images du cortex d’un vieil instituteur, fournies par je ne sais quel TEP ou IRM du futur. Ce n’est sûrement pas ça, parce que malgré les avancées des toutes jeunes neurosciences, aucun chercheur sérieux ne l’envisage. J’étais plutôt devenu minuscule, explorant les méandres d’un cerveau de maître imprégné de 40 ans de passion. Oui, c’est sûrement ça.

Cet instit, c’est Victor Ruiz-Huidobro, qui fit toute sa carrière dans une école maternelle du 12e arrondissement de Paris. https://www.victor-ruiz-huidobro.fr/. Un papa nommé en école maternelle, déjà, ce n’était pas banal – et ne l’est toujours pas. Et cet objet muséal non identifié, c’est La mitre à maître , coiffe de fonction du maître d’école de la République. Tous les savoirs y grouillent, vivants. On remarque aussi la visière, qui protège des intempéries durant les surveillances de récréation.

Parmi les reportages à l’occasion du départ en retraite de Victor, celui de FR3 Ile-de-France vaut son quart d’heure . https://www.youtube.com/watch?v=Fs4287ARkF0

Les gamins sont baba devant cet héritier des hussards noirs de la république qui leur narre en pantoufles à pompons des histoires au passé simple et leur fait savourer le subjonctif. La classe conduit des projets collaboratifs de plusieurs mois. On vote, on arbitre, on compte, on joue, on écrit, tout cela joyeusement mélangé. Il n’y a pas de matières, pas de programme, pas de barrière, rien de ce qu’on fait n’a de dedans ni de dehors, on ne fait pas du français, ou du calcul, ou du jeu, de la poésie ou de l’instruction civique, on fait tout en même temps.

*************

Notre civilisation des Lumières pense, ordonne, hiérarchise, administre, organise tout sous forme arborescente. L’encyclopédie de Diderot et d’Alembert en est l’archétype, et Auguste Comte le théorisa dans le domaine des sciences : « Classer tous les phénomènes observables en un petit nombre de catégories naturelles disposées de manière telle que chaque catégorie soit fondée sur la connaissance des lois principales de la catégorie précédente, et devienne le fondement de l’étude de la suivante ». Il classa les sciences selon ce principe : mathématiques, astronomie, physique, chimie, biologie, sociologie, dans un ordre perçu comme une hiérarchie de noblesse de pensée, des sciences « dures » aux sciences « molles ».

Cela a conduit à une organisation de la recherche française en 41 disciplines scientifiques au CNRS et 81 dans les universités, organisées en autant de sections, avec parfois des sous-sections. Le terme « section » est évocateur. Il s’agit de couper les sciences en tranches. Chaque tranche élit ou nomme ses représentants, qui recrutent et promeuvent leurs pairs. L’historique du charcutage des frontières entre sections est riche en polémiques, chaque territoire défendant son identité, considérant que les bons (chercheurs) sont chez lui et les mauvais chez les autres.

Plus encore, le substantif « discipline », du latin discipulus, « élève », signifie à la fois les règles d’une communauté, la soumission de l’élève et la flagellation pour qui s’en écarte1. Et gare à l’interdisciplinarité, soupçonnée par les deux camps d’être une esquive. Ses flèches à double sens entre des sections embrouillent la belle arborescence et continuent de hanter les nuits de l’administration et de sa gestion de personnel.

Certes la philosophie, l’immunologie et la mécanique quantique n’ont a priori pas grand-chose à voir et il est commode de les distinguer. Dès la naissance, un enfant fait de même, ses circuits neuronaux s’organisent pour sortir les images du brouillard, distinguer le sourire et le regard de la mère. Tout cela est utile, nécessaire même. Mais vouloir réduire la réalité à des commodités est dogmatique. On s’émeut beaucoup d’une possible dictature des algorithmes sans se rendre compte que l’on est sous l’emprise bien plus rigide des arborescences.

Si tous les maîtres fonctionnaient comme Victor, loin de toute « discipline » et méthode pédagogique, peut-être que chacun aurait fait sienne la démarche humaine de pensée et de savoir, au-delà des étiquettes et des pouvoirs, peut-être que la science serait en débat et non en accusée, peut-être que les vérités alternatives ne fleuriraient pas.

Mais ce serait aussi la fin des sacro-saints programmes scolaires, pas deux lycéens ne connaîtraient les mêmes choses. Impossible donc d’organiser des concours républicains pour administrer hiérarchiquement le pays comme Napoléon nous a appris à le faire et qui valut à la France d’être sur tous les podiums parmi les plus grandes puissances du monde depuis plus d’un siècle. Mais c’est le passé, comme l’Empire Romain ou les dynasties chinoises. Et qui se rappelle les énoncés de chimie, de physique, de maths, qu’il a appris en classe ?

**************

Les récentes techniques d’apprentissage informatique outrepassent la méthodologie décrite par Comte. Elles laissèrent pour cela longtemps sceptique et leurs spectaculaires succès font encore débat. Le Deep Learning y figure au premier rang. Il est à la base d’applications célèbres : identification de visages et de scènes, voitures autonomes apprenant à conduire ou AlphaGo triomphant des humains au jeu de go. Cette technique est représentative de la Data2elle nécessite de gigantesques quantités de données d’apprentissage. Elle consiste à apprendre sans analyser3 , elle se base sur des masses de corrélations et d’interactions statistiques plutôt que sur la modélisation, les déductions et les hiérarchies de la pensée des Lumières. LBreton Yann Le Cun, pionnier du domaine, prix Turing (l’équivalent du Nobel en informatique), cite volontiers à ce sujet une boutade en cours dans sa communauté « Soit Dieu existe, soit le monde est structuré ». En effet les chercheurs conçoivent à tâtons des réseaux de neurones informatiques qui apprennent parfois mieux les humains en exploitant les structures cachées des problèmes sans qu’il soit besoin d’expliciter ces structures, au demeurant impossibles à analyser car possédant des milliers voire des millions de paramètres.

Comte et Le Cun sont les hérauts de deux approches de la connaissance, celle classique de la rationalité des Lumières et celle en devenir de la Data.

Les Lumières, en externalisant des cerveaux le savoir pour le coucher dans les livres d’école, ont favorisé le débat démocratique menant à la société occidentale.

Cependant, dans leur verticalité plaçant l’Homme seul au dessus de la pyramide, exempt d’effet le boomerang en retour de ses actes, elles n’ont pas vu venir le péril écologique, et nos démocraties sont aujourd’hui à la peine.

Nous argumenterons au fil des billets que la Data, en externalisant l’intelligence pratique dans des réseaux numériques d’interactions, outillera un nouvel essor du savoir, du débat démocratique et de l’humanisme, promesse d’une Renaissance des Lumières.

En attendant, La mitre à maître me fait davantage penser à Le Cun qu’à Comte.

____________________________

1Source : dictionnaire de l’Académie française, créée par Richelieu pour faire autorité sur la langue.

2La Data désigne usuellement le stockage et le traitement de grandes masses de données (le « nouveau pétrole »), telles que l’exploitent à des fin commerciales les GAFAM. Pour nous, ce terme englobera tous les aspects scientifiques du numérique, dont l’IA, et ses infrastructures.

3Peut-être comme le nouveau-né évoqué plus haut. Les neurosciences le laissent à penser.

Mai 68. La raison buissonnière

 

Crédit : photo personnelle

Mai 68. J’y repense chaque fois que je prends un whisky. Les indispensables, clés, cartes, badges, s’entassent dans le tiroir, toujours entr’ouvert, au dessous du bar. Pèle-mêle avec les allumettes consumées, les trombones torturés, les punaises écrasées et autres condamnés à l’inutilité à perpétuité. Et aussi avec quelques vestiges, pourvu qu’ils soient petits. Parmi eux deux minces livres format A7, 74mm sur 105. Rouges, couverture plastique souple. « Le président Mao Tse-Toung sur la guerre populaire », mate, fait 59 fines pages. « Citations du président Mao Tse-Toung », brillant, en fait 210 et comporte un signet, un cordon rouge. Les deux bénéficient du même portrait du Grand Timonier, sépia pour le premier, colorisé pour le second, protégé par un papier calque. Comme jadis les images sacrées dans les missels.

A partir de là, je revois les foules brandissant sur le campus des nuées de petits livres rouges. « Les » étudiants faisaient la révolution de 68.

Quand les médias évoquent « les étudiants », ils ânonnent une dépêche ou un communiqué. On n’entend jamais « des étudiants manifestent » ou « des ouvriers » ou « des commerçants » mais toujours « les ». On comprend que « les » c’est tous alors qu’en réalité « les » c’est « des », ceux qui étaient là, parfois très peu.

Donc, « les » étudiants faisaient la révolution. Je n’ai jamais bien compris pour quoi. Triés par l’argent ou le mérite, les Trente Glorieuses leur assurait comme jamais un avenir enviable. Ils disaient que c’était pour les ouvriers, pour la justice sociale. Peut-être, il est vrai que Grenelle a fait du bien à beaucoup de gens. A Saint-Germain des Prés et sur le Boul’Mich’, c’était l’effervescence dans les cafés et sur les pavés. Les intellectuels refaisaient le monde pour les ouvriers, eux aussi. Lacan officiait salle U et V rue d’Ulm, un lieu saint. Lacan perçait les secrets du monde à travers les calembours (enfin, c’est que j’en ai retenu). Les examens devenaient des sévices masturbatoires imposés par l’ordre bourgeois, parce que examen = sexe-à-main. Ses produits dérivés faisaient fureur :

    - Comment vas-tu ? Yau de poêle.

    - Et toi ? La matelas.

Les Barfetti-confetti fleurissaient sur les campus lillois, tagués en grand. Bernard Barféty était le directeur du CROUS. Un type bien. Un humaniste qui faisait honneur au socialisme et à la société. Mais la rime était trop tentante, et le CROUS gérait les résidences universitaires. Or, les gainettes avaient disparu, les jupes raccourcissaient, les soutiens-gorge se raréfiaient, mais les filles et les garçons demeuraient logés dans des résidences séparées, avec des cerbères qui filtraient les allées et venues.

Je conçois que l’on ait fait la révolution contre ça, mais moi j’y trouvais un charme. Quand j’allais chercher une copine à la résidence des filles, le concierge l’appelait au haut parleur. Son nom résonnait dans l’immense hall jusqu’au bout des étages « Mademoiselle Machin, vous êtes demandée à l’accueil ». Il y a cinquante ans, on distinguait encore soigneusement le Mademoiselle du Madame, et Mademoiselle chantait comme une promesse. La demoiselle se faisait attendre juste ce qu’il faut, et descendait avec juste l’empressement qu’il faut les marches du monumental escalier double dont les courbes dessinaient un coeur. Clemenceau disait qu’avec les femmes, le meilleur moment était quand elles montent l’escalier. Il parlait des maisons closes bien sûr, comme il se devait à cette époque. Pour moi c’est quand elles le descendaient.

*************

La génération des soixante-huitards pouvait se permettre tous les rêves et les excès de la jeunesse, gages d’une société qui espère. De nos jours, on vit dix ans de plus, moins rudement et moins dangereusement quoiqu’en ressentent les gens. On meurt six fois moins sur la route. Chaque jour le lendemain s’annonçait meilleur. On travaillait dur pour l’achat d’un lave linge, d’une voiture, d’un logement, qui apportait plus de liberté et de confort. Les enfants faisaient mieux que leurs parents.

L’ascenseur social fonctionnait à plein régimeil est maintenant en panne, les jeunes ne peuvent plus oser l’insouciance. Les baby boomer comme moi ont été une génération privilégiée, comme jamais avant. Et comme plus jamais, les arbres ne grimpent pas jusqu’au ciel. Un sort meilleur s’annonçait pour les enfants. Nous devons régler la facture et encourager les jeunes à imaginer et débattre et pour construire un bel avenir autrement.

*************

Le terme "informatique" venait d'être accepté par l'Académie française.