Le Livre de
“Mr”
Pichot est de prime abord intéressant: on s’attend
à y
trouver exposer l’histoire de la notion de gène, base de
la
biologie moderne. Hélas, cet universitaire
épistémologue se complet dans une “alter”
biologie qu’il
critique vertement sans paraître comprendre un traître mot
aux notions postérieures aux années 50.
En effet,
l'œuvre de Pichot s’articule autour de trois axes:
- la
réhabilitation de Lamarck, ce qui est utile et bien
réalisé.
- la critique
des conséquences sociales de la génétique et de
l’eugénisme en particulier, la génétique
étant rendu responsable des sociétés
l’utilisant
peu ou prou pour sélectionner leurs concitoyens.
- la
dénonciation de la génétique moderne, laquelle ne
serait qu’un vide conceptuel béant, sans aucune base
théorique valable...
L’horreur
vertueuse et philosophique de la sélection conduit Mr Pichot
à des extrémités regrettables et a des conceptions
erronées. Son discours est truffé de
répétitions souvent inutiles, de digressions sans grand
intérêt, sinon celui de se persuader soi même
d’être dans le vrai. Ainsi, le camarade Pichot (il faut
bien
l’appeller par son nom) en vient à réhabiliter
Lyssenko!
Comme nombre d’intellectuels français confits dans le
marxisme,
la notion même d’hérédité, c’est
à
dire, in fine, celle de l’héritage d’un ordre, est
intolérable à ceux qui ont proclamé “du
passé, faisons table rase”. Ainsi, la vision de
l”historicité des processus
épistémophiliques de
l’auteur demeure hémiplégique: fasciné et
justement horrifié par les déviances nazi, il en
“oubli”
volontairement les millions de morts provoqués par
l’application
des doctrines de son ami Lyssenko...
De fait, Pichot
rappelle, avec force soupirs, avoir lu l’intégralité
des
textes aussi encyclopédiques qu’imbuvables de Weismann et
De
Vries, ce qui explique sans doute pourquoi il s’est apparemment
dispensé d’ouvrir un ouvrage tout aussi épais mais
moderne de biologie moléculaire (comme par exemple le classique
“biologie moléculaire du gène”, de Watson).
Il en reste
au schéma “un gène- une enzyme”, qui
n’est plus actuel.
Qui plus est, alors que l’histoire du gène est bien
exposé jusque vers 1950 environ, il recule ensuite pour revenir
à ses grimoires: il semble bien que pour Mr Pichot, une
“vrai”
sciences de l’hérédité est faite de
ratiocinations
de vénérables et doit surtout se garder de toute
application pratique (c’est gênant, toutes ces sales
expériences qui polluent les belles théories - notre
épistémologue de salon semble avoir oublié que
“the tragedy of science is the murder of beautiful theories by
ugly
facts”). Notre littérateur engagé semble passer
à
coté des critères réels de la scientificité
et néglige, omet, déforme ou passe sous silence (attitude
marxiste typique) les faits qui dérangent sa tranquille (et
théorique) ire antiscientifique. Donnons quelques exemples de
ces errements:
p 227: suggestion
qu’un ordre aléatoire de nucléotide est
équivalent
à un gène. Reste a expliquer alors l’effet
dévastateur des mutations et délétions.
p 242 : Le bon
Mr Pichot ignore complètement ce que sont les ARN
p 268 : Le
camarade Pichot ignore ce qu’est la théorie
synthétique
de l’évolution, et nous ressort des arguments
spécieux
visant à démontrer selon lui l’inanité de
l’évolution (argument d’actualité, il date
de...
Cuvier!). Malheureusement, non seulement les séparations
actuelles des plans d’organisation ne prouvent rien, mais
l’on a depuis
découvert d’autres taxons disparus (cf “la vie est
belle” de
Gould), ainsi que des formes intermédiaires entre les taxons,
apparus au cours de l’évolution (neopillidina, Lizzie, le
célèbre archaeopteryx bien sur, mais aussi Acanthostega,
Protarchaeopteryx, iberomesornis ...)
Ce qui revient comme un leitmotiv dans le deuxième partie de
l’ouvrage, c’est le dégout de l’auteur pour
toutes les
applications pratiques et les succès obtenus par la
génétique. Bien entendu, ces succès sont, pour
l’auteur, peu important. En effet, ce dernier ne
s’intéresse
qu’à l’être humain (survalorisation qui
indique à
la fois les limites de son analyse et son désir de
séparer ce dernier des autres êtres vivants, ce qui se
comprend puisque pour le sieur Pichot, l’évolution
n’existe
pas...) et néglige complètement le fait que les
techniques de biologie moléculaire visant à
transférer ou inactiver un gène sont à
présent des techniques de routine employées
quotidiennement dans les laboratoires: que cela plaise ou non à
Mr Pichot, le succès répétés des techniques
expérimentales (souris “knock out” par exemple, où
transgèniques) valident grandement les conceptions actuelles du
gène.
Bien entendu,
ces conceptions peuvent être critiquées: bien
qu’expédiées en peu de lignes, les approches
critiques de
P. Soligno ou H. Atlan sont à cet égard bien plus
constructive que les cris d’orfraie d’un homme qui,
déplorant
l’utilisation de la génétique par le régime
nazi,
choisi de jeter le bébé avec l’eau du bain...
Au final, on
peut cependant recommander l’ouvrage :
- pour sa belle mise
en évidence du rôle de Lamarck dans l’histoire des
sciences et son analyse lumineuse des conceptions de de Vries et
Weissman.
- ses rappels
des limites de la méthode expérimentale.
- Pour analyser
à quel point des spécialistes des dites
“sciences”
humaines peuvent discourir dans le vide et pratiquer ouvertement un
négationnisme, voire un nihilisme antiscientifique qui ne
saurait combler d’aise que ceux qui prennent José
Bové
pour le phare de la pensée biologique contemporaine
Murray Gell-Mann: Le Quark et le Jaguar : Voyage au
cœur du simple et du complexe
L'auteur a reçu le prix Nobel de physique en 1969,
pour sa théorie des quarks, constituants extrêmes de la
matière.
Dans ce livre, il analyse comment évolue la complexité
des phénomènes depuis l'échelle subatomique
jusqu'à l'échelle macroscopique. L'ensemble est
extrêmement intéressant, bien écrit et convenablement
traduit. L'auteur insiste longuement sur le Santa Fe Institute, qu'il a
créé, et milite pour un progrès technique
respectueux de l'environnement. C'est à ce niveau que certains
de ses arguments se révèlent un brin léger.
Toutefois, ce livre éclaire convenablement la genèse de
la complexité, et insiste à juste titre sur les notions
de régularités. Quelques remarques:
p.68: "la complexité effective est ainsi
liée à la description des régularités d'un
système par un système adaptatif complexe qui l'observe"
: il me semble que cette définition est
autoréférente: la complexité nécessite,
pour être définie, l'existence d'une structure en elle
même complexe. Mais qu'est ce qu'une structure complexe? et bien,
c'est une description des régularités ect....
Heureusement, les choses s'éclaircissent quelques pages plus loin
(p. 74): "la complexité
effective d'une entité... est la longueur d'une description
concise des régularités de l'entité" . On
retrouve ici les idées de Kolmogorov.
p. 121-122: l'auteur présente les notions très
intéressantes de profondeur
et de crypticité,
développées par C. Bennet. Il mentionne auparavant que "dans une étonnante
variété de contextes, des structures de comportement
apparemment complexe émergent de systèmes
caractérisés par de très simples règles".
Il ne s'y attarde guère, mais il s'agit bien ici des
phénomènes recensés et développés
ultérieurement par S. Wolfram dans son ouvrage "a new kind of
science".
Le passage du quantique au classique
est particulièrement bien traité (chapitre 11: "un
regard contemporain sur la mécanique quantique").
d'agraindissement en décohérence, on sort de ces
chapitres moins bêtes qu'en y étant entrés. Leur
lecture devrait être obligatoire en premier cycle de sciences....
L'auteur pose une excellente question p 221: comment se fait il qu'il y
ait tellement de particules "élémentaires" (il en compte
61 !) ? Il voit bien là la nécessité d'une
théorie "unifiée" explicitant cet état de fait,
et propose trois pistes à explorer:
-
les 61 particules sont en fait composées d'autres particules
inconnues, en nombre plus réduits. Aucun indice de cela n'existe.
- les 61 particules sont composées de particules qui elles
mêmes sont composées de particules.... sans fin. Cette
idée puissante ayant été proposée par le
président Mao, nous vous laissons juge de sa pertinence...
- les particules sont en nombre infini, mais seuls un petit nombre est
détectable, du fait de leur origine à partir d'objets
uniques, les supercordes (voir Greene, l'univers
élégant, en film ou en livre)
L'auteur n'envisage pas une autre possibilité, faisant des
particules des objets topologiques résultant de projections dans
notre espace temps de phénomènes se déroulant dans
des dimensions différentes (bien que ce concept de dimension
surnuméraires pose problème, même pour les
supercordes)
P 248 et
suivantes, l'auteur décrit clairement les rapports entre la
notion d'entropie, et celle, plus nouvelle d'information.
Les êtres vivants sont considérés comme des "systèmes adaptatifs complexes"
qui (p. 306): "identifient des
régularités dans le flux de données qu'ils
reçoivent et compressent ces régularités en
schémas. " cette définition est extrêmement
pertinente.
L'impossibilité d'un déterministe strict (et donc d'une
prédictibilité absolue des phénomènes) est
analysée par l'auteur qui ne se limite pas aux caractère
probabiliste de la mécanique quantique. Il identifie 5 origines
pour l'indéterminisme :
- les indéterminations quantiques
- le comportement chaotique
- l'"agraindissement" provoqué par "l'étroitesse du spectre
couvert par nos sens et nos instruments et leur capacité
limité"
- l'insuffisance de notre faculté de comprendre
- les limites de notre capacité de calcul.
Il y a également quelques "erreurs", en particulier dans le
domaine biologique, causées pour la plupart , en fait, par des
découvertes survenues depuis la publication de l'ouvrage en 1994:
p.87 : "il existe quelques légers
signes en biologie de mutations survenues comme réponses
occasionnelles à un besoin". J'avoue qu'une
référence n'aurait pas été de trop, car ce
singulier phénomène n'existe pas, je crois (et même
l'auteur ne semble pas persuadé de sa véracité).
p. 88: "la complexité de la
bactérie est liée à la longueur de son
génome": On a découvert depuis que la longueur
d'un génome était un piètre indice de
complexité effective ! De même, à la page suivante,
l'auteur pense qu'il est nécessaire de rajouter des
notions plus fines pour différencier la complexité
humaine de celle des grands singes. Je pose la question: existe t'il
réellement des différences de complexité à
ce niveau ? Une grande parti de l'évolution biologique semble
s'être déroulée, selon moi, à complexité constante.
Pour les pédagogues, Gell
Mann apporte quelques lueurs sur la pratique des sciences:
" En pratique, l'entreprise
scientifique ne se conforme pas exactement à un quelconque
modèle précis dictant les règles de sa conduite"
p 99
p 130 "les mathématiques ne sont elles pas la plus fondamentale
des sciences ?"
p 137 "la biologie est une science bien plus complexe que la physique
fondamentale car nombre des régularités de la vie
terrestre résultent autant d'évènements
accidentels que de lois fondamentales"
p 302 -303: l'"histoire du baromètre" (parfois faussement
considérée comme autobiographique et concernant la
jeunesse de Planck) vous permettra de voir qu'en physique, il n'y a
pas, contrairement à ce qui est enseigné, une seule
solution à un problème donné...
superstition et besoin de croire (p 314): " ils apaisent leur crainte de
l'aléatoire par la détection de
régularités... absentes."
En résumé, un excellent livre que tout homme de science
se doit d'avoir lu.
Von Neumann - L'ordinateur et le cerveau
Un petit livre très intéressant, que l'on pourrait croire d'un
intérêt seulement historique au vu de l'évolution
technique depuis 1957, mais qui présente une grande importance
pour comprendre la genèse de l'informatique et, surtout,
pour mettre en parallèle la logique du vivant (cerveau) et
celle des machines.
Plusieurs notes dans le texte réactualisent beaucoup de
données, et le commentaire de D Pignon (40 pages sur les 128 de
l'ouvrage) compléte fort bien les textes de V. Neumann.
Quelques points importants:
- p. 77, V.Neumann remarque que la précision du cerveau est
très inférieure à celle des calculateurs, et
mentionne bien que " Le système nerveux est un ordinateur qui
parvient à accomplir sa tache extraordinairement complexe
à un niveau assez faible de précision(...) 2 à 3
décimales seulement sont possibles. Aucun ordinateur connu ne
peut opérer de façon fiable et pertinente avec une
précision aussi faible".
- p. 111:, D Pigeon souligne l'apport de V Neumann à la
théorie des automates cellulaires dont la protée, depuis
le recueil publiée par S. Wolfram, ne cesse de crôitre.
Ainsi, comme le rappelle Pignon "Mc Culloch et Pitts ont
formalisé cxette physiologie des tissus nerveux avec la
modélisation des reseaux formels de neurones et ont
démontré que les états de ces systèmes sont
isomorphes aux propositions de la logique: tout ce qu'une machine de
Turing peut faire, un réseau de neurones formel le peut aussi.".
Les pages suivantes comptent parmi les plus importantes de l'ouvrage
(bien qu'elles ne soient pas de V Neumann!) avec une mise en
lumière du caractère non algorytmique du fonctionnement
cérébral. Toutefois, un point peut être
discuté: l'auteur précise (p. 119) que "la densité des
circuits électroniques est limitée par des contraintes
thermiques et de fabrication de structures planes, alors que le cerveau
enchévètre ses neurones dans l'espace". Ce n'est pas
exact, les corps neuronaux de la structure cérébrale
correspondant à la conscience, le cortex, ne se
réarrangent pas dans l'espace mais bel et bien à la
surface du cerveau. L'augmentation des capacités
cérébrales est d'ailleurs lié à
l'augmentation non du volume, mais de la surface corticale, aboutissant
ainsi à un plissement de plus en plus marqué des
hémisphères cérébraux au fur et à
mesure que l'intelligence se développait dans le monde animal.
L'épaisseur du cortex ne dépasse pas trois couches
cellulaires, le plus souvent...
Par contre, comme le remarque Pignon, "Pour
atteindre la densité neuronale du cerveau, "il faudrait empiler
dans un
cube de 1 cm des centaines de processeurs ultraminces, qui
travailleront un million de fois plus vite que les unités
actives du
cerveau.". On peut même se demander si ce n'est pas cette vitesse
d'exécution qui pose problème, et si la conscience ne
procède pas, au moins en partie, de la lenteur "relative" des
procédés physico-chimiques à l'oeuvre dans les
neurones.
-p. 121: "La comparaison des structures du cerveau et de la
manière de traiter l'information qui y sont associé avec
le calcul mécanique des ordinateurs conduit VN à
considérer la logique comme un avatar culturel de
l'évolution et à envisager une structure profonde du
calcul, plus archaïque dans ses modalités, sans doute
radicalement différente de celle que nous connaissons." Il
s'agit là d'une idée intéressante, celle selon laquelle
la logique serait contingente à l'évolution biologique.
Si le "calcul" est ainsi inscrit, dès l'origine, dans le vivant,
alors nous pouvons logiquement (c'est le cas de le dire) supposer que le
développement de la logique se produit immanquablement au cours
du processus de l'évolution biologique, donc qu'une
évolution extraterrestre engendrerait très probablement
des organismes nantis de logique. L'intelligence serait elle donc aussi
répandue que la vie à travers la galaxie ?
Thom R - prédire n'est pas expliquer
Ce livre est une transcription des entretiens entre Emile Noel et R
Thom,suivi d'un lexique présentant utilement les notions
mentionnées par Thom, et réalisé par A Chenciner
(ce lexique contient des schémas intéressant, mais de mauvaise
qualité)
On est frappé, dans ce livre, par le ton de Thom et sa grande
difficulté à penser la physique, et pour ainsi dire le
réel. Ces rapports entre réalité(s) et
mathématique constituent la substance de cet ouvrage
intéressant, bien que les opinions de Thom puissent être
discutées. Comme beaucoup de scientifiques, Thom dénie
toute valeur aux sciences qui ne font pas partie de son champ de
recherche. Il se montre obtus et étroit d'esprit. Ainsi, p. 81,
ne craint il pas d'affirmer "De quel droit déclarez vous qu'un
neurophysiologiste a un savoir plus pertinent que ma propre impression
? Je refuse cet argument". Il oublie ainsi qu'il ne s'agit pas de
droit, mais de sciences et de faits démontrés
expérimentalement. Mais l'expérience embarrasse beaucoup
R. Thom, qui manifeste un grande incompréhension de la physique
quantique, par exemple. Il ne craint pas de déclarer (p. 86) "La
mécanique quantique est incontestablement le scandale
intellectuel du siècle" car "la science a renonça
à l'intelligibilité du monde", rien que ça! On
pourrait au contraire arguer que la mécanique quantique nous
permet d'accéder à l'intelligibilité d'un monde
qui justement n'est pas régit par des lois correspondant aux
impressions dictées par nos intuitions premières, par ces
impressions dont justement R. Thom fait si grand cas! Il semble
surtout, comme le laisse penser sa description de la p. 129 (il semble
que les spécialistes se sont dits: nous avons une théorie
qui fonctionne, n'allons pas au dela et ne cherchons pas à
regarder ce qui est donné par le formalisme") que R Thom en soit
resté à l'interprétation littérale de
l'école de Copenhague, au début du siècle dernier,
et ignore complètement les avancées majeures, tant
théoriques qu'expérimentales, accomplies depuis (les
travaux de Feynman, d'Aspect, par exemple...). En gros, R thom nous
apprend que la mécanique quantique ne le convainc pas car elle ne
cadre pas avec sa conception du monde... Entre la mécanique
quantique et les conceptions de Thom, mon choix (et celui de la
réalité!) est fait!.
Dès la p. 91, Il avoue d'ailleurs qu'il "croit que
l'expérimentation par elle même ne peut guère
conduire à des progrès", ce qui lui permet de souligner
avec raison le manque de théorie globale de la biologie (alors
même que la théorie de l'évolution constitue cette
charpente idéalisée...). R Thom croit que la
pensée prime toujours sur l'expérience, et que c'est
l'introspection, l'état mental du chercheur qui est le chemin le
plus sur vers la découverte...
P.93, se pose le problème de l'observation: comment reconnaître une chose sans en avoir au préalable un concept ?
P.96, R Thom rejoint les opinions de Gell Mann à propos de
l'importance de la détection des régularités en
physique.
P 100, se pose LA grande question: les "êtres"
mathématiques préexistent ils à leur
découverte ? C'est la cas pour Thom, qui se rallie en fait
à l'idéalisme platonicien mâtiné
d'Aristotélicisme: "Les idées mathématiques sont
produites dans notre cerveau dans la mesure ou nous les pensons. Mais
comme elles existent lorsque nous ne les pensons pas, alors elles
existent quelque part, et pas seulement dans notre mémoire(...)
elles existent ailleurs". Ces idées préexistent
d'ailleurs à leur découverte, se réalisant dans
tel ou tel cas selon le "matériau" cérébral
disponible...
Thom ne considère donc pas les mathématiques comme une
création humaine mais bel et bien comme une manifestation de la
réalité perceptible par l'activité
mathématique. Reste à définir le lieu d'existence
de ces êtres mathématiques !
Dans les pages 102 et 103, nous retrouvons un R Thom
complètement perdu au pays de la physique moderne: ni la
physique quantique, ni la cosmologie ou la relativité ne
trouvent grâce à ses yeux. Leur crime: ne pas correspondre
à la réalité macroscopique usuelle, laquelle est
seule garante delà vérité (en gros, R Thom croit le
monde et ses lois taillé sur mesure pour la perception
humaine... et reste échoué sur la physique de Newton
comme R Crusoé sur son île...). R. Thom est
embarrassé par la description physique du cerveau, dont il
aurait bien ailé qu'il reste une boite noire inexploré:
il dénie ainsi toute valeur aux travaux des neurophysiologistes car ces
derniers sont "matérialistes"... (le fait que la pensée
soit lié à la matière ne cadre pas, en effet, avec
l'idéalisme mathématisant de Thom).
P. 106, relevons une perle se voulant philosophicarde, qui ne
déparerait pas dans "le roland Barthes sans peine": "Le concept
d'énergie, à bien des égards, me semble
effectivement une sorte de conceptualisation d'une prégnance
indifférenciée".
P 115, nous retrouvons l'intrépide Thom en train d'explorer le
tube digestif, lequel sert d'illustration aux notions
d'intérieur et d'extérieur... R Thom persiste à
croire que le tube digestif est intérieur à l'organisme,
alors qu'il n'est qu'une interface entre le milieu extérieur
(qui traverse l'organisme) et le milieu intérieur. Par
contre, le TD est à l'intérieur du corps visible, et c'est
la distinction qui échappe à Thom, pour qui cependant
l'approche holiste semble si importante...
Il arrive cependant que R Thom présente de brillantes analyses
et des idées très intéressantes. Ainsi,
déplorant la faiblesse théorique de la biologie (selon
lui), il mentionne avec justesse que " il n'y a de science que dans la mesure où l'on plonge le réel dans un virtuel contrôlé".
Thom conclu son ouvrage par un préchi prêcha écolo
du meilleur aloi, sur le thème d'une nécessaire
"croissance zéro", et l'éloge des sociétés
primitives "qui ne gâtaient pas leur environnement" etc... Il ne manque
que J J Rousseau, on croirait lire ici le mensuel "l'écologiste".
Quant à la "bonne" idée de "refroidir l'humanité",
terme emprunté à Levi Strauss, son application pratique
laisse augurer des pires totalitarismes...
On est frappé, au final, par l'archaïsme de certaines
conceptions, comme celles de la forme prépondérante des
réseaux neuronaux permettant l'incarnation des idées
mathématiques provenant d'un ailleurs indéfini, et
par l'entêtement à lutter contre l'expérience et
contre toute construction mentale qui en viendrait à ne
présenter l'apparence des choses que comme un avatar prove,ant
de notre échelle de perception, que ce soit au niveau spatial ou
temporel. Bien qu'on puisse tout à fait souscrire à
l'idée selon laquelle une approche qualitative des
phénomènes puisse avoir une valeur explicative
supérieure à une approche purement analytique, les
illustrations choisies par l'auteur semblent fort mal choisies, et une
actualisation de ses connaissances dans les domaines qu'il
flétrit injustement lui retirerait la plupart de ses arguments...
A lire cependant pour l'approche plus qu'originale de l'auteur, l'esprit ouvert et le sens critique aiguisé !
N. Witkowski - Une histoire sentimentale des sciences
Ce petit livre est un vrai bonheur : N Witkowski y raconte les
aventures d'une trentaine de scientifiques, connus ou oubliés,
célèbres ou, c'est plus courant, écrasés
par le poids de leurs découvertes au point, dans les
hagiographies scolaires (si il en reste, tant l'histoire des sciences
est absente de l'enseignement). Défilent ici nombre de
célébrités présentés sous leur tour
le plus humain, faillible, avec leur découverte située
dans le contexte et l'histoire des idées de l'époque.
L'histoire de Spallanzani, par exemple, éclaire d'un jour nouveau la défiance "actuelle" envers les sciences.
Ce livre est un remède salutaire à tous ceux qui jugent
que la démarche scientifique est une attitude rigide et logique
apte à être théorisée et enseignée. A
ceux dont les conceptions "pédagogiques" vident les amphis, l'histoire (et même
la petite histoire) apporte un cinglant démenti.
A lire de toute urgence !
B Greene - l'Univers élégant (la chasse aux infinis, je dirais plutôt)
Attention, là c'est un ouvrage d'importance visant à
présenter l'état actuel de la physique des particules au
travers de ses théories les plus complexes, à savoir les
supercordes.
L'ouvrage lui même se compose de trois parties:
- une vulgarisation brillante des conceptions théoriques et des
vérifications pratiques de la mécanique quantique et de
la la relativité restreinte et générale
- une présentation de l'évolution des théories des
supercordes, situées dans leur contexte historique et
présentant correctement les énormes difficultés et
les doutes liées à cette approche.
- un ensemble de notes visant à préciser quelques point,
principalement à l'attention des lecteurs disposant
déjà d'une formation scientifique et désireux
d'aller plus loin "sous la surface des choses".
Je ne résiste pas à citer, ainsi, la définition d'un "Calabi-Yau": "une vrai tranche tridimentionelle de l'hypersurface de degré 5 du 4 espace projectif complexe" (p 623). Voilà de quoi briller en société (ou, plus probablement, passer pour un...)
L'ouvrage est bien construit, bien écrit, et comporte de
fréquents rappels bienvenus, car les livres de cette envergure
sont rarement lus d'une traite!
Rapellons l'idée centrale des théories des supercordes: le
zoo des particules élémentaires n'est qu'une apparence,
les particules ne sont pas ponctuelles mais constituées de
minuscules cordes vibrantes dans des espaces multidimensionnels,
dont chaque mode de vibration engendre une particule et ses
propriétés (Pour une présentation imagée,
la société NOVA, qui a produit le documentaire "l'univers
élégant" permet d'en visionner
l'intégralité sur son site)
Historiquement, tout à commencé en 1968, lorsque G
Venazianno a découvert que la fonction gamma de Euler,
découverte 200 ans plus tôt, décrivait parfaitement
l'interaction forte. Par la Suite, L. Suskin mit en évidence que
cette description impliquait que les particules en jeu n'étaient
pas ponctuelles mais allongées, en forme de cordes vibrantes...
Gros avantage des cordes: leur extension spatiale, car comme le remarque Greene p. 253: "Si
les constituants élémentaires de l'univers eux-même
ne permettent pas de sonder les distances inférieures à
la longueur de Planck, alors ni eux ni rien d'autre ne sera jamais
affecté par les prétendues désastreuses
ondulations quantiques qui règnent à cette échelle".
Les cordes limitent la "granularité" du monde, et
évitent ainsi que ne surgissent les grandeurs infinies qui
caractérisent les particules ponctuelles.
Cette idée que les dimensions physiques, matérielles,
sont supérieures à 3 n'est pas nouvelle: elle a
été avancée dès 1919 par Theodor
Kaluza, mathématicien polonais en avance sur son temps...
(p.298). Comme mentionné p. 314, Kaluza a remarqué qu'en
introduisant une dimension spatiale supplémentaire, il parvenait
à unifier la gravitation et l'électromagnétisme
(ce qui me fait penser que l'on peut fort bien analyser
l'électromagnétisme comme une dimension
supplémentaire, et non une force). Malheureusement, les
premières idées de Kaluza sur cette unification n'ont pas
été confirmées par l'expérience. En fait,
cela signifie seulement qu'envisager une seule dimension
supplémentaire ne suffit pas ! (accessoirement, cela montre
aussi qu'une belle idée, esthétique et unificatrice, n'est pas pour autant la vérité. Hors, une bonne partie de la théorie des corde procède d'une telle conception !).
Tout le chapitre sur ces dimensions cachées est excellent, et il
ouvre bien des débats. Ainsi, (p.325), sont mises en
évidence 9 dimensions enroulées microscopiques
s'ajoutant au 3 spatiales que nous connaissons. Mais on pourrait fort
bien imaginer une dimension spatiale supplémentaire, mais
extrêmement grande...
Ces dimensions supplémentaires sont à la racine des supercordes: en effet (p.328): "la
geometrie des dimensions supplémentaires détermine les
attributs de la physique fondamentale, comme les masses ou les charges
des particules que l'on observe dans les trois dimensions habituelles."
la p 584 nous offre un bon résumé de l'approche "cordiste" que je retravaille un peu ci dessous:
"Einstein a découvert
que l'espace et le temps était inextricablement liés par
le fait innatendu que le mouvement d'un objet dans l'espace influe sur
son évolution dans le temps. La relativité
générale montre que la forme particulière de la
structure spatio-temporelle transmet la force gravitationnelle d'un
point à un autre. Les fluctuations quantiques violentes du monde
microscopique montraient qu'une théorie nouvelle était
nécessaire, ce qui conduit à la théorie des
cordes, qui impose que l'univers possède plus de dimensions que
celles qui sont visibles. Certaines d'entre elles seraient
entortillées dans des formes minuscules mais très
compliquées, pouvant subir des transformations extraordinaires,
où leurs structure est percée et
déchirée puis se répare finalement
d'elle-même."
Cordes et critiques
Greene ne cache pas dans on livre que les bases
expérimentales de la théorie des supercordes sont
quasiment inexistantes. Bien que Witten puisse dire que la gravitation
découle des supercordes, force est de constater que la
théorie de la gravitation a précédé celle
des supercordes... Il fait là preuve d'un raisonnement
circulaire.
Greene l'avoue sans faux semblants (p.335): "la TC est elle correcte ? Nous n'en savons rien."
Les critiques pleuvent sur cette théorie, surtout dans les années 80:
- S Glashow et P Ginsparg :"les
théoriciens des supercordes poursuivent une harmonie
interne ou élégance, unicité et esthétisme
définissent la vérité... Coïncidences
magiques, annulations miraculeuses et relations entre domaine sans
rapport, et même inconnus, des mathématiques... Les
mathématiques et l'esthétique supplantent elles et
transcendent elles vraiment l'expérience ? ... cette
théorie est soit parfaitement exacte, soit totalement fausse."
Citons aussi R Feynman, pour qui il doit exister d'autres
manières de se débarasser des infinies génants en
physique...
Depuis cette époque, Greene remarque que les critiques sont
moins nombreuses, et attribue cela à la fois à la plus
grande modestie des théoriciens des SC et au manque de
progrès des autres voies de la physique. On pourrait aussi
rajouter que, depuis les années 80, de nombreux étudiants
de physique "formatés" aux SC sont sortis des labos et ont
commencé leur carrière tout
pénétrés de l'esprit des théories
cordistes...
Greene suit en fait l'avis de D Gross, pour qui c'est la façon
de faire de la physique qui change, les théoriciens
n'étant plus, comme par le passé, à la remorque
des expérimentateurs, mais dans la situation bien plus
inconfortable d'ouvrir seul les voie vers la vérité...
Toutefois, Greene le confesse facilement (p.441): "rien ne nous assure que l'Univers soit construit avec autant de rigueur"
Il est même des critiques plus actuelles:
- Duff (Professeur de physique University of Michigan, Director
of the Michigan Center for Theoretical Physics.)" is this just fancy
mathematics or is it describing the real world ?" (est-ce seulement de jolies maths ou une description du monde réel ?"
- S. James
Gates, Jr. (expert en particules supersymetriques, prof de physique
dans les plus grandes universités US (MIT, caltech,
Harvard...) "is it there in the laboratory ? Can you
find its evidence ?" (Ou peut on démontrer expérimentalement tout cela ? Peut on trouver des preuves ?)
-Joseph Lykken ( Fermi National Accelerator Laboratory (Fermilab), prof de physique à l'université de Chicago): How
do you actually test
string theory ? if you can't test it in the way that we test normal
theories, it's not science, it's philosophy. (Pëut on tester les
théorie des cordes ? Si on ne peut le faire, comme pour
toutes les autres théories, alors ce n'est pas de la science,
mais de la philosophie."
p. 294, les propos de Witten, sur la surabondance de théories des supercordes (5): "si l'une des 5 théories décrit notre univers, qui donc habite les 4 autres ?"
sont un prélude à la découverte que les 5
théorie peuvent constituer, en fait, 5 variantes d'une seule
théorie des supercordes, la très hypothétique "M"
théorie...
P484-485, on découvre que la théorie des supercordes
devrait plutôt être appelée théorie des
supermembranes, et on se demande même si ces objets ne se
déploient pas dans d'autres dimensions (491): "la
théorie des cordes contient en fair des membranes à 2
dimensions. Ne pourrait il pas y avoir des objets de plus haute
dimension ? A l'heure actuelle, la réponse n'est pas totalement
connue." Si ces objets se révélait avoir une
extension supplémentaire, pourraient ils alors constituer les
briques tridimentionelles de notre réalité sensible ?
Existe t'il des "cases de Planck" indivisibles, pleines, construisant le
monde comme l'enfant empilant des cubes construit son univers
imaginaire ?
Contraction de l'espace
Un des apport théorique les plus intéressant des cordes est leur
capacité à borner les dimensions et les
phénomènes aux alentours de la longueur de Planck. Ainsi,
même un effondrement gravitationnel en apparence infini n'est
plus possible: une fois atteinte la longueur de Planck, la géométrie des cordes stoppe l'effondrement et le remplace par... une expansion !
Tout le chapitre intitulé "géométrie quantique"
est à lire et à relire. P. 389, vous aurez l'impression
de vous retrouver dans le premier opus du film "Men in Black".
Toutefois, la pièce maîtresse est apportée p. 396, avec
ce que j'ai appelé le rebond de Planck: toute contraction de matière se trouve stoppée à la longueur de Planck: "On
évite ainsi le big crunch jusqu'à une extension nulle
puisque le rayon de l'univers tel que le mesure les modes de corde
legers, reste toujours supérieur à la longueur de
Planck... ce rayon décroît jusqu'à la longueur de planck
puis commence aussitôt à ré augmenter: l'effondrement
devient un rebond ". Appliquons le même raisonnement à l'effondrement d'un trou noir...
les trou noirs, justement
possèdent comme uniques caractéristique masse, rotation
et éventuellement une charge. autrement dit, les trous noirs
se caractérisent comme de grosses particules élémentaires..
(498). Toutefois, l'étude des "effondrements" de l'espace, c'est
à dire des fameuses dimensions cachées, aboutit à
des résultats surprenants (505): lorsqu'une sphère
tridimentionelle s'effondre, la structure dimensionnelle peut se
déchirer puis se réparer en ré ouvrant la sphère
(redonnant une expansion) mais ici alors que nous avions n dimensions
en effondrement, nous n'en avons plus que (n-1) en expansion ! Ces
transitions topologique de l'espace (dites conifold) montrent qu'un
effondrement gravitationnel peut engendrer une modification de la
topologie des dimensions enroulées des cordes évitant
l'apparition de quantité infinies. Il existe même d'autres effets encore plus innatendus (513): "une
fois que la sphère s'est trouvé réduite en un
point, le trou noir se retrouve dénué de masse - bien que
cela semble loufoque et mystérieux.".
A ce propos, P 522, Greene présente et utilise les travaux de
Hawking sur ke rayonnement des trous noirs et leur évaporation.
Toutefois, ces travaux sont basés sur lee particules virtuelles
surgissant de la mousse quantique.... Mais celle ci existe t'elle dans
la théorie des cordes ?
Entropie d'un trou noir et supercordes
Comme Bekenstein le supposait et Hawking l'a vérifié, les
trous noir possèdent une entropie, qui peut être
identifiée à l'aire de leur horizon. Cette entropie est
colossale, mais que représente t'elle? Une réponse est
apportée par la théorie des cordes, mais elle
considère des trous noir très particuliers dits
extrémals.
Toutefois ils ont réussit à montrer ici l'identité
entre l'entropie mesurable par le rayonnement du trou noir, et
l'entropie calculable à partir des SC.
Que devient l'information tombant dans un trou noir ? Est elle
irrémédiablement perdue, accroissant ainsi
l'indétermination globale de l'univers d'une quantité
supplémentaire à celle génère par le
principe d'incertitude ? Ou bien peut elle resurgir du néant
lorsque le trou noir s'évapore, son horizon diminuant ? Personne
ne sait, pour le moment, ce qu'il en est (Hawking et Thorne militent en
faveur de la perte, Preskill, utilisant les SC, pense que le
restitution est possible...).
Ce n'est pas là un mince problème, car comme le déclare Hawking (532):" La
plupart des physiciens veulent croire que l'information n'est pas
perdue (...) on doit accepter l'éventualité que l'espace
temps se noue lui même et que l'information se perde dans ses
replis. La question de savoir si oui ou non il y perte
d'information est l'une des principales question de la physique
théorique."
Et si les trous noirs étaient liés au problème de
la flèche du temps, cette perte d'info la définissant? Et
si ils étaient des convertisseur d'espace en temps ?
Une autre de mes réflexions s'est trouvée confortée
à la p. 573, où Greene nous apprend que Lee Smolin
a proposé que chaque trou noir constitue "la semence d'un univers nouveau" (j'avais eu la même idée, confusément). Ces univers "deumereuraient à jamais cachés par l'horizon du trou noir". L'avancée principale de Smolin tient à ce qu'il devient alors possible d'invoquer un mécanisme de sélection naturelle pour
aboutir à des univers dont les paramètres sont
optimaux pour la formation de trous noirs, ce qui permet d'esquiver les
redoutables (pour qui ? Greene semble en faire grand cas, mais ce sont
souvent des tautologies) pièges des principes anthropiques...)
La formulation des supercordes conduit à l'existence d'une symétrie spatiale par rapport à la longueur de Planck: tout
événement au delà de cette longueur peut être
relié à un événement identique en
deçà de cette longueur, les deux étant indiscernables...
Cette symétrie se manisfeste au niveau du big bang: en remontant le temps (p.555) "la température atteint un maximum (à la longueur de planck) puis commence à décroître.".
Recherche de confirmations:
Si les supercordes sont super, justement, c'est qu'elles
prédisent l'existence, pour toute particule, d'un partenaire
plus lourd, dit supersymétrique. Si l'un de ces partenaire
venait à être détecté, la
réalité des cordes s'en trouverait
renforcée.
Il faut toutefois attendre la page 559 pour découvrir ce que je considère comme le meilleur argument en faveur des SC: ces dernières expliquent de façon extrêmement convainquante la phase inflationnaire du big bang: "plus
(les 3 grandes dimensions spatiales) elles se dilatent, plus il est
improbable que d'autres cordes les entourent, puisqu'il faut d'autant
plus d'énergie à la corde pour envelopper une dimension
plus grande. Ainsi, l'expansion se nourrit d'elle même, de moins
en moins contrainte à mesure que les dimensions grandissent.".
On doit aussi remarquer que les SC fournissent des explications
convainquantes pour origine de la gravité (si le graviton
existe!), le pourquoi des 3 familles de particules et l'origine de la
masse...
La lecture de l'ouvrage de Greene permet de poser de fascinantes questions :
Il pourrait exister des particules à charge
électrique fractionnaire (autre que les quarks 1/3 et 2/3), leur
détection confirmerait les théories SC.
P. 374, l'enroulement des cordes autour des dimensions microscopiques
refermées sur elles mêmes me fait me demander si
l'omniprésence de pi dans la physique n'est pas le signe de
l'existence de dimensions cachées "sphériques"...
p 594, la geométrisation de la théorie quantique apparaît comme une voie où "espace, temps et propriétés quantiques seront réunis et inséparables". Pythagore aurait il eu raison ? Tout serait nombre, ou plus exactement tout serait forme.
p. 588 se pose la question de voir "la
théorie créer sa propre scène spatio-temporelle
à partie d'une configuration dénuée de temps et
d'espace". Ainsi, se pourrait il qu'en fin de compte, temps et
espace ne soient que le résultat, ou même directement,
d'un calcul? Nous pourrions établir ici un parallèle avec
l'approche défendue par S Wolfram...
p 599, une grande question: existe t'il une limite à l'explication scientifique du monde ? "Peut
être nous faut il accepter, après avoir atteint le niveau
de compréhension le plus fondamental que la science puisse
offrir, que certains aspect de l'univers restent tout de même
inexpliqués". En fait, cette interrogation est
causée par l'examen des conditions initiales de l'univers lui
même: comment ont elles été
déterminées ? N'habitons nous qu'un seul univers parmi
tous les possibles, ou le seul ou la conscience ait pu prendre son
envol ?
Là, Greene en profite pour placer la notion de "choix divin", ou
utilise, de temps à autre, le terme de "création" pour
l'univers. Je crois qu'il ne faut voir là que l'héritage
de sa culture Nord américaine, imprégnée de
références religieuses, plus qu'un dessein volontaire ou
un point de vue théologique ou prosélyte.
En résumé, un ouvrage
éclairant, qui mérite d'être lu entièrement,
puis approfondi chapitre par chapitre, et dont les
références, si on voulait les examiner de façon
sérieuse, suffiraient à occuper une vie.
C'est aussi un merveilleux roman
décrivant la quête de la connaissance entamée,
voici des siécles, par les premiers scientifiques et qui, ici,
amène aux interrogations les plus hautes et aux
découvertes les plus stupéfiantes sur cet étrange
univers que nous avons fait notre...