Existons-nous ?
La science est le lieu ou les hommes de notre époque sont
face à la vérité”
W. Heisenberg
Décembre 2003
De récents résultats obtenus dans l’étude des phénomènes
complexes montrent que l’univers dans son entier pourrait
n’être qu’un processus calculatoire. Dès lors, la
conscience elle-même pourrait n’être qu’une propriété
émergente susceptible d’être simulée. Est-ce déjà le cas ?
Une
idée ancienne
Platon, avec son mythe de la caverne, avait déjà envisagé
la possibilité que nous ne voyons que l’ombre d’une réalité
inconnaissable, les phénomènes naturels n’étant que les
ombres de formes éternelles. Avant lui, Pythagore et son
école affirmaient que la seule réalité, c’était le nombre
(ou plus exactement les entités géométriques décrites par
des nombres), le reste étant illusion. Le courant de pensée
qui fait de la réalité une suprême illusion se retrouve
tout au long de notre histoire, sous des formes diverses,
des aphorismes du chinois Tchouang -tseu (1) à l’idéalisme
de Berkeley et aux écrits de Leibniz; de certains jeux de
rôles des années 80 à la trilogie cinématographique
“matrix” ! Le point commun à toutes ces conceptions est de
postuler que derrière l’apparente complexité de la réalité
se cache une harmonie mathématique secrète dont nous ne
voyons que l’incertain reflet. Le “calme” débat
philosophique autoréférent sur ces sujets a été bousculé
depuis le début des années 1990 par de surprenantes
découvertes qui en font, nous l’allons voir, toute
l’actualité.
Le
réductionnisme cartésien face à son destin
L’importance des phénomènes complexes a été révélée petit à
petit lorsque de nombreuses disciplines scientifiques se
sont trouvées confrontées aux limites du réductionnisme,
aux frontières de la méthode cartésienne. En effet, l’étude
de nombreux systèmes composés de plusieurs éléments en
interaction montre que le comportement du système ne peut
être prévu par l’étude séparée de chacun de ses éléments:
leurs combinaisons font surgir des comportements
inattendus, et le tout est plus, comme le disait Aristote,
que la somme de ses parties.
Il est facile d’illustrer ce concept par l’exemple d’un tas
de sable: si l’on se concentre sur la position, les
interactions et le bilan des forces s’exerçant sur chacun
de ses grains, l’évolution d’un tas de sable est impossible
à prévoir. Par contre, en se limitant à quelques variables
globales (hauteur et rayon du cône de sable), cette
évolution devient tout à fait déterminée. Le point clé est
qu’ici la décomposition du système à étudier en facteurs
plus petits augmente inutilement la complexité de
l’ensemble à analyser. L’approche réductionniste trouve ici
sa limite, qui est celle d’une complexité croissante
induite par la décomposition d’un système en ses divers
éléments, et elle est particulièrement mise en évidence par
l’étude des organismes vivants. En effet, le lent démontage
des organismes, de la cellule aux organites, puis aux
molécules et maintenant au génome, a permis d’énormes
progrès, mais montre actuellement ses limites: comment
mettre en relation les énormes volumes de données
collectées par l’analyse des génomes? Les biologistes sont
conduits à élaborer de nouveaux modèles prenant la forme de
réseaux permettant de mieux décrire l’interaction des
différents éléments qui est à la source des singularités du
vivant.
Alors que la biologie moléculaire se construisait, dans les
années 50, une autre approche, balbutiante, allait se
focaliser sur la simulation du comportement des organismes
au moyen d’automates, éléments graphiques obéissant à des
règles mathématiques précises. Comme souvent, cette
approche exotique, théorique et ignorée de la plupart des
biologistes allait fournir le socle de ce qui pourrait
constituer une remise en cause radicale de nos
conceptions...
Où
les mathémagiciens s’en mêlent
C’est l’un des plus grands mathématiciens du 20e siècle, J.
von Neumann, qui mis au point ces automates, inventés par
S. Ulam dans le but de modéliser les caractéristiques
d’autoreproduction des êtres vivants. Par la suite, les
premiers spécialistes de l’informatique ont mis au point
des simulations basées sur le comportement de ces automates
reproduisant les systèmes à étudier. Un de ces programmes
est le “jeu de la vie” de J.H. Conway (2), mis au point en
1969 et simulant l’évolution d’une population de cellules
vivantes.
A quoi ressemblent ces “automates cellulaires”? Les plus
simples se représentent le plus souvent sous forme d’une
grille, chaque ligne représentant une avancée d’une unité
temporelle. Le “comportement” (couleur par exemple) d’une
case de la grille dépend de celui des grilles adjacentes au
moyen d’une (ou de plusieurs) règle particulière. Pour des
automates très simples, il n’existe que 256 règles
possibles décrivant l’évolution de chaque case lorsque l’on
avance d’une ligne dans le temps. Lorsqu’une de ces règles
est appliquée, il se crée alors un ensemble de motifs qui
adoptent un comportement pour le moins surprenant.
Dès 1936, les mathématiciens K. Gödel, A. Church et le père
de l’informatique, Alan Turing, ont posé les bases de la
théorie de la calculabilité et se sont intéressés au calcul
mécanique. Dans ce cadre, Turing a montré que des automates
cellulaires peuvent constituer ce que l’on appelle des
“calculateurs universels”, et sont en fait susceptibles de
réaliser l’ensemble des calculs possibles. Il en découle
que si les phénomènes, même les plus complexes, sont
calculables, alors ils peuvent l’être par des automates
cellulaires adéquats.
Mais qu’appelle t’-on complexité d’un système ? Trois
chercheurs (Kolmogorov, Solomonoff et Chaitin, que nous
retrouverons) ont mis au point une mesure de la complexité
d’un système, dite complexité de Kolmogorov. L’intéressant
est que cette mesure nécessite l’utilisation des
conceptions de Turing: la complexité d’un système se
définit par la longueur du plus petit programme susceptible
de l’engendrer (3). Cette approche s’est révélée
particulièrement précieuse pour la description mathématique
de phénomènes physiques tels que l’entropie ou encore celle
de la complexité croissante des systèmes apparaissant au
cours de l’histoire de l’univers (4).
Cette intrusion des mathématiques dans la biologie n’a pas
été accueillie avec enthousiasme par la majorité des
biologistes, souvent fâchés depuis l’enfance avec cette
discipline. De plus, la simulation a mauvaise presse,
particulièrement en France, chez les biologistes, aussi
bien dans l’enseignement, où elle est quasiment abhorrée,
que dans la recherche où elle ne suscite le plus souvent
qu’un intérêt poli. Cependant, des résultats intéressants
ont déjà été obtenus par l’étude d’automates cellulaires:
en 1995, le comportement des cellules de l’utérus a pu être
modélisé (5) de façon à étudier le mécanisme du
déclenchement de l’accouchement. Le développement des
structures en feuillets caractéristiques du début de
l’embryogenèse a aussi pu être reproduit de cette façon (6)
ainsi que, plus prosaïquement, celui du follicule pileux,
très étudié en cosmétologie. Le comportement des vraies
cellules semble bien pouvoir être décrit par celle des
cellules virtuelles d’un univers mathématique. Malgré tout,
ces étranges grilles pour informaticiens semblaient ne
posséder qu’une utilité exotique et se cantonner à un rôle
accessoire pour scientifiques fana d’ordinateurs en manque
d’excentricités.
Cependant, le potentiel insoupçonné des automates
cellulaires n’allait pas tarder à se révéler sous la plume
de physiciens passés maîtres dans la modélisation des
systèmes complexes qui résistent à l’analyse classique. Ils
allaient oser étendre la pertinence du concept à la base
des automates, à savoir la possibilité qu’un calcul simple
répété engendre des comportements complexes, à l’univers
entier.
Ceux
par qui le scandale arrive
Nos trois larrons entrent en scène vers le milieu des
années 1990. Il s’agit de S. Wolfram, E. Fredkin et S.
Lloyd. Ce sont des chercheurs d’un genre un peu particulier
dont l’activité a été abondamment commentée, souvent en
termes peu amènes, par les cercles académiques. Issus de
l’industrie informatique, ces individus cumulent des
défauts rédhibitoires aux yeux de l’establishment:
- ils ont fait fortune dans le software, et sont donc
totalement indépendants des institutions que par ailleurs
ils créent où financent parfois, ce qui les affranchit des
compromissions inhérentes à la nécessaire conservation d’un
emploi de chercheur dans un cadre universitaire classique
ainsi que de l’usage de la diplomatie résultant de
l’insertion dans le cadre hiérarchique d’un laboratoire de
recherche.
- leur envergure intellectuelle est telle que l’on ne peut
se permettre de les traiter comme de doux dingues qui
passent leur temps à ratiociner sans fin sur des sujets qui
les dépassent
- indépendants dans leur pensée, la publication de leurs
résultats ne suit pas les voies académiques habituelles.
Ils ne se sentent pas tous obligés de publier dans des
revues savantes au lectorat évanescent, mais préfèrent
s’éditer eux-mêmes et faire confiance au réseau internet
pour diffuser leurs idées (7, 8, 9). Par là même, ils
s’affranchissent du contrôle tatillon et des coups de
ciseaux qui donnent aux articles le ton scientifiquement
correct correspondant à des notes écrites pour des motifs
essentiellement administratifs et qui rendent la lecture
des sujets les plus passionnants aussi stimulante que celle
de l’annuaire des télécoms.
Ces étonnants penseurs, que nombre de chercheurs auraient
préféré voir se cantonner sur des plages de rêve, vêtus de
lin blanc et sirotant des cocktails, se sont proposé de
réfléchir à la genèse des processus complexes que la
physique et son arsenal mathématique classique ont du mal à
expliciter. S’appuyant sur plusieurs années de travaux
disparates, ils ont ordonné les résultats précédents et y
ont apporté leurs contributions respectives, exprimées pour
l’essentiel dans le volumineux ouvrage de l’un d’eux (10),
S Wolfram (fondateur de la société “mathematica”) ainsi que
sur leurs sites web personnels. Ces excentriques de la
recherche, disposant à la fois des moyens intellectuels et
financiers nécessaires à une recherche novatrice, possèdent
qui plus est des personnalités bien marquées: Fredkin,
millionnaire qui enseigna l’informatique au MIT et fut
l’ami du physicien R. Feynman, vit à présent sur sa propre
île tropicale; S. Wolfram est le richissime fondateur de
Wolfram research et ses fascinantes capacités
intellectuelles (il obtint son doctorat de physique à 20
ans) n’ont d’égale que son immodestie revendiquée; Lloyd
est l’universitaire de la bande, spécialiste de l’étude et
de la définition de la complexité au prestigieux M.I.T. de
Boston.
Leur conviction s’exprime simplement: l’ensemble des
processus à l'œuvre dans l’univers doit pouvoir être décrit
comme un calcul, et ce calcul est susceptible d’être
lui-même simulé par une “machine de Turing”, autrement dit
par un programme informatique. Il en découle que même les
processus les plus complexes peuvent être décrits par un
processus calculatoire relativement dont la répétition dans
le temps engendre de la complexité, voire de
l’indétermination, à partir d’une base parfaitement
déterministe.
Comme le précise Fredkin, cette conception est “ une
théorie atomique portée à son extrémité logique, où toutes
les quantités de la nature sont finies et discrètes. Ceci
signifie que, théoriquement, n'importe quelle variable peut
être représentée exactement par un nombre entier. “ (7).
Cette conception n’est pas nouvelle (elle est partagée
également par le mathématicien G. Chaitin) et avait déjà
été formulée par le physicien J.A. Wheeler, mais elle
implique l’abandon de deux concepts fondamentaux qui n’ont
jusqu’à présent que rarement été remis en cause:
- L’hypothèse du continu: les physiciens pensent que notre
espace-temps est un continuum, c'est-à-dire que l’on peut,
par exemple, toujours définir un point-événement situé
entre deux autres points. Ceci permet d’utiliser l’arsenal
mathématique de l’analyse qui considère que certaines
équations basées sur cette caractéristique peuvent être
utilisées. Au contraire, Fredkin conjecture qu’à un niveau
ultime, l’espace-temps n’est pas continu, mais constitué de
cases d’espace-temps de dimension finies. Cela implique
l'abandon d’une deuxième notion.
- l’infinitude : s’il n’existe pas de continuité, alors la
nature n’héberge aucun infini, que se soit vers les petites
dimensions où les plus grandes.
Il est assez révélateur de voir que ces conceptions
s’accordent avec les développements réalisés par d’autres
scientifiques travaillant selon des voies plus classiques.
En effet, plusieurs physiciens pensent qu’a une échelle
extrêmement petite, l’espace-temps est quantifié et non
continu (11, 12), et que, à l’autre extrémité des
dimensions, notre univers ne serait infini qu’en apparence
et résulterai de l’illusoire répétition d’un motif de très
grande dimension, mais fini (bien que ne possédant pas de
bords - 13).
Si ces hypothèses sont exactes, les mathématiques
classiques, et l’analyse en particulier, se révéleront
impuissantes à appréhender la nature ultime de la réalité,
car les fonctions apparaissant en physique ne pourront plus
être considérées comme étant continûment dérivables. Par
contre, les automates cellulaires fournissent un moyen
d’une puissance insoupçonnée pour étudier les phénomènes où
l’approche classique déclare forfait (14). Ainsi, même des
automates cellulaires très simples peuvent recréer à la
demande des motifs périodiques (correspondant à des
phénomènes cycliques, faciles à traiter classiquement),
chaotiques (plus difficiles à générer) mais également
organisés et dotés d’une complexité croissante (ce qui
n’est pas mathématisable par les voies les plus
classiques).
À ce stade, une remarque doit venir à l’esprit du lecteur
perspicace (y en a t’il d’autres?): si des calculs
combinant des quantités entières suffisent à expliquer la
complexité universelle, alors quid des phénomènes
d’indétermination rencontres à la fois en physique et en
mathématique ?
En effet, ce n’est pas la moindre des surprises que de
constater que cette nouvelle approche de la réalité
implique l’existence d’une forme nouvelle de déterminisme
qui se réintroduit dans la physique: les processus qui nous
semblent aléatoires, chaotiques ou indéterminables ne
seraient en fait que l’émergence de mécanismes communs
parfaitement déterminés dont l’essence calculatoire nous
resterait encore inintelligible. Examinons plus en détail
comment l’indéterminisme résulte peut-être uniquement de
notre anthropocentrisme, ou plus exactement, nous le
verrons, de ce que nous pourrions désigner du néologisme de
“dimensionnisme”.
Incertitude,
indétermination et difficulté de penser le réel
La physique nous apprit dès le début du 20e siècle que la
matière, au niveau atomique, présente un étrange
comportement. Les particules élémentaires (bien mal
nommées, puisque ce ne sont justement pas des particules,
et que la plupart ne sont pas élémentaires...) qui
constituent notre univers obéissent aux lois étranges de la
physique quantique, qui semblent heurter le sens commun
plus apte à manipuler les oranges que les neutrons.
Cependant, comme le font remarquer S. Ortoli et JP.Pharabod
(15) “les objets que nous connaissons ne sont pas des
assemblages de micro-objets, mais des combinaisons
d’entités élémentaires qui ne sont pas des objets”. Parmi
les propriétés quantiques, le principe d’incertitude
d’Heisenberg stipule que l’on ne peut connaître
simultanément la vitesse et la position d’une particule.
Toute précision accrue de la mesure d’une de ces quantités
se traduit par une imprécision croissant au niveau de
l’autre quantité. Comme des expériences récentes ont
amplement confirmé cet état de fait, il peut paraître
évident que des processus calculatoires parfaitement
déterminés ne peuvent rendre compte de cette
indétermination fondamentale. C’est là une erreur qui tient
à la fois au biais causé par nos perceptions sensorielles
et au caractère réel de l’indétermination.
En effet, cet indéterminisme n’apparait que lorsque nous
voulons à toute force raccrocher la description des
électrons, par exemple, à des objets comme des ondes ou des
particules, ce qu’ils ne sont pas! Le physicien M. Bunge a
d’ailleurs forgé le néologisme de “quanton” plus à même de
correspondre au comportement des entités que sont
l’électron, le photon, les protons et leurs collègues... En
effet, l’électron, par exemple, n’est ni onde ni
corpuscule, c’ est un objet physique dont la description
exacte ne saurait être que mathématique, sous la forme
d’une fonction d’onde, laquelle est définie en tout point
et ne fait pas apparaître cette fameuse indétermination qui
ne surgit que lorsque nous voulons à toute force faire
rentrer le comportement de l’électron dans des notions
macroscopiques comme la trajectoire, la vitesse ou la
position. Loin d’être une limite à la précision de nos
mesures, l’indétermination ne résulte que de notre
incapacité à penser en termes “non classiques”, obsédés que
nous le sommes par des idées comme le plan, la droite, le
plan, la trajectoire... qui n’ont pas leur pendant dans le
monde atomique! Nous voulons soumettre les lois du monde à
celles auxquelles sont soumis les objets de notre
dimension, et ce “dimensionnisme” est la source de nos
difficultés. Ainsi que le déclare S. Hawking (16) “
L'imprévisible, l'élément de hasard, n'intervient que
lorsque nous essayons d'interpréter l'onde en termes de
positions et de vitesses de particules. Mais peut être
est-ce notre erreur: peut-être n'y a t'il ni position ni
vitesse de particules, seulement des ondes."
Ainsi, l’indéterminisme ne résulte que de notre
anthropomorphisme intellectuel. Il en est de même pour les
phénomènes chaotiques, où le hasard se conjugue au
déterminisme. L’analyse de systèmes très sensibles à leurs
conditions initiales (climat, prévisions météorologiques,
turbulences...) montre que dans ces systèmes les
incertitudes de mesure vont en s’amplifiant jusqu’à influer
de façon notable sur le déroulement de l’évolution du
système. Malgré tout, un système chaotique est pleinement
déterminé mathématiquement même si il reste physiquement
indéterminable à long terme .
Un
monde d’automates
Les automates cellulaires les plus simples, qui
représentent en fait un calcul qui se répète indéfiniment
(itératif), permettent donc de simuler nombre d’aspect de
phénomènes aussi complexe que l’organisation des tissus
d’un être vivant où la dynamique d’une population. S.
Wolfram étend cette compétence calculatoire à de nouveaux
domaines et montre que les automates simples, définis
pleinement en une ligne de code informatique, peuvent
reproduire des phénomènes aussi divers que la croissance
des cristaux, la morphologie des végétaux ou les
turbulences que la mécanique des fluides peine à traiter.
Cette troublante capacité de voir le calcul engendrer la
forme amène à l’idée que les automates cellulaires peuvent
fournir une nouvelle façon de comprendre la nature, se
superposant ou remplaçant l’analyse mathématique classique
qui se révèle bien souvent défaillante. Ainsi, l’ensemble
des fondements de la physique peut être reformulé en termes
calculatoires. C’est le credo de Fredkin, qui rejoint ici,
après 26 siècles, la pensée de Pythagore: au “tout est
nombre” du philosophe, il oppose un étonnant “tout est
calcul” qui offre un cadre nouveau aux sciences de la
nature. C’est également la voie suivie par Wolfram qui
propose d’étudier les processus naturels comme étant les
résultats de calculs modélisables par des automates, et
bornant la complexité de la nature à celle des calculs
réalisables avec ces moyens mathématiques. Cette approche
est loin d’être acceptée sans réticence, et les difficultés
les plus sérieuses proviennent de ce qu’il n’est pas
possible, selon G. Chaitin, de prouver qu’un programme
particulier est le plus simple des programmes possibles
engendrant la complexité constatée. En d’autres termes, le
fait de savoir si l’on a un bon modèle ou le meilleur
modèle possible est indécidable et indémontrable.
Cela n’empêche pas Seth Llyod de proposer de pousser cette
conception (baptisée “réductionnisme computationnel”) dans
ses dernières limites, et de considérer l’univers entier
comme un calcul (17) ayant effectué à ce jour un maximum de
10120 opérations élémentaires. Ce calcul pourrait n’être vu
que comme une récréation spirituelle, mais l’étonnant est
que le chiffre obtenu dépend uniquement des valeurs des
constantes de la physique, et qu’il correspond à ceux
découverts par le physicien Paul Dirac dans son “algèbre
des Q nombres” où il se proposait d’étudier la
signification des valeurs des constantes de la physique!
Llyod en déduit que la simulation totale et parfaite de
l’univers depuis son émergence est théoriquement1 possible
(18). Il en découle une interrogation fondamentale, qui
paraît folle à première vue, échappée d’un film à succès,
mais qui ne peut être écarté: vivons-nous dans l’univers
réel ou dans une simulation parfaite de celui-ci ?
Existons-nous ?
L’insoutenable
calculabilité de l’être
Déjà le physicien J.A. Wheeler avait proposé l’aphorisme
selon lequel, la physique n’étant qu’information, l’être
venait lui aussi de cette information (“it from bit”). Plus
récemment, Nick Bostrom, de l’université d’Oxford, a
proposé dans un article (19) un argument selon lequel les
probabilités sont maximales pour que nous vivions à
l’intérieur d’une simulation informatique. Son raisonnement
(dont certaines étapes prêtent, selon moi, le flanc à la
critique sans que pour cela sa conclusion soit remise en
cause) est que si la simulation d’une conscience est
possible (ce qui serait, nous l’avons vu, le cas) alors nos
descendants lointains réaliseront cette simulation, pour
peu que la durée de vie de notre civilisation le permette.
Dès lors, le nombre de consciences pouvant être simulées
dans une machine future (noter bien que comme il s’agit
d’une simulation, il ne s’agit pas d’une machine pensante -
les oppositions de R. Penrose (20) à l’élaboration des
machines pensantes ne tiennent pas ici) pourra être très
grand, très supérieur à celui des 6 milliards de
consciences habitant actuellement notre planète, et ceci de
plusieurs ordres de grandeur. Il en découle que vu le
nombre de consciences simulables, le seul fait d’être nous
même une conscience nous place d’emblée dans la situation
la plus probable, à savoir celle de faire partie des
centaines de milliards de consciences simulées plutôt que
du “petit” nombre de consciences “réelles”...
Hâtons-nous de dire que, dans ce cas, nous n’avons aucun
moyen de savoir si nous sommes ou si nous ne sommes pas
vraiment: être ou ne pas être, telle n’est plus la
question! Tout juste pourrait-on subodorer les options
philosophiques des programmeurs de la simulation en
fonction des événements que nous vivons, mais la recherche
de ces indices subtile ne serait guère probante...
Toutefois, si l’univers est bien le résultat d’un calcul,
que celui-ci soit réel ou simulé, nous tenons peut être là
l’explication de la “déraisonnable efficacité des
mathématiques”, car comment expliquer sinon comment une
pure abstraction issue de l’activité de l’esprit humain
réussisse si bien à décrire et à prévoir les phénomènes où
l’homme n’intervient pas ? Les mathématiques régiraient le
monde parce que ce dernier est, dans son essence, une
mathématique...
Une
incertaine réalité
Gageons que nous regarderons à présent nos ordinateurs
d’une autre façon... Mais que se rassurent les inquiets: le
mathématicien Godel a démontré que dans toute axiomatique
surgit nécessairement au moins une proposition indécidable,
qui ne peut être réduite, mais seulement “déplacée” vers
d’autres propositions. Tout système logique repose donc sur
un parti pris, un acte fondateur, un acte de volonté
consciente. Ainsi que le déclarait, prophétique, Werner
Heisenberg (21) en 1942 : “Lorsqu’à tel lieu de la vie de
l’esprit une connaissance fondamentalement nouvelle se
présente à la conscience des hommes, il faut toujours
réexaminer et à nouveau résoudre la question de savoir ce
que la réalité est véritablement.”
R.Raynal
Professeur, Dr de l’université de Toulouse
Références
1
- “Un jour j’ai rêvé que j’étais un papillon, et à présent
je ne sais plus si je suis Tchouang-tseu qui a rêvé qu’il
était un papillon ou bien si je suis un papillon qui rêve
qu’il est Tchouang-tseu “ - 350 av. JC
2 - Gardner M., The fantastic combinations of John Conway’s
new solitaire game of Life. Scientific American 223,
4/1970, 120-123.
3 - Delahaye JP. L’intelligence et le calcul. Ed Belin,
2002
4 - Li M, Vitanyi P. An introduction to Kolmogorov
complexity and its aplications. Springer-Verlag, 2nd ed.,
NY, 1997
5 -Ikonicoff R. Science & vie 938, 11/95, 67-75.
6 - Lafforge B, Cahnce A, Kupieck JJ. Selection model for
cell differenciation. Cell death and differenciation 3,
1996, 385-390.
7 - Fredkin: http://www.digitalphilosophy.org
8 - Wolfram : http://www.wolframscience.com
9 - Loyd : http://www-me.mit.edu/people/personal/slloyd.htm
10 - Wolfram S. A new kind of science ; 2002, S Wolfram LLC
11 - Meesen A. Spacetime quantification, elementary
particles and cosmology. Foundations of physics, 29, 2000,
281-316
12 - Bekenstein J. L’univers holographique. Pour la Science
313, 11/2003, 42-50
13 - Luminet JP. L’Univers chiffonné. ed. Fayard - le temps
des sciences, 2002
14 - Delorme M, Mazoyer J. La riche zoologie des automates
cellulaires. Pour la Science 314, 12/2003 40-46
15 - Ortoli S., Pharabod JP. Le cantique des quantiques,
ed. essais la Découverte, 1998
16 - Hawking S. Brêve histoire du temps - ed. J'ai lu, 207
17 - Lloyd S . Computationnal capacity of the universe.
Physical review letters, 88, 23, 237901/1-4, 2002 et un
article qui s’en inspire en français: Delahaye JP.
L’ordinateur ultime. Pour la Science 305, 03/2003, 103
18 - Une revue de ce problème a été présenté: L’univers est
il un calculateur ? Dossier “la recherche 360, 01/2003,
33-43
19 - Bostrom N. Are you living in a computer simulation?
Times Higher Education Supplement, 16/ 05/ 2003 - preprint
de l’article complet pour la revue The Philosophical
Quarterly : www.simulation-argument.com .
20 - Penrose R. L’esprit, l’ordinateur, les lois de la
physique. Intereditions, 1992.
21- Heisenberg W. Le manuscrit de 1942, ed. Allia, 2003
Sites
interessants
- sur la complexité de Kolmogorov, de très nombreux
articles originaux à télécharger librement
http://www.cs.ucsb.edu/~mli (page du Pr Ming Li, de
l’université de Californie).
http://www.cwi.nl/~paulv/kolmcompl.html
- sur les thèses de Wolfram (avec extraits de son livre,
supplément de problèmes à résoudre, illustrations):
http://www.wolframscience.com
- sur les automates cellulaires:
http://hensel.lifepatterns.net - ce site recence et permet
de télécharger des programmes de création d’automates pour
les différents systèmes d’exploitation informatiques. Un
programme en java (“enjoy life”) donne en ligne une vue de
certains automates.
Le shareware lifelab permet de s’entrainer à fabriquer des
automates cellulaires (pour mac):
http://www.trevorrow.com/lifelab
Il est également possible de construire des véhicules
virtuels simples qui possèdent des comportements complexes
sur http://www.spiderland.org (breve simulation environment
- pour mac).
- sur les remarques de G. Chaitin:
http://www.cs.umaine.edu/~chaitin
Sur ce site, il y a de nombreux articles de ce
mathématicien, dans toutes les langues.
A noter: sur son site
(http://www.wolframscience.com/reference/bibliography.html),
S. Wolfram répond aux critiques qui lui ont été adressées
par une bibliographie complète comportant de nombreux
articles consultables en ligne.