English
Español
Português
Français
  Home Subscribe
Édition papier

Comprendre le mécanisme de la nature : dernière pièce du puzzle ?

Tout en continuant à le remplir, nous devons reconnaître que nous ne travaillons que sur un petit coin du puzzle de la nature, et que l’espoir d’y mettre la dernière pièce est hors de notre portée.

Les scientifiques essayent de discerner des tendances dans ce qu’observent et vivent les êtres humains. Les tendances les plus désirables et les plus utiles sont celles qui peuvent résumer de nombreuses observations en un principe compact. Par exemple, les lois newtoniennes du mouvement, qui sont assez compactes pour tenir sur une carte postale, donnent une image simple et élégante des orbites planétaires autour du soleil, et décrivent en même temps les mouvements d’une balle lancée en l’air, d’une voiture sur l’autoroute, ainsi que toutes les autres sortes de mouvements que nous voyons tous les jours.

Les énormes succès des lois newtoniennes du mouvement ont amené les scientifiques à espérer trouver d’autres lois aussi utiles pour expliquer et simplifier d’autres types de phénomènes. A chaque nouvelle découverte de l’un de ces principes d’organisation, les scientifiques ressentent une grande satisfaction — un peu comme la nôtre lorsque nous trouvons la pièce qui va dans notre puzzle. Avec chaque découverte d’une nouvelle loi, l’univers semble un peu plus compréhensible. Chaque nouveau succès invite aussi une spéculation au sujet de la taille totale du puzzle. Sommes-nous sur le point de fermer les bords et de terminer le canevas ? Sommes-nous tout près de trouver le dernier ensemble de lois nécessaires pour décrire l’univers, nous donnant ainsi une compréhension et une capacité de prédiction illimitées ?

Lors de ces dernières dizaines d’années, nous avons découvert quelques tendances qui ne semblent pas nous aider à terminer le puzzle, mais qui paraissent plutôt l’agrandir. Ces concepts difficiles sont aujourd’hui acceptés comme des descriptions correctes de phénomènes naturels. Ce qui suit est une brève introduction et illustration de trois de ces concepts : les systèmes dynamiques, la complexité et le chaos.

Les systèmes dynamiques

Les premiers chercheurs dans pratiquement tous les domaines de la science considéraient que les choses de la nature étaient statiques et qu’elles ne changeaient pas. Les étoiles, par exemple, étaient des points de lumière fixés sur un « plafond » hémisphérique rotatif. Aujourd’hui, nous comprenons que les étoiles sont des corps immenses, complexes et dynamiques, se déplaçant à des vitesses fulgurantes dans des directions différentes, se réchauffant ou se refroidissant, explosant ou se contractant, entrant en collision ou s’éloignant les unes des autres. Les étoiles ne semblent statiques que parce que leurs changements sont lents comparés à l’échelle humaine.

Un autre exemple trompeur est celui de l’apparent état statique des os. On les compare parfois aux étais d’aciers logés dans les murs d’une construction. Leur fonction est d’apporter la rigidité nécessaire au corps pour se tenir droit. En dehors de cela, ils sont censés rester hors de vue et ne pas casser, ce qu’ils font en général. Mais leur similarité avec les poutres d’acier s’arrête là.

Les os sont un matériau composite, l’inspiration de nombreux matériaux de haute technologie fabriqués par l’homme. Les cristaux solides d’un sel de calcium sont encastrés dans une matrice de collagène élastique pour produire un matériau à la fois léger et solide. La fibre de verre — qui allie la force du verre à la souplesse du plastique — est un composite bien connu de fabrication humaine. On continue à inventer d’autres matériaux, comme les composites de graphite utilisés dans la fabrication des raquettes de tennis.

Ce qui est encore plus important que sa forme structurale, l’os est une structure vivante composée d’une communauté de cellules parcourue par de petits vaisseaux sanguins. Un type de cellule osseuse secrète le collagène élastique et contribue à la formation des cristaux à partir du calcium et du phosphate se trouvant dans les solutions environnantes. Un autre type de cellule osseuse décompose le collagène et dissout le cristal. Ces deux types de cellules fonctionnent dans différentes parties de l’organisme, un peu à la manière des rénovations urbaines. Les parties les plus anciennes de l’os sont démantelées dans certaines zones alors que d’autres sont construites ailleurs. Ces deux processus sont bien coordonnés de façon à ce que nous ayons toujours la quantité d’os qu’il nous faut pour nous soutenir. Des hormones venant d’autres parties du corps contribuent à la régulation de ce processus dynamique, et même des forces externes agissant sur l’os peuvent influencer les processus de brisure et de renouvellement.

Les poutres d’acier sont statiques et ne peuvent donc pas s’adapter à différents besoins ni se réparer elles-mêmes en cas de dégât. Par contre, des altérations subtiles dans les processus de croissance et de destruction peuvent changer les caractéristiques des os. Normalement, le taux de croissance est en mesure exacte avec le taux de destruction, mais si on augmente un tout petit peu le premier, l’équilibre penchera en faveur de la croissance, et la taille de l’os augmentera. Bien sûr, l’équilibre pourrait de la même manière pencher dans le sens de la destruction, comme on l’a observé lors de séjours spatiaux prolongés. L’élaboration de l’os étant guidée par les instructions internes des cellules, les os peuvent se réparer eux-mêmes en changeant l’équilibre pour augmenter la croissance dans certaines zones. De l’os tout neuf est déposé pour réparer les cassures, les os tordus peuvent se redresser graduellement, et ceux qui subissent davantage de pression peuvent devenir plus forts pour supporter la charge. En tant que systèmes dynamiques, les os sont ainsi plus versatiles et plus adaptables que des poutres statiques.

Les méthodes utilisées pour étudier les systèmes dynamiques sont aussi assez différentes de celles utilisées pour étudier des objets statiques. Pour ces derniers, les principaux travaux consistent en leur appellation, leur classification, et la mesure de leurs caractéristiques physiques comme leur taille, forme, couleur, etc. Les systèmes dynamiques exigent beaucoup plus de mesures et d’observations. Il est nécessaire de savoir comment ces systèmes se comportent dans différentes conditions et en réponse à des stimuli variés. En outre, il est difficile (sinon impossible) de résumer toutes les variations de comportement d’un système dynamique en quelques mots ou en quelques équations mathématiques. La méthode habituelle consiste à écrire des équations décrivant les rapports que les différents composants du système ont entre eux, mais il peut être très difficile de prédire comment se comportera le système dans son ensemble.

Les systèmes dynamiques sont donc des combinaisons de composants interactifs, et leurs caractéristiques intéressantes viennent des changements de relations entre eux. Une force s’équilibre avec d’autres, et le nouvel équilibre signifie un nouveau comportement. Une fois que nous reconnaissons la nature des systèmes dynamiques, il devient plus clair que nous en sommes entourés. Depuis les cellules microscopiques jusqu’à l’écologie mondiale, nous voyons des forces complexes et des processus groupés ensemble et agissant les uns sur les autres. Au lieu d’un univers fixe, nous en discernons un qui se caractérise par l’interaction, le changement, la variation et la réaction.

La complexité

Quelqu’un a dit que les sciences « pures » — les sciences mathématiques — ont réussi parce qu’elles ont cherché et trouvé des choses simples à étudier — suffisamment simples pour être décrites par les outils mathématiques disponibles, comme les lois newtoniennes. Les manuels de sciences physiques, par exemple, sont remplis d’exercices supposant des mouvements dépourvus de toute friction. Les auteurs de ces manuels savent que nous devons, dans la vie réelle, vivre avec la friction, mais les outils mathématiques pour faire des prédictions sont limités. C’est pourquoi les situations réelles n’ont pas été traitées très à fond. Lors de ces dernières dizaines d’années, les ordinateurs ont multiplié les outils mathématiques disponibles, permettant aux scientifiques de travailler et de réfléchir sur des systèmes bien plus complexes. Les scientifiques de toutes les branches incluent maintenant plus de réalisme dans leurs études, au lieu de se limiter à une situation idéale qu’ils savent trop simplifiée. En fait, une nouvelle branche de la science se concentre sur la complexité elle-même.1

Considérons par exemple les cellules musculaires qui forment le cœur et lui font pomper le sang. Fonctionnellement, ces cellules sont de petits « moteurs » qui utilisent l’énergie tirée de la nourriture pour que le cœur se contracte et pompe le sang à travers les artères, les capillaires et les veines. La technologie des moteurs mécaniques est bien développée, mais elle n’aide pas beaucoup à comprendre les cellules du cœur, parce que celles-ci fonctionnent à partir de principes bien différents.

Dans la cellule du cœur, la force contractile est générée par de grosses molécules avec des attractions électriques. La façon dont ces molécules génèrent de la force et du mouvement est déjà assez intéressante et complexe, mais ce n’est que le commencement de la description du fonctionnement de ce muscle. Les cellules contractiles sont maintenues en place par une matrice élastique et par les membranes extérieures des cellules. La membrane extérieure sépare le fluide à l’intérieur de la cellule du fluide extérieur, et elle remplit plusieurs fonctions, dont la régulation de l’environnement fluide autour des cellules contractiles et la coordination de la contraction du grand nombre de cellules qui forment le cœur. A l’intérieur de la cellule, le nombre de molécules de toutes sortes doit rester constant pour que les forces osmotiques ne rétrécissent pas la cellule, ou ne la fassent pas gonfler et se déchirer. L’énergie nécessaire à la contraction doit être puisée dans le glucose circulant dans le fluide extérieur, et convertie en une forme utilisable par les molécules contractiles. L’oxygène nécessaire à la distribution de l’énergie doit être absorbé, et la cellule doit être débarrassée du dioxyde de carbone et autres produits de combustion. Les ions de calcium qui lancent la contraction doivent être déplacés au sein de la cellule, et leur quantité doit être contrôlée de près. Enfin, chaque cellule doit communiquer avec ses voisines pour savoir quand se contracter, afin que le muscle cardiaque, dans son ensemble, fonctionne en pompe efficace.

De grandes molécules parcourent la paroi de la membrane cellulaire de la cellule musculaire pour faire rentrer et sortir les molécules, faisant fonctionner tous ces processus. On connaît au moins une douzaine de types de molécules de transport dans les membranes cellulaires du cœur, et d’autres sont sans doute encore à découvrir. Chacune d’entre elles est semblable à une usine en miniature avec de nombreuses phases dans le processus qui fait entrer et sortir les molécules. Les molécules de transport ne travaillent pas indépendamment, mais elles sont affectées par les résultats de toutes leurs pareilles et par d’autres facteurs de leur environnement. Conséquemment, elles sont bien reliées les unes aux autres pour former un système vaste et complexe.

Ainsi la microscopique cellule cardiaque — trop petite pour être vue à l’œil nu — est un système d’une complexité incroyable avec de nombreux éléments agissant entre eux, chacun étant hautement complexe en soi. On ne peut pas prédire le comportement d’une cellule cardiaque en ajoutant simplement tout ce que nous savons sur ses composants individuels (des molécules complexes). Il est nécessaire de connaître à la fois le comportement de ses composants et comment ils réagissent les uns sur les autres en tant que « communauté ». Ce n’est qu’avec des ordinateurs très puissants qu’il est possible ne serait-ce que de commencer à comprendre comment un tel système fonctionne,2 et les ordinateurs les plus puissants d’aujourd’hui sont loin de pouvoir traiter tout ce que nous savons sur les cellules cardiaques.

Le cœur, bien sûr, n’est qu’une partie du système circulatoire, le système circulatoire n’est qu’un seul des systèmes d’organes du corps, et une personne n’est qu’une petite partie de la société. Comprendre un seul système complexe est déjà assez difficile, mais il semble que la nature soit faite d’une hiérarchie sans fin de systèmes reliés et agissant entre eux. Nos outils mathématiques (y compris les ordinateurs) se débattent pour traiter avec un ou deux niveaux de cette hiérarchie en même temps, mais ils sont complètement inadaptés à leur ensemble.

Le chaos

Les scientifiques ont vécu de l’étude des comportements réguliers. Mais tout ce que nous voyons n’est pas normal ; et il n’est pas possible de tout reproduire. Il semblait inutile d’étudier les comportements irréguliers puisque le but premier de la science est de trouver des régularités. A cause de cette façon de voir, ce n’est qu’un quart de siècle en arrière qu’il a été possible de découvrir le « chaos » comme principe scientifique, quand Robert May s’est mis à réfléchir sur des systèmes produisant des résultats imprévisibles.

May étudiait les lois de la démographie, et comment les populations changent en nombre d’une génération à l’autre. Si chaque personne d’une première génération donne naissance à deux autres dans la suivante (une relation représentée par une équation mathématique très simple), le résultat est une explosion de la croissance qu’on a appelée malthusienne, du nom de celui qui fut le premier à étudier les mathématiques d’une telle croissance. Une légère modification de l’équation de croissance de base donne l’équation logistique, avec une croissance limitée. May programma l’équation logistique dans son ordinateur et étudia comment elle se comportait quand il changeait le taux de croissance (nombre moyen d’enfants par parent). Avec des valeurs du taux plus petites, l’équation prévoyait une population de taille solide. Une valeur du taux un peu plus élevée, et la population oscillait régulièrement — entre des valeurs petites et grandes. Un taux un peu plus élevé et l’oscillation allait soudainement deux fois plus vite. Une valeur du taux encore plus grande et... chaos : les valeurs de population changeaient de façon irrégulière sans aucune tendance visible.

Les mathématiciens avaient constaté des comportements chaotiques dans les équations mathématiques avant les années 1970, mais May était le premier à mettre en rapport le chaos mathématique avec le monde réel. Les résultats furent stupéfiants car ils dévaluaient l’un des dogmes fondamentaux de la science : on considérait que les équations mathématiques étaient la meilleure expression des principes de la nature, et les équations mathématiques décrivant des systèmes naturels devaient être solvables, peu importe qui faisait le calcul ou combien de fois on le répétait. Car, après tout, c’est là l’utilisation fondamentale des mathématiques dans les sciences — rendre les prédictions précises, et possibles à répéter. May a montré que des équations écrites pour décrire des processus naturels peuvent, dans certaines circonstances, donner des résultats imprévisibles. Depuis sa découverte, le comportement chaotique a été constaté dans de nombreux domaines comme l’épidémiologie, le rythme cardiaque, les cycles financiers et l’écoulement des liquides.3

La découverte de May a eu deux résultats importants. Tout d’abord, les scientifiques ont vu qu’ils ne pouvaient plus ignorer les phénomènes montrant des tendances irrégulières et impossibles à répéter. Ensuite, on s’est rendu compte que même si on écrit des équations mathématiques correctes pour décrire un système naturel, même si on peut résoudre ces équations, on ne pourra peut-être pas utiliser ces solutions dans le but pratique de la prévision parce que les résultats auront un comportement irrégulier ou chaotique. Un exemple est le problème très frustrant des prévisions météorologiques à long terme.

Conclusion

Le fait de comprendre les trois concepts décrits ci-dessus — l’omniprésence des systèmes dynamiques et complexes et du chaos — a aidé les mathématiciens à reconnaître les limites de la méthode scientifique et un champ bien plus étendu pour les mathématiques. Les scientifiques ne s’attendent plus à pouvoir décrire tous les phénomènes en employant quelques lois exprimées sous forme mathématique. Même si on arrivait à une formulation unifiée des forces et de la substance de la nature, des considérations pratiques comme les limites de nos outils mathématiques et la puissance de nos ordinateurs, ainsi que la possibilité du chaos, limitent les prévisions qui pourraient être faites. Tout en continuant à le remplir, nous devons reconnaître que nous ne travaillons que sur un petit coin du puzzle de la nature, et que l’espoir d’y mettre la dernière pièce est hors de notre portée.

Les trois concepts décrits précédemment offrent aussi à celui qui croit en un Dieu créateur de nouvelles occasions d’amplifier sa compréhension. Si ces principes s’appliquent à la nature, alors ils sont — dans un sens — des caractéristiques de Dieu lui-même. Nous pouvons nous y attendre dans ses relations avec les êtres humains. Instruits par notre expérience avec les systèmes dynamiques, par exemple, nous pourrions nous attendre à un Dieu qui peut adapter et ajuster ses réactions afin de communiquer avec les êtres humains dans des conditions très variées. On pourrait le décrire comme un Dieu qui ne change pas dans ses principes relationnels, tout en pouvant s’adapter aux besoins des hommes, qui changent avec le temps.

J. Mailen Kootsey (Ph.D., Brown University) est vice-président de l’administration académique à Andrews University. Il aime étudier des systèmes biologiques complexes avec simulations sur ordinateur. Son adresse : Andrews University ; Berrien Springs , MI 49104 ; U.S.A.

Notes et références

1.   W. Mitchell Waldrop, Complexity: The Emerging Science at the Edge of Order and Chaos (New York : Touchstone, 1992).

2.   H. R. Pagels, Dreams and Reason : The Computer and the Rise of the Sciences of Complexity (New York : Simon and Shuster, 1988).

3.   J. Gleick, Chaos : Making a New Science (New York : Penguin Books, 1987). Discussions précédentes de la théorie du chaos dans cette revue : Kevin C. de Berg, « Un univers à l’abandon ? Ordre et hasard dans la nature et l’Ecriture », Dialogue 2 : 3 (1990), p. 10-12 ; et David Thomas avec Paul F. Barcenas : « Le chaos : creuset de la création », Dialogue 4: 3 (1992), p. 12-15.


Site

S'abonner