Overblog Suivre ce blog
Administration Créer mon blog
26 février 2010 5 26 /02 /février /2010 16:32

Antimatière

 

Au seuil de l’antimonde

 

 

bang

 


Grande première au Cern de Genève : les physiciens viennent d’assembler des antiélectrons et des antiprotons pour former les neuf premiers anti-atomes d’hydrogène. L’aboutissement d’une longue quête. Et l’amorce de la réponse à une question clé : l’antimonde respecte-t-il les mêmes lois que notre monde ? On savait qu’au moment du big bang, il existait dans l’Univers autant de matières que d’antimatière. Mais justement la nature a choisi la première.

 

 

Pourquoi ? Comment ? L’expérience du Cern va permettre de mieux le comprendre. Du coup, on se prend à imaginer l’impossible : ira-t-on demain visiter les étoiles, à bord de vaisseaux propulsés par l’antimatière ? Ce « carburant » très spécial ne manque pas d’arguments. Et fait déjà rêver quelques ingénieurs…

 

I – Ils ont créé des anti-atomes

 

On connaissait déjà les antiparticules. Les physiciens viennent d’assembler des anti-électrons et des anti-protons pour former les premiers anti-atomes d’hydrogène. L’aboutissement d’une longue quête. Et une étape décisive dans la compréhension de l’Univers.

 

Neuf anti-atomes ont vécu, l’espace de quelques milliardièmes de seconde, à l’intérieur d’un accélérateur du CERN (le Centre européen de recherche sur la physique des particules). Ces anti-atomes d’hydrogène, les premiers créés par l’homme, sont-ils les seuls de l’Univers ? Ou bien ont-ils, quelque part, des frères naturels que nous ignorons, au sein d’un anti-monde, symétrique du nôtre, qui n’a jamais laissé entrevoir le moindre signe de son existence ? Mystère. En un sens, le plus extraordinaire n’est pas qu’on ait réussi à fabriquer de l’antimatière, c’est bien qu’il n’y en ait pas davantage !

 

Première apparition dans une équation en 1931

 

Car les lois de la physique sont symétriques. Et l’on voit mal pourquoi elles auraient façonné un monde unilatéral uniquement composé de matière. L’antimatière a d’abord été une théorie avant d’être matérialisée en laboratoire. C’est dans une équation qu’elle a fait sa première apparition, en 1931. En ces décennies 20 et 30, qui furent l’âge d’or de la physique contemporaine, chaque année apportait sa moisson de nouvelles particules et de découvertes « révolutionnaires » sur la structure de l’atome. La toute nouvelle théorie quantique révélait le comportement étrange et paradoxal de ce monde microscopique.

 

 chaosgaia

 

 

Un jeune mathématicien britannique, Paul Dirac (1902-1984), cherchait alors à décrire mathématiquement le comportement des électrons, en conciliant les deux grands principes de la physique moderne : la théorie quantique et la relativité restreinte d’Einstein (qui s’applique aux objets dont la vitesse est proche de celle de la lumière). Dirac voulait en fait généraliser l’équation quantique de l’électron, de sorte qu’elle s’applique aussi à un électron très rapide, « relativiste » comme disent les physiciens. Il trouva effectivement une magnifique équation, à la fois quantique et relativiste, qui, de surcroît, faisait apparaître spontanément, comme par miracle, des propriétés de l’électron qu’on avait mesurées par l’expérience.

 

Pourtant, cette équation souffrait d’une incohérence apparente : elle admettait deux solutions, l’une décrivait un électron « normal », l’autre semblait correspondre à une particule d’énergie négative. Ce qui est rigoureusement impossible, car, si l’énergie était négative, la matière, qui tend à avoir l’état d’énergie le plus bas possible, s’effondrerait sur elle-même. De plus, un électron d’énergie négative serait affublé d’une fréquence négative (en physique quantique, toute particule est associée à une onde, dont la fréquence est proportionnelle à l’énergie de la particule. Ce qui revient à dire qu’il remonterait le temps ! Or, la relativité repose sur un principe intangible : la cause doit toujours précéder l’effet. Dans ce cadre, le renversement du temps, qui implique que l’effet précède la cause (le film passant à l’envers), est inacceptable.

 

Malgré ces apparentes contradictions, Dirac ne voulait pas abandonner son équation, par ailleurs si satisfaisante. Aussi proposa-t-il une autre interprétation, qui retournait la situation. Une particule d’énergie négative remontant le temps est mathématiquement équivalente à une particule d’énergie positive parcourant le temps dans le bon sens, qui aurait la même masse mais une charge électrique opposée : un électron de charge positive et non plus négative, autrement dit un anti-électron.

 

Moins d’un an plus tard, en étudiant le rayonnement cosmique, l’Américain Carl Anderson – qui ignorait tout de l’audacieuse hypothèse de Dirac – observe sur un cliché de détecteur la trace d’une particule inconnue. Sa courbure, dans le champ magnétique de la chambre, désignait une particule positive, mais de masse égale à celle d’un électron : c’était l’anti-électron (également appelé positron, ou encore positon) prédit par Dirac ! En fait, cette particule étrange était issue d’un rayon cosmique qui, en entrant en contact avec les atomes de l’atmosphère, avait « matérialisé » une partie de son énergie en une paire électron-positron. En effet, les rares antiparticules naturelles qu’on observe sur Terre sont des produits « secondaires » des particules cosmiques.

 

Toute particule possède une antiparticule

 

Plus tard, généralisant son équation, Dirac montrera que, dans le cadre d’une théorie à la fois quantique et relativiste, la matière doit nécessairement posséder une image symétrique. Autrement dit, toute particule admet une antiparticule dont toutes les charges sont opposées. Les charges et pas seulement la charge électrique ! Si cette dernière est bien connue, les autres « charges » sont des propriétés purement quantiques (agissant au niveau microscopique), qui déterminent l’identité de chaque particule, mais n’ont pas de traduction dans le monde qui nous est familier (macroscopique).

 

Ainsi, de même que la charge électrique définit la façon dont la particule réagit vis-à-vis de la force électromagnétique, les autres charges (appelées isospin, charge de couleur, hypercharge…) caractérisent la particule vis-à-vis d’autres interactions, cantonnées au niveau microscopique. Ainsi, bien que le neutron soit électriquement neutre, il existe un antineutron dont le moment magnétique est inversé par rapport à celui du neutron. En revanche, le photon n’a pas d’antiparticule, ou, plus exactement, il est lui-même sa propre antiparticule, car toutes ses charges sont nulles. Jusqu’à présent, la règle s’est toujours vérifiée : toute particule connue possède bien une antiparticule.

 

Des milliards de collisions en trois semaines

 

Depuis la découverte de l’antiproton, en 1955, l’antimatière s’est banalisée, puisque les physiciens ont appris à la fabriquer (par des chocs de particules), à la récupérer et à l’utiliser sous forme de faisceaux pour provoquer de nouvelles collisions. Plusieurs collisionneurs électrons-positrons ont ainsi été construits à travers le monde, le plus puissant étant le LEP du CERN. Car les antiparticules ont un grand avantage pratique : elles permettent de réduire de moitié les systèmes d’accélération électrique et de guidage magnétique des collisionneurs. En effet, les électrons et les positrons ayant des charges électriques opposées, un unique champ électrique et un unique champ magnétique imposent aux deux faisceaux des trajectoires rigoureusement inversées.

 

Poursuivant un objectif analogue, le physicien néerlandais Simon Van der Meer trouva le moyen, en 1975, de réaliser des faisceaux denses d’antiprotons, ce qui permit de transformer un cyclotron du CERN en collisionneur protons-antiprotons. C’est dans ce collisionneur qu’une équipe internationale dirigée par Carlo Rubbia découvrit, en 1983, les bosons W et Z (particules qui véhiculent la force faible). L’année suivante, cet exploit expérimental valut au physicien italien un prix Nobel partagé avec Van der Meer.

 

 taillet intro

 

La production de ces antiparticules « libres » étant maîtrisée, il restait à découvrir, ou à fabriquer, des antiatomes, c’est-à-dire de l’antimatière au vrai sens du terme. L’exploit vient d’être accompli, au CERN, par vingt-trois physiciens allemands et italiens réunis, sous la houlette de Walter Oelert, autour de l’accélérateur LEAR (Low Energy Antiproton Ring). Des antiprotons ont rencontré des antiélectrons, pour donner naissance à neuf antiatomes d’hydrogène. Le principe est très simple, l’expérience plus délicate.

 

Dans le cyclotron LEAR, un carré aux coins arrondis de 20 m de côté, un milliard d’antiprotons effectuent trois millions de tours par seconde. On injecte sur leur trajet un fin jet de gaz xénon : à chaque tour, quelques antiprotons rencontrent des noyaux de xénon, et il arrive – très rarement – qu’une partie de l’énergie du choc se matérialise en paire électron-positron.

 

Quand, de plus (par bonheur…), la différence entre la vitesse du positron et celle de l’antiproton est suffisamment faible, ces deux antiparticules parviennent à s’unir pour former – enfin – un antiatome d’hydrogène. Celui-ci poursuit sa route en ligne droite sans  être dévié par les aimants, car, tout comme un atome ordinaire, il est électriquement neutre. Il aboutit, 10 mètres et 40 milliardièmes de seconde plus loin, sur une plaque de silicium. La rencontre avec la matière lui est fatale : il s’annihile instantanément.

 

C’est cette double désintégration d’un antiélectron et d’un antiproton, mesurée par deux détecteurs, qui prouve la création d’un antiatome. Les milliards de collisions enregistrées en trois semaines d’expérience ont donné naissance à neuf antiatomes d’hydrogène. C’est ce qu’affirment Oelert et son équipe, après avoir minutieusement vérifié, pendant trois mois, les calculs et les enregistrements. Même si, en raison de l’importance du bruit de fond, certains de leurs collègues doutent de la valeur du résultat…

 

Une anti-pomme tomberait-elle de son anti-arbre ?

 

Mais on ne crée pas des antiatomes pour le plaisir de relever un défi. Ou pas seulement. L’objectif réel, primordial, est de vérifier si la symétrie la plus fondamentale de toute la physique, dite CPT, est toujours respectée « Pourquoi le monde a vaincu l’antimonde ». Il s’agit de répondre à des questions de fond : les antiatomes se comportent-ils bien comme des atomes vis-à-vis de la gravitation ? Une anti-pomme tomberait-elle de son anti-arbre ? Pour le vérifier, neuf antiatomes d’hydrogène éphémères ne suffisent pas, on aurait besoin de milliards d’antiatomes stables.

 

En fait, les espoirs se tournent vers une autre voie, explorée en particulier par Gerald Gabrielse, de l’université Harvard, la création d’antimatière « froide ». Ainsi, le physicien américain parvient déjà à conserver des antiprotons à – 269° C pendant des semaines, dans un « piège » magnétique. On sait également mettre des positrons en « bouteille ». Reste le plus difficile : verser le contenu de la bouteille dans l’autre !

 

II – Pourquoi le monde a vaincu l’antimonde

 

Au départ, il y a le big bang. A ce moment, il existe dans l’Univers autant de matière que d’antimatière. La nature choisira la première. Pourquoi ? Comment ? La science commence à le comprendre…

 

 610-00300-04HIGH

 

 

S’il est une énigme qui a longtemps hanté le sommeil des astrophysiciens, c’est bien celle de l’antimatière. Son absence les dérangeait : ils avaient beau la chercher dans les recoins les plus éloignés de l’univers visible, ils n’arrivaient pas à mettre la main dessus. Or, cette absence mettait à mal les théories les plus cohérentes sur l’origine de l’Univers. Jusqu’à récemment, l’astrophysique ne parvenait pas à expliquer qu’il puisse y avoir de la matière sans qu’il existe une quantité égale d’antimatière…

 

Mais, grâce à une intuition géniale du théoricien soviétique de l’antimatière Andreï Sakharov (ou plutôt du théoricien antisoviétique de la matière), les scientifiques sont aujourd’hui en passe de résoudre l’énigme. La création, au CERN, du premier atome d’anti-hydrogène va confirmer – ils l’espèrent – leurs hypothèses. Essayons de comprendre pourquoi.

 

Quoi de plus naturel, lorsqu’on croque une pomme, de se dire que plus on en mange, moins on en a, autrement dit qu’on réduit la pomme d’une quantité égale à celle du morceau qu’on a croqué. Cette expérience a beau être intuitive, elle n’en porte pas moins un nom savant : le principe de symétrie. Celui-ci veut que ce qui disparaît ici – dans la pomme – apparaisse là – dans la bouche -, de sorte que se conserve toujours la même quantité de matière. Pourtant, l’astrophysicien se méfie de ce principe, et il n’a pas tort. Car ce qui fait que nous existons, c’est justement la violation de la symétrie. Bref, l’Univers doit son existence à un drôle de principe qui veut qu’une pomme qu’on croque demeure toujours entière.

 

Un exemple : selon l’hypothèse la plus vraisemblable aujourd’hui, l’Univers a eu un commencement, c’est la théorie du big bang. Bien qu’il soit impossible de parler d’un « avant big bang » - car celui-ci marque le début de l’espace et du temps -, on s’accorde à dire qu’au moment du big bang il y a eu création de matière à partir de rien ou plus exactement à partir du vide ! Heureusement, la physique quantique, celle qui s’occupe de l’infiniment petit, a réussi à expliquer ce phénomène sans porter atteinte au principe de symétrie, grâce au paradigme matière-antimatière.

 

En effet, s’il se crée dans le vide une particule de matière, il faut que simultanément se crée son antiparticule : le volume de « vide » dans la pomme doit être le même que le volume de pomme qu’on a croqué. Le principe de symétrie est sauvé. Mais comment le vide peut-il engendrer quelque chose ? Suivant la physique quantique, quelle que soit la situation, une probabilité constamment nulle n’existe pas. Ce qui veut dire qu’il ne peut y avoir de vide total tout le temps.

  

 91abstract 3d 04-m332

 

 

Le vide quantique est donc non pas le néant mais un lieu où il n’y a pas de particules réelles. Il est le siège de fluctuations d’énergie. Reprenons le scénario classique du big bang : c’est d’une immense fluctuation quantique du vide qu’est né un intense rayonnement (les photons), dégageant une chaleur de l’ordre de 1032 degrés ! L’énergie de fluctuation s’est changée en énergie rayonnante.

 

Comme l’a expliqué Einstein, au début du siècle, l’énergie peut se transformer en matière et vice-versa (la fameuse équation E = mc²). Voilà donc des milliards de photons super-énergétiques qui se muent en particules et en antiparticules antagonistes (surtout des quarks, mais aussi des électrons… avec leurs antiparticules) suivant la théorie élaborée par Dirac en 1931. Elles s’annihilent à nouveau pour donner des photons – car lorsqu’une particule rencontre son antiparticule, elles se désintègrent mutuellement en produisant un feu d’artifice de lumière. Pendant ce temps, la température chute, du fait de l’expansion de l’Univers : ce magma de rayonnement, matière et antimatière, se répand dans toutes les directions.

 

Dans les années 60, les physiciens pensaient que, puisque au début il y a du vide, il faut que l’union de toutes les particules et antiparticules créées redonne du vide, toujours pour respecter le principe de symétrie. Bref, à ce moment de l’histoire de l’Univers, on trouve autant d’antiparticules que de particules. La suite de l’histoire était la suivante : plus la température baisse, plus les photons ont du mal à se transformer en couples de particules antagonistes puisqu’ils perdent de l’énergie. L’expansion rend plus rare la rencontre – donc l’annihilation – des particules et de leurs antiparticules. Selon cette hypothèse, simple, la séparation de la matière et de l’antimatière expliquerait l’existence de l’Univers.

 

On aurait pu s’en tenir à ce scénario à condition de « retrouver » l’antimatière censée être née avec la matière. Où est-elle passée ? Telle était la question. Hélas, les observations ne fournirent pas la réponse : notre galaxie et les galaxies environnantes sont constituées de matière pure !

 

 601-00100-05high

 

 

L’astrophysicien suédois Hannes Alfvén, prix Nobel de physique 1970, émit l’hypothèse légèrement différente : l’Univers est bien constitué de matière et d’antimatière en quantités égales, mais isolées, car se repoussant comme l’huile et l’eau. Il existerait alors, quelque part dans l’Univers, une « frontière d’annihilation » trop éloignée pour que nous puissions l’observer.

 

Comment justifier une telle hypothèse ? A priori, les particules de matière et d’antimatière s’attirent. On observe depuis longtemps ce phénomène dans les accélérateurs de particules. Mais cette attraction est surtout de nature électromagnétique, car leurs charges électriques sont opposées. Cependant, on ne sait quel rôle joue dans cette attraction la force de gravité, celle qui est en jeu dans les grandes structures de l’Univers. Les lois de la gravitation universelle – énoncées par Newton et élargies par Einstein dans la relativité générale – veulent que deux corps solides s’attirent d’autant plus intensément que leur densité est grande. C’est notamment la raison pour laquelle nous restons les pieds sur Terre.

 

La Lune, elle, est six fois moins dense que la Terre. Son attraction est donc six fois moins importante : les sauts de « sept lieues » des astronautes américains d’Apollo 11 sur la surface de la Lune l’illustrèrent de belle façon. Toujours est-il qu’on ne sait pas si cette loi d’attraction est valable pour l’antimatière. En effet, entre les particules et les antiparticules obtenues jusqu’à présent dans les accélérateurs, l’attraction électromagnétique masquait l’attraction gravitationnelle (moins forte à cette échelle).

 

L’obtention d’atomes d’anti-hydrogène (de charge électrique nulle) au CERN pourrait permettre d’observer l’interaction gravitationnelle avec des atomes d’hydrogène. Si la matière et l’antimatière se repoussent gravitationnellement, alors l’hypothèse d’un monde séparé d’un antimonde par une frontière est plausible. Mais l’existence d’une telle « répulsion gravitationnelle » est fortement improbable. Comme nous l’indique le physicien Alain Bouquet, du laboratoire de physique corpusculaire du Collège de France, « imaginer un effet répulsif de nature gravitationnelle contredirait l’une des hypothèses de base de la relativité générale, qui veut que tout corps plongé dans l’espace produise un effet d’attraction (principe d’équivalence), et cela vaut aussi bien sûr pour l’antimatière ».

 

La relativité générale, qui, depuis plus de soixante-dix ans, n’a pas rencontré de contradiction expérimentale, a donné à l’Univers un cadre théorique très cohérent. Il y a peu de chances qu’elle soit contredite. De ce côté-là, c’est donc l’impasse… même si quelques astrophysiciens francs-tireurs n’ont pas perdu espoir.

 

Parallèlement à cette théorie de l’existence de deux antimondes séparés, Andreï Sakharov émit, en 1967, une hypothèse qui s’intégrait parfaitement au modèle du big bang : grâce aux fluctuations d’énergie (mécanisme décrit plus haut), le vide a engendré autant de matière que d’antimatière, mais c’est pendant le refroidissement et l’expansion de l’Univers que la nature a opté pour la matière. L’antimatière n’y existe donc plus. Sakharov expliquait ce « choix arbitraire » de la nature par ce qu’il a appelé la « brisure de la symétrie ». Et nous voilà revenus au problème de symétrie !

 

443145a-i1 0

 


Les physiciens disposent en effet d’un très beau théorème mathématique qui permet de garder leur hypothèse dans le droit chemin de la science. D’après celui-ci, toute théorie physique doit respecter certains principes, notamment ne pas engendrer de contresens logique du type « la conséquence précède la cause ». Ainsi, une théorie qui aurait pour conséquence qu’une pièce soit éclairée avant que la lumière soit réellement allumée serait immédiatement écartée.

 

Ce théorème fut démontré dans les années 40. Sous son appellation quelque peu barbare de « théorème CPT » se cache un concept simple : un événement à l’échelle des particules peut se produire dans la nature si l’événement opposé peut également survenir avec la même probabilité. En d’autres termes, les équations doivent rester valables si on remplace la charge de la particule par sa charge opposée (C), si on inverse la distribution spatiale (P) – comme si on regardait la particule dans un miroir -, si on inverse enfin le déroulement du temps (T), c’est-à-dire si on change le paramètre t en – t.

 

Un exemple plus concret : si l’on provoque un choc violent entre un proton et un électron, on obtient un neutron et un neutrino. Imaginons qu’on filme cet événement. On le projette ensuite en sens inverse (symétrie T), on le regarde dans un miroir (symétrie P) en ayant au préalable « trafiqué » la pellicule afin d’inverser les charges des particules (symétrie C). Cette nouvelle version du film montrerait un antineutron et un antineutrino se heurtant pour donner naissance à un antiproton et à un antiélectron. Si cet événement-là se produit dans un accélérateur de particules avec la même fréquence que le premier, alors la théorie est cohérente.

 

Mais un risque de contresens surgit lorsqu’on s’évertue à interpréter le théorème CPT. Le fait de changer t en – t (symétrie T) veut-il dire que les particules remontent le temps ? La symétrie P signifie-t-elle qu’elle existe une anti-Terre qui serait l’image de la Terre donnée par un miroir, peuplée d’antihumains en majorité gauchers ? Le théorème laisserait-il présager qu’un vaisseau spatial utilisant de l’antimatière en guise de carburant pourrait, comme dans la série Star Trek, remonter le temps ou dépasser la vitesse de la lumière ? C’est là que la science-fiction se substitue à la science pure.

 

Toujours est-il que les scientifiques ont rencontré les pires difficultés avec leur théorème CPT. Bien que la symétrie CPT ne soit pas remise en question, cela n’implique pas que C, P et T soient isolément symétriques. De fait, il n’en est rien ! Un beau puzzle peut être formé de morceaux disgracieux. En 1956, l’expérience de trois chercheurs de l’université de Columbia (Caroline du Sud), Lee, Yang et Wu, montra que la symétrie P pouvait être dans certains cas violée. Ils mirent en évidence que, dans la désintégration du cobalt, les particules émises ont une préférence pour certaines directions spatiales. Bref, la nature distingue la droite de la gauche !

 

D’autres expériences menées sur des « kaons neutres » (particules fort rares, réclamant de très fortes énergies pour être créées dans les accélérateurs) prouvèrent que la symétrie C était aussi violée. Enfin, en 1964, deux chercheurs américains, James Cronin et Val Fitch, et un chercheur français, René Turlay, montrèrent que ces mêmes kaons neutres violaient également la symétrie CP (ce qui valut à Cronin et à Fitch le prix Nobel de physique en 1980 – Turlay ayant été jugé trop jeune pour une telle distinction).

 

Ces travaux permirent à Sakharov d’émettre l’hypothèse en accord avec le modèle du big bang : si la symétrie CP pouvait être violée en laboratoire, pourquoi ne pas supposer qu’elle aurait pu l’être dans le mégalaboratoire des origines de l’Univers ? Surtout si cette théorie permettait d’expliquer pourquoi la nature avait préféré la matière à l’antimatière ! Depuis l’intuition du savant soviétique (par ailleurs prix Nobel de la paix 1975), l’idée a fait son chemin et s’est parée des beaux habits de la cohérence.

 

 trou noir

 

 

Voici donc le scénario complet : au tout début  de l’Univers, au moment de la grande explosion, le vide engendre un fort rayonnement de photons. Ces photons – qui sont leurs propres antiparticules – possèdent une énergie si élevée (1019 GeV) qu’ils peuvent facilement se décomposer en deux bosons opposés, X et anti X. Là est la grande trouvaille. Les bosons sont des particules qui matérialisent les forces de la nature (électromagnétique, faible, forte et de gravitation). C’est la théorie de grande unification (GUT) : plus on remonte dans le temps près du big bang, plus les quatre forces s’unissent pour n’en faire qu’une.

 

Au moment qui nous intéresse, entre 10-35 et 10-30 seconde, il n’existe que deux forces : la force gravitationnelle et la force unifiée électro-faible-forte. Comme chaque photon se décompose en un X et un anti-X, il y a exactement autant de matière que d’antimatière : la symétrie demeure. Les bosons X et anti-X, porteurs de la triple force unifiée, donnent naissance à de la matière (quarks et électrons) et à de l’antimatière (antiquarks et antiélectrons), dans une proportion légèrement plus forte pour la matière. Ils violent ainsi la symétrie CP. Mais, à cette température (plus de 1028 degrés), la réaction est réversible : la matière et l’antimatière se condensent à nouveau en bosons X et anti-X, recréant la symétrie.

 

Mais, nouveau problème, la température se met à décroître très vite du fait de l’expansion de l’Univers. Vers 10-30 seconde, elle n’est plus que de 3.1027 degrés. Les bosons X et anti-X peuvent se décomposer en matière et antimatière, mais celles-ci ne peuvent plus se recomposer en bosons et anti-bosons. Or, comme les X et les anti-X ont une prédilection pour la matière, la symétrie est irrévocablement brisée… A peine 1 particule de plus pour 1 milliard de couples particule-antiparticule. Mais ce milliardième de matière supplémentaire suffira à engendrer l’Univers actuel, galaxies, étoiles, planètes, êtres vivants.

 

Les hommes aiment se raconter des histoires qui finissent bien. Ce scénario, en harmonie avec le big bang, est pour l’instant le plus vraisemblable. Cependant, rien ne dit qu’un autre synopsis ne viendra pas le reléguer un jour au rang des contes de fées scientifiques. En attendant, les astrophysiciens ont recouvré le sommeil.






                    
                   
       
 

III – Du carburant pour visiter les étoiles

 

Et si on explorait les étoiles ? Aujourd’hui, c’est impossible. Demain, pourquoi pas, avec le seul « carburant » que la science nous propose : l’antimatière. Quelques ingénieurs en rêvent déjà…

 

 605-00115-01high

 

 

Aussi incroyable que cela paraisse, la navette spatiale américaine pourrait atteindre Proxima du Centaure, l’étoile la plus proche du Soleil (4,3 années-lumière), en moins de dix ans. Ses réacteurs lui procurant une accélération de 1,7 fois l’attraction terrestre, il suffirait de la faire fonctionner à plein régime pendant un peu plus de deux mois. A un détail près : en dehors des problèmes de fiabilité du matériel, le simple poids de carburant nécessaire à un tel exploit la clouerait au sol, qu’elle n’arriverait jamais à quitter…

 

Et ce n’est pas le seul obstacle : pour atteindre Proxima du Centaure en moins de dix ans, on doit se propulser à une vitesse moyenne proche de la moitié de celle de la lumière (150.000 km/s). On se heurte alors aux lois relativistes d’Albert Einstein. Celles-ci n’imposent pas seulement une vitesse limite à toute chose dans l’Univers, mais alourdissent la masse de tout engin flirtant avec ces records. Ce qui signifie qu’on doit injecter encore plus d’énergie dans les réacteurs, à mesure qu’on veut gagner ne serait-ce qu’un petit supplément de vitesse. Par exemple, alors qu’on file aux trois quarts des fatidiques 300.000 km/s, la masse augmente de 50%. A ce stade, accroître la puissance de la poussée n’apporte presque plus rien.

 

Fission ou fusion ?

 

Ces limitations obligent le concepteur à maintenir au strict minimum le poids de départ du vaisseau spatial. Pour donner un ordre d’idée, propulser le plus petit vaisseau habité jusqu’au tiers de la vitesse de la lumière réclamerait la puissance produite pendant plusieurs années par toutes les centrales électriques terrestres ! On peut bien sûr imaginer des plans de science-fiction de longue durée, comprenant la construction de centrales énergétiques spatiales, d’usines en orbite, de mines sur des astéroïdes, sans oublier les stations spatiales destinées au logement des mineurs.

  

 troudever

 

 

On pourrait plus raisonnablement songer à la propulsion nucléaire électrique, par laquelle on obtiendrait, pour le même poids embarqué, 10 millions de fois plus de puissance qu’avec les carburants classiques. Fondée sur la fission – à l’œuvre dans les premières bombes atomiques –, cette technique soulève cependant quelques problèmes. La fission doit tout d’abord être contenue dans le volume d’un réacteur approprié… qui fondrait aux températures nécessaires à la propulsion. De plus, elle produit des ions lourds, qui se meuvent lentement et n’autorisent donc pas d’accélérations rapides.

 

En théorie, la fusion est plus adéquate. Une simple boulette de combustible bombardée par des rayons lasers produirait la réaction de fusion dans une chambre de combustion, libérant suffisamment d’énergie pour atteindre de hautes vitesses. Inutile de dire que pas mal d’ingénieurs doutent que la chose soit faisable.

 

Pour toutes ces raisons, certains ingénieurs voient dans l’antimatière la bonne réponse. Malgré sa connotation de « science-fiction », celle-ci est bien connue des physiciens. Aucune réaction connue ne dégage plus d’énergie que la collision matière-antimatière : elle produit des quantités phénoménales de rayons γ et de mésons π. Ce sont ces derniers qui intéressent les concepteurs de réacteurs. Théoriquement, cette réaction libère de 100 à 1000 fois plus d’énergie que la fusion ou la fission. Ce qui signifie qu’un réacteur à antimatière accélérerait une masse de 1 tonne jusqu’à un dixième de la vitesse de la lumière avec seulement 9 kg de carburant !

 

Neuf milliards d’années pour fabriquer le carburant

 

La première difficulté consiste à fabriquer ces 9 kg d’antimatière. Imaginons qu’on utilise le célèbre accélérateur du CERN de Genève, celui qui a récemment  créé les antiatomes. Il produit environ 1 milliard d’antiprotons toutes les dix minutes. Ils sont si rapides et si énergétiques qu’ils passent à travers toutes les cibles qu’on met sur leur chemin. Il est donc nécessaire les ralentir si l’on veut conserver un espoir de les capter. Par exemple en plaçant sur leur parcours des feuilles de métal. Ils entrent alors en collision avec les électrons de la matière et perdent progressivement leur énergie. Il faut ensuite les confiner dans un champ magnétique, avant qu’ils rencontrent des protons du voisinage. Si tout va bien, il en restera un bon million, qui pourront être capturés. Mais il en faut beaucoup plus pour fabriquer du carburant : avec environ 1 milliard de milliards d’antiprotons, on en obtient 1 gramme… Comme le piège magnétique est parfaitement fiable, on peut imaginer d’attendre le temps nécessaire pour en obtenir suffisamment. Mais un nouveau problème surgit : le piège magnétique commence à brûler quand une centaine de milliards d’antiprotons se sont accumulés. La force électrostatique par laquelle ils se repoussent mutuellement leur fait frôler dangereusement les parois du piège. Il faut donc employer d’énormes aimants supraconducteurs et beaucoup d’énergie pour les maintenir confinés.

 

 

 610-00300-05HIGH                  Albert Einstien-001

 

 

Une autre solution consiste à utiliser des antiatomes, parfaitement neutres, en fabriquant, par un procédé presque similaire, des anti-électrons (positons), et en les faisant orbiter autour des antiprotons après les avoir ralentis. Les deux antiparticules produisent des moments magnétiques qui, contrariés par un champ correctement orienté, engendrent une force qui repousse tous les anti-atomes vers le centre du piège, évitant le choc catastrophique avec les parois. On obtient de l’anti-hydrogène, qu’on peut, en le réfrigérant, condenser en gouttes ou en cristaux. Ce qui permettrait même de se passer de piège magnétique.

 

Mais, en supposant les problèmes de stockage résolus, et en investissant des sommes colossales dans des usines à antimatière, il faudrait, au rythme très optimiste de 1 millionième de gramme par an, environ neuf milliards d’années pour obtenir les 9 kg requis de carburant ! Les étoiles nous attendront-elles ?

 

Alors, science-fiction ? Tout n’est pas perdu. En l’état actuel de la technologie, une solution consisterait à utiliser une propulsion qui ne soit pas fondée uniquement sur l’antimatière « pure ». Il est concevable d’utiliser celle-ci comme une sorte de catalyseur des réactions de fission ou de fusion, qu’on peut amorcer avec une simple « boulette » d’uranium. Pour éviter de tout faire sauter, on fabrique de petites capsules d’uranium dans lesquelles on intègre un cœur de deutérium et de tritium. On bombarde ensuite d’antiprotons. Quand un antiproton frappe un atome d’uranium, il s’annihile avec l’un des protons du noyau. Les quelques pions alors émis achèvent de désintégrer le noyau, ce qui libère d’énormes quantités de neutrons, six fois plus qu’une fission nucléaire classique. La réaction en chaîne qui en résulte crée assez de chaleur et de pression pour enclencher une fusion dans le cœur de deutérium-tritium.

 

Chaque micro-explosion produit autant d’énergie qu’une bombe de 15 tonnes de TNT. Si l’on provoque une par seconde pendant plusieurs jours, on atteindra Pluton en trois ans. Beaucoup d’ingénieur, dont certains de la NASA, ne croient pas une seconde à cette chimère. D’abord parce que la propulsion d’une fusée obéit au principe d’action-réaction. Par quelque bout qu’on prenne le problème, il faut rejeter de la masse par l’arrière si l’on veut aller de l’avant. Il faut donc charger la fusée d’une masse gigantesque. Ensuite, il faut employer des tuyères capables de résister à d’énormes températures. Or, tous les métaux connus, même les alliages les plus sophistiqués et les plus chers, fondent irrémédiablement. Car ces réactions produisent beaucoup de rayons gamma, les plus énergétiques, donc les « plus » chauds.

 

Des tuyères qui fondent comme neige au soleil

 

Est-il possible de canaliser une telle puissance ? Peut-être, dans un filtre en plomb, ce qui transformerait les rayons gamma en rayons X. Ils frapperaient ensuite des plaques de titanium, qui se vaporiseraient au fur et à mesure. Les atomes de métal arrachés agiraient comme la masse nécessaire à la réaction, et la tuyère se consumerait lentement pendant le voyage. Mais, pour l’instant du moins, aucune tuyère ne peut résister non plus à ce traitement. En fin de compte, le pari semble perdu d’avance : trop d’obstacles infranchissables subsistent, des métaux qui fondent à la durée de production du carburant, en passant par les contraintes de sécurité liées à l’utilisation d’une énergie si dévorante.

 

Cependant, un signe ne trompe pas : les militaires, notamment américains, gardent dans leur ligne de mire ce mode de propulsion (ou d’explosion…), qui leur rendrait, on s’en doute, bien des services. Ils n’ignorent pas que, dans les années 50, aucun métal n’était en mesure de résister aux formidables pressions subies par les turbopompes d’une fusée comme Ariane V, qui n’est pas la plus puissante.

 

La route des étoiles est-elle pour autant fermée ? Quels que soient les problèmes techniques, dans le rapport énergie dégagée-poids embarqué, l’antimatière est sans concurrence. L’enjeu vaut qu’on y réfléchisse encore.

 

 brane collision

 

 

    

   
      



                      
                   
       

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 16:12

Ils ont percé le secret du vieillissement

 

Vertigineux ! Des biologistes suédois sont parvenus à faire vieillir plus vite des souris en manipulant un petit organite de leurs cellules : les mitochondries. De quoi, à terme, rêver à une source de jouvence ?


 

 Le secret du vieillissement-v1                         mitochondrie-v1

 

 

L’enjeu : élucider les mystères du vieillissement ouvrirait des pistes afin de retarder ce phénomène auquel nul n’échappe. On voit ainsi se profiler l’un des rêves les plus tenaces de l’humanité, celui de la jeunesse, sinon éternelle, du moins prolongée à l’extrême. Ce serait aussi le moyen de contrer les inévitables pathologies liées à l’usure du temps. Et elles sont nombreuses : maladies cardiovasculaires, neuro-dégénératives (Parkinson, Alzheimer), diabète, ostéoporose, sans oublier certains cancers liés à l’âge… Autant d’outrages auxquels nous aimerions tous échapper.

 

La biologie a ses modes. Dans le domaine du vieillissement, la tendance est à l’étude du noyau cellulaire. Les scientifiques sont légion à tenter d’y démêler l’écheveau de gènes et de protéines qu’il renferme. Les indices s’accumulant, ils sont convaincus que c’est dans ce méli-mélo incroyable que se cachent les secrets de notre fatal devenir à tous, le vieillissement.

 

Mais les modes sont faites pour être bousculées. Et dans le département des sciences biologistes de l’institut Karolinska à Stockholm (Suède), Nils-Göran Larsson et son équipe s’y emploient à plein temps : ce n’est pas le noyau qui les intéresse, mais les mitochondries. Ces petits organites présents par milliers dans la cellule renferment leur propre ADN et assurent la production d’énergie. Un anticonformisme fructueux puisque les chercheurs ont démontré qu’en leur sein se cache ni plus ni moins l’un des secrets du vieillissement.

 

De fait, les scientifiques sont parvenus à créer une race de souris mutantes qui montrent tous les signes d’un vieillissement accéléré et cela en introduisant une petite mutation perturbant leurs mitochondries. Tout commence à l’âge de quatre mois pour les rongeurs. A peine adultes et en âge de se reproduire, ils arborent les prémices d’un déclin physique : ils prennent de moins en moins de poids, leur fourrure s’éclaircit et leur échine se courbe. Deux mois plus tard, les petites silhouettes sont saisissantes de vieillesse. Elles sont bossues, maigres et n’ont presque plus de poils. A côté d’elles, des souris normales du même âge affichent une santé insultante. Et quoi de moins surprenant puisque celles-là ne débuteront leur processus de vieillissement qu’un an plus tard. En fait, les souris mutantes vieillissent deux fois plus vite que celles aux mitochondries normales.

 

Déjà vieillies à seulement 1 an

 

Et pas qu’en apparence : leur allure « troisième âge » reflète l’affaiblissement intérieur de leur corps. Les souris sont anémiées, gagnées par l’ostéoporose, accusent une baisse de fertilité et une usure cardiaque. Et puis l’inévitable se produit. Le vieillissement dont elles sont frappées les conduisent à la mort. Sauf qu’une année ne s’est pas encore tout à fait écoulée. D’ordinaire, dans les milieux protégés des animatrices et avec des mitochondries normales, les rongeurs vivent plus de deux ans.

 

« Cette vieillesse prématurée est la preuve indiscutable du rôle de la mitochondrie, commente Paul Hasty, spécialiste américain du vieillissement dans le département de médecine moléculaire de l’université du Texas, à San Antonio. Un rôle qui restait théorique et n’avait jamais été vérifié. » Il y a une vingtaine d’années, en effet, l’américain Denham Harman avait émis l’hypothèse que ces « centrales énergétiques » pouvaient être responsables du vieillissement et ce via l’altération de leur ADN. Car, chose exceptionnelle dans la cellule, la mitochondrie est le seul organite à posséder son propre génome. Deux cent mille fois plus petit que celui du noyau, il joue pourtant un rôle essentiel car il sert de support à la production des protéines qui assurent l’activité énergétique de la mitochondrie. Or, plus le temps passe et plus ces organites montrent des signes de détérioration, leur génome y compris. Denham Harman avait donc avait donc supposé que le vieillissement pouvait être engendré par l’altération de l’ADN mitochondrial. Cependant, il n’a jamais prouvé sa théorie. « Il n’y avait que des preuves indirectes, comme par exemple l’observation chez la souris d’une accumulation de mutations du génome mitochondrial au fil du temps, explique Nils-Göran Larsson. Mais cela pouvait être aussi bien la cause que la conséquence du vieillissement des rongeurs. »

 

 Des souris blanches

 

 

Pour trouver la théorie de Denham Harman, le chercheur suédois et son équipe ont poussé la mitochondrie à accélérer l’altération de son propre ADN. Ils ont donc muté une protéine notamment chargée de corriger les erreurs présentes sur le génome : l’ADN polymérase. Ce faisant, ils sont parvenus à diminuer sa capacité réparatrice. Résultant : les souris mutantes accumulent cinq fois plus de mutations sur l’ADN mitochondrial que de souris normales au même âge, et du coup vieillissent prématurément.

 

Preuve est donc faite du rôle de la mitochondrie dans le processus de vieillissement. Reste maintenant à détailler le ou le mécanismes par lesquels les altérations du génome mitochondrial aboutissent à l’inévitable déclin temporel. Et ce ne sont pas les pistes qui manquent. « Il est possible que les mutations entraînent une baisse de la production d’énergie, et que celle-ci soit responsable de la vieillesse précoce de nos souris », explique Nils-Göran Larsson. En effet, les chercheurs ont pu mettre en évidence une altération des protéines productrices d’énergie dans les mitochondries cardiaques des souris mutantes. Est-ce l’unique événement qui conduit les souris à vieillir prématurément ? Pas sûr…

 

Deuxième hypothèse : « Les altérations de l’ADN mitochondrial pourraient se répercuter sur le phénomène de suicide cellulaire », commente Paul Hasty. En effet, la mitochondrie joue un rôle-clé dans le mécanisme d’apoptose, la mort programmée des cellules. Lorsqu’elle reçoit un signal de suicide, sa membrane se modifie et libère des protéines qui vont tuer la cellule. « L’altération des constituants de la mitochondrie pourrait alors dérégler ce mécanisme, poursuit Paul Hasty, et précipiter le vieillissement tissulaire. »

 

Mais Nils-Göran Larsson et son équipe penchent plutôt en faveur d’une troisième hypothèse mettant en jeu des éléments chimiques très étudiés ces dernières années : les radicaux libres, des molécules oxydantes qui attaquent et dégradent les composants cellulaires. « Des tests très récents montrent que le taux de molécules oxydantes augmente chez nos souris mutantes, indique le chercheur. Et il est fort probable que les altérations perpétuées sur l’ADN mitochondrial en soient responsables. »

 

La clé de l’éternelle jeunesse ?

 

Privilégier la piste des radicaux libres est assez naturel, puisque, justement, les mitochondries sont la source majeure de ces éléments dans la cellule. Emis en faible quantité, ils sont en fait les sous-produits naturels des réactions chimiques qui conduisent à la production d’énergie. Mais il a été démontré que le déséquilibre de ces réactions entraîne une surproduction de radicaux libres. « Or, il est tout à fait logique de penser que les mutations accumulées sur l’ADN mitochondrial perturbent la chaîne énergétique et favorise la synthèse de molécules oxydantes », commente Paul Hasty. Celles-ci diffusant allégrement à travers les parois de la mitochondrie, elles auraient alors tout le loisir d’attaquer les constituants cellulaires et de provoquer leur vieillissement.

 

Tout semble donc accuser les radicaux libres. En effet, que ce soit chez l’animal, chez l’homme ou encore chez d’autres organismes tels que vers, mouches drosophiles et levures, leur taux augmente avec l’âge. Et surtout, des expériences spectaculaires menées chez le ver Caenorhabditis elegans ont montré qu’on peut retarder son vieillissement en dopant l’activité d’un gène impliqué dans le mécanisme d’élimination des radicaux libres.

 

  

mitochondrie-v2

  

 

Forts de ces données, les chercheurs tentent de prouver concrètement le rôle des radicaux libres dans le vieillissement et de l’intégrer aux autres  mécanismes en jeu. Une tâche d’envergure qui promet des lendemains formidables : s’ils y parvenaient, ils tiendraient là une explication parfaite du vieillissement naturel et ouvriraient la porte à des moyens d’action contre l’usure du temps. Car la différence entre souris mutantes et souris normales réside dans la vitesse d’accumulation des mutations d’ADN mitochondrial. Le phénomène est le même, sur un rythme différent. Or, certains scientifiques pensent que les altérations génomiques sont causées par les radicaux libres eux-mêmes, plaçant la mitochondrie dans une spirale infernale : son fonctionnement produit les composés oxydants qui détériorent son propre génome, lequel, avec le temps, accumule les mutations. A force, elles se répercutent sur son système de production énergétique qui se met donc à produire encore plus de radicaux libres. Et ainsi de suite.

 

Mais si les mitochondries sont bien responsables de notre déclin temporel, peut-être est-ce alors par leur truchement que nous réaliserons ce vieux rêve de vivre jeune plus longtemps ? Les chercheurs tentent déjà d’augmenter le niveau de protection du génome mitochondrial afin de créer une race de souris qui vieillissent… moins vite cette fois.


 








 
Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:41

Ils veulent changer l’espèce humaine

 

Des hommes transformés génétiquement, plus beaux, plus grands, plus forts, jamais malades… Ce rêve – si dangereux – est aujourd’hui à la portée de généticiens fascinés par la puissance des technologies qu’ils ont élaborées. Qui pourra les arrêter ?

 

 

 

 clonage homme

 

 

 

Après la souris et la tomate, voici venir l’homme transgénique. Un projet fou qui vise à introduire de nouveaux gènes dans notre espèce, comme le fait déjà chez les animaux de laboratoire et les plantes. Rien à voir avec les thérapies géniques, comme celles que soutien le Téléthon : elles se bornent à ajouter des gènes dans certaines cellules, mais surtout pas dans les cellules sexuelles, ovocytes ou spermatozoïdes, car la modification se transmettrait de génération en génération avec des conséquences imprévisibles.

 

En dépit de toutes les mises en garde, et contre l’avis des comités d’éthique du monde entier, des généticiens, de plus en plus nombreux, la plupart américains, envisagent de s’attaquer précisément à ces cellules germinales pour créer des lignées d’hommes transgéniques. Le tabou est brisé.

 

Verra-t-on apparaître une caste de surhommes, dotés de gènes décuplant leur puissance intellectuelle, leur force physique, leur résistance aux maladies, au stress, des hommes capables de vivre plus vieux tout en restant jeunes ? Ils seront nécessairement issus des classes les plus favorisées puisque toutes ces améliorations coûteront fort cher. Dans une divagation futuriste, le biologiste Lee Silver, de l’université de Princeton (New Jersey), auteur de Remaking Eden, imagine la séparation de l’humanité en deux classes, les « GenRich » et les « Natural », évidemment dominée par les premiers. Deux classes qui finissent par constituer deux espèces car elles ne peuvent plus se reproduire entre elles. Vision d’horreur ? Certes, mais Lee Silver est un homme positif : ce serait juste une étape difficile vers l’adaptation de certaines espèces humaines à une vie heureuse sur d’autres planètes.

 

Revenons sur Terre, en 1990. Des médecins de Bethesda (Maryland) tentent de soigner un enfant atteint d’un grave déficit immunitaire héréditaire en introduisant un gène sain dans ses globules blancs. C’est la première expérience humaine de thérapie génique. A l’époque, le risque de voir le « gène-médicament » contaminer les cellules sexuelles terrifie les autorités médicales. Ce n’est qu’à la condition expresse que cela ne se produira pas qu’on autorise les essais sur l’homme. Mais ce qu’on perçoit toujours comme le danger absolu devient un avantage potentiel aux yeux d’une minorité de chercheurs. Ils espèrent qu’en modifiant les cellules sexuelles ils pourront guérir beaucoup plus facilement les maladies génétiques des enfants qui en seront issus. Ils espèrent même éradiquer ces maladies souvent incurables…

 

 

 031231 dna watson hmed 12p h2                     adn-bilan

 

 

L’an dernier encore, il était fort mal vu d’avance cette idée, quand s’est tenu le premier symposium scientifique consacré à ce qu’on appelle les thérapies génétiques germinales. Organisé par des responsables de l’université de Californie Los Angeles (UCLA), il rassemblait le gratin de la génétique américaine. Les débats avaient pour objet d’examiner l’intérêt des interventions sur les cellules germinales humaines et de fournir une information scientifique de qualité aux autorités de santé qui devront prendre des décisions dans ce domaine.

 

Pour Grégory Stock, professeur à l’école de médecine de UCLA et co-organisateur du symposium, « la vraie question n’est plus de savoir s’il faut ou non appliquer les thérapies germinales à l’homme, mais quand cela sera possible et comment on s’y prendra. La technologie avance très vite, et ses possibilités sont fascinantes. Elle devrait être disponible dans moins de vingt ans. » Grégory Stock et cons collaborateur John Campbell sont d’intarissables partisans des thérapies germinales, dont ils font la promotion à longueur de congrès et sur leur site Internet. Dans ses conférences, Stock ne cesse de procéder à ce sondage éclair : « Imaginez que vous êtes en train de concevoir un enfant in vitro. Accepteriez-vous, si l’opération est sans danger, qu’on ajoute à l’embryon un gène qui le protégerait du cancer ? » Invariablement, la grande majorité de ses auditeurs répond oui.

 

Principal argument des défenseurs de cette méthode : elle devrait être beaucoup plus efficace que les thérapies géniques classiques, « Hormis quelques cas anecdotiques, aucune thérapie génique n’a encore fait ses preuves contre une quelconque maladie », rappelle French Anderson (université de Californie du Sud), pionnier mondial dans ce domaine. Ce qui n’a rien de surprenant car « nos organismes ont passé des dizaines de milliers d’années à apprendre à protéger leur génome des gènes étrangers, ceux des virus notamment ». Si plusieurs essais sont prometteurs, note Anderson, les obstacles sont nombreux. En effet, les gènes thérapeutiques, généralement « emballés » dans un virus vecteur inoffensif, ont un long parcours à effectuer avant d’atteindre le tissu cible – par exemple, le muscle dans le cas de la myopathie. Ils traversent les muqueuses (bouche, estomac, poumons) et leur puissant système de défense cellulaire, le système immunitaire, les diverses barrières tissulaires entre les organes, la membrane des cellules cibles, enfin la membrane du noyau cellulaire. Au terme de ce périple semé d’embûches, bien peu de gènes parviennent au but, même quand on vise des tissus plus accessibles tels que la muqueuse des poumons.

 

Un argument économique

 

Au contraire, si le gène est intégré dans un œuf fécondé, au premier stade de son développement, il sera présent dans toutes les cellules de l’enfant, dont celles qui fabriquent les spermatozoïdes ou les ovules. Ses descendants bénéficieront donc eux aussi du gène-médicament.

 

Les thérapies géniques classiques rencontrent un autre écueil, presque insurmontable aujourd’hui : le gène transféré se place un peu n’importe où dans les chromosomes de la cellule hôte, ce qui risque de perturber gravement son fonctionnement. De plus, quand ce gène est mal placé, la cellule aura du mal à l’utiliser et il perdra son efficacité. L’idéal serait d’obtenir une « recombinaison homologue », c’est-à-dire l’insertion du gène thérapeutique en lieu et place du gène déficient. Malheureusement, ce phénomène ne se produit qu’une fois sur dix mille, ou cent mille dans le pire des cas, et nul ne voit encore comment augmenter sa fréquence in vivo.

 

 

 cryo2                               1498034596 small 

 

 

In vitro, il en va tout autrement. Dans une culture de cellules, la recombinaison homologue reste rare, mais un système de sélection chimique permet d’extraire celles qui ont accompli cette recombinaison avec succès. Justement, la thérapie germinale travaille in viro sur des cultures de cellules embryonnaires. A cet argument technique, les généticiens en ajoutent un autre, économique celui-là : le rapport coût-efficacité des thérapies germinales est nettement plus favorable.

 

Pour mener à bien leur projet, les généticiens peuvent choisir entre deux méthodes : remplacer les gènes défectueux ou ajouter de nouveaux gènes à l’aide de chromosomes artificiels. Ce sont des chromosomes apparemment comme les autres, à ceci près qu’on les fabrique de toutes pièces en laboratoire, à partir de morceaux d’ADN humain. En théorie, les chromosomes artificiels présentent un avantage majeur : ils dispensent d’insérer les gènes thérapeutiques dans les chromosomes du receveur. Ils viennent simplement se placer à côté des autres dans le noyau des cellules. De plus, leur taille est suffisante pour apporter d’un coup à la cellule un complexe de plusieurs gènes. Le projet le plus futuriste en la matière conçoit le chromosome artificiel comme une sorte de système d’amarrage muni de « bornes » auxquelles on pourrait attacher, à chaque génération, de nouveaux gènes, comme on ajoute des extensions à un ordinateur. On pourrait plus tard remplacer ces gènes-là par de nouvelles versions plus performantes.

 

Est-ce un délire de savants fous exaltés par leurs rêves de toute-puissance, ou une projection réaliste des applications de techniques déjà disponibles ? Ni l’un ni l’autre. La technologie n’est pas au point, c’est certain. Mais, en dix ans, la génétique a fait des progrès considérables, le décryptage du génome et la découverte des fonctions des gènes avancent à pas de géant, ainsi que la connaissance des enzymes qui participent à leur régulation.

 

« Si nous avons tendance à surestimer ce que nous serons capables de faire dans cinq ans, estime Mario Capecchi, inventeur des techniques de manipulation génétique les plus élaborées, nous sous-estimons généralement ce que nous pourrons faire dans vingt ans. Aucun obstacle théorique ne s’oppose aux thérapies germinales. »

 

La France interdit expressément

 

Désormais, on ne peut plus éviter de s’interroger sur l’avènement des thérapies germinales. Certains pays, dont la France, ont expressément interdit les recherches dans cette voie, mais il n’en va pas de même partout. Si la Déclaration universelle sur le génome humain condamne clairement le clonage et la modification de la nature humaine, elle n’a pas pour autant force de loi.

 

L’Etat américain ne condamne pas expressément les recherches de ce type, mais tout essai clinique doit être soumis à l’autorisation de la Food and Drug Administration (FDA). Les tenants des thérapies germinales se livrent donc à une entreprise de « lobbying » auprès de cette autorité. S’ils parviennent à faire triompher leur point de vue – certains experts de la FDA n’y sont pas hostiles -, il ne fait aucun doute que ces thérapies trouveront sans mal une clientèle fermement décidée à faire bénéficier sa descendance des progrès de la science.

 

Le moratoire sur le clonage réclamé par le président Bill Clinton suscite des sentiments mitigés chez les partisans des interventions sur la lignée germinale, car cette technique pourrait être utile à l’aboutissement de leurs travaux. « Il est urgent de ne pas légiférer sur ces questions, estime le prix Nobel James Watson, codécouvreur de l’ADN. Ce serait se priver de moyens thérapeutiques très efficaces. Car on peut discuter sans fin de grands principes, ce que les gens veulent, c’est ne plus être malades. Si nous les y aidons, ils seront d’accord avec nous. » Selon Watson, il sera toujours temps de légiférer si l’on découvre un mauvais usage. Mais, avant qu’on applique cette stratégie à l’homme, elle devra démontrer sa totale innocuité, vérifiée par de nombreux tests sur l’animal.

 


Eugénisme ou progrès ?

 

Mus par leur pragmatisme yankee, nos apprentis sorciers pèsent-ils bien les risques qu’ils feraient courir à l’espèce humaine ? Qu’adviendra-t-il des futures générations ? Le généticien français Axel Kahn, membre du Comité consultatif national d’éthique, rappelle que des gènes jugés mauvais aujourd’hui –ceux du diabète, par exemple – ont probablement été bénéfiques dans le passé : ils ont favorisé la naissance de gros bébés. D’autres gènes de prédisposition à certaines maladies pourraient devenir salvateurs un jour, sans qu’on puisse prédire lesquels.

 

arton25                          couv-adn
 

 

« Si on avait les moyens de l’empêcher, rétorque Lee Silver, qui accepterait de laisser ses descendants souffrir de gènes délétères sous prétexte qu’ils pourront se révéler utiles dans un hypothétique et lointain avenir ? Au nom de quel caractère sacré de l’ADN, n’aurait-on pas le droit d’y toucher ? L’ordre naturel n’est pas forcément bon. Il est simplement le fruit du hasard des changements de l’environnement. Les grandes extinctions du crétacé ont favorisé les mammifères, mais la nature a également fabriqué des virus mortels, et nul ne se plaint que l’homme ait éradiqué celui de la variole. Dès lors, pourquoi ne pas modifier une lignée, si cela peut éviter à des hommes de souffrir ? »

 

« Je ne comprends pas ceux qui veulent interdire les interventions germinales, renchérit le biologiste Daniel Koshland, ancien directeur de la revue américaine Science. On le fait déjà, puisque, en donnant de l’insuline à un enfant diabétique, on lui permet de vivre et de parvenir à l’âge de la reproduction. Ses enfants seront porteurs des gènes du diabète, ce qui accroît la fréquence naturelle de ces gènes dans la population. » Dans cette logique, il serait donc bénéfique d’intervenir sur la lignée germinale. Cet eugénisme positif et indolore passerait pour un progrès de la médecine. Et puis, cherchent à nous rassurer les généticiens, ces manipulations ne concerneront qu’un nombre limité d’individus puisqu’on ne peut y procéder que lors d’une fécondation in vitro, mode de reproduction qui ne risque pas de se généraliser (environ 8000 naissances par an en France).

 

Cependant, un point d’éthique tracasse nos démiurges du génome : comment obtenir le « consentement éclairé » des générations futures qu’impose la loi ? Si cette exigence continue à freiner les avancées de la recherche, Mario Capecchi propose deux solutions : d’une part, rendre les modifications génétiques réversibles en retirant les gènes ajoutés ; d’autre part, soumettre l’expression de ces gènes à l’absorption d’un médicament déclencheur.

 

Où est la barrière morale ?

 

En y regardant de plus près, la volonté farouche de corriger la lignée germinale apparaît d’autant plus malsaine qu’elle n’est pas nécessaire. Axel Kahn est catégorique : cette méthode ne présente aucun avantage sur la sélection génétique in vitro des embryons avant leur implantation dans l’utérus de la mère. En effet, pour dépister certaines maladies héréditaires incurables, on sait prélever, après une fécondation in vitro, une cellule de l’embryon et diagnostiquer la présence de nombreux gènes anormaux. On élimine ensuite les embryons qui seront malades et on implante seulement ceux qui échapperont à la maladie. Cependant, dans le cas d’une maladie récessive, on n’écartera pas les embryons porteurs sains. Les gènes anormaux se transmettront à la descendance et se manifesteront lorsqu’ils seront de nouveau appariés à des gènes semblables provenant d’une autre lignée.

 

 

 DACTU IMG PREVIEW                     foetus15semaines

 

 

En France, on considère que la suppression des embryons porteurs sains est un acte eugéniste condamnable. Encore une fois, cette position n’est pas universelle. Mais, si la sélection d’embryons peut suffire, pourquoi vouloir à tout prix manipuler la lignée germinale ? « Parce que ces chercheurs ont un projet autre que thérapeutique, s’écrie Axel Kahn. Ils veulent améliorer des lignées humaines. Sur le plan éthique, c’est inacceptable. » Inacceptable dans de nombreux pays européens traumatisé par les horreurs du nazisme, mais pas forcément en Chine, par exemple.

 

« Si on a les moyens d’améliorer les hommes, pourquoi ne le ferait-on pas ? » lance James Watson, toujours plus provocateur. Alors que certains tenants de la thérapie germinale s’interrogent sur les limites qu’il faudrait assigner à leurs interventions – rechercher non pas l’amélioration mais seulement la thérapie -, d’autres enjambent la barrière éthique sans vergogne, en faisant remarquer qu’il est d’ailleurs bien difficile de savoir où elle se trouve. A partir de quelque taille un enfant sera-t-il trop petit pour vivre heureux ? Ajouter un gène qui protège du cancer, est-ce une amélioration ou une thérapie préventive ? L’histoire des comités de bioéthique montre bien que, sous la pression de la compétition scientifique et économique, les barrières morales reculent sans cesse. Par exemple, la loi française de 1994 interdit toute recherche sur l’embryon humain, mais déjà le comité national d’éthique propose d’assouplir cette disposition lors de la révision de la loi cette année.

 

Admettons que les outils soient enfin disponibles, fiables et sans danger. On nous proposera d’abord de les utiliser contre les maladies héréditaires incurables, puis on passera aux maladies engendrées par des prédispositions génétiques, aux affections dues au vieillissement, au cancer, etc. Et pourquoi ne pas y ajouter des gènes de résistance à des virus, ou d’autres qui accroissent la longévité ou améliorent les performances intellectuelles ou physiques ? Nous voici donc en route vers la fabrication de lignées de surhommes aux caractéristiques génétiques artificielles. Domineront-ils le monde ? Seront-ils condamnés à remplir des tâches spécifiques en fonction de leurs aptitudes génétiques ? Ou, comme l’imagine Lee Silver, seront-ils destinés à coloniser des mondes nouveaux ?

                     

 

 23chromosomes                 05645 recherches genetiques 0094

 

 

Il est inquiétant d’observer que la volonté de créer une espèce humaine améliorée est celle de scientifiques renommés – satisfaisant le désir d’une partie, minoritaire mais déterminée, de la population. En effet, les partisans des thérapies germinales s’accordent avec leurs opposants pour souligner que la demande viendra des couples eux-mêmes.

 

Dans son Meilleur des mondes, Aldous Huxley n’avait finalement pas prévu le pire. Il était inutile d’imaginer une sorte d’Etat totalitaire qui contrôlerait la reproduction et la nature humaine. Au fil des générations, les individus risquent de s’en charger eux-mêmes en concevant leurs enfants à façon, pour leur donner, en toute bonne conscience, les gènes les plus favorables à leur réussite.

 

L’homme devient son créateur

 

Depuis longtemps déjà, par la culture, la technique, la médecine, l’homme échappe à la sélection naturelle. Les thérapies germinales apparaissent comme l’inévitable prolongement de la prise de pouvoir de l’homme sur sa propre évolution. Il devient son propre créateur. Un très vieux rêve, vertigineux, si difficile à refouler. Nos arrière-arrière-petits-enfants sauront-ils renoncer à l’extraordinaire puissance des outils que nous leur forgeons ? Il est déjà trop tard…

 

La toute puissance des cellules « ES »

 

Chez la souris et quelques autres mammifères, on connaissait des cellules embryonnaires douées de capacités extraordinaires : elles se multiplient indéfiniment in vitro sans jamais donner un tissu particulier. Mais, dès lors qu’on les implante dans un embryon, elles peuvent engendrer n’importe quel type de cellule de l’organisme.

 

Les cellules ES (embryonic stem cells, « cellules souches embryonnaires ») permettent actuellement de concevoir des animaux transgéniques. Les biologistes américains James Thomson et Jeffrey Jones viennent de découvrir le même type de cellules chez l’embryon humain. Ce qui ouvre de fantastiques possibilités pour la production de tissus biologiques ou, dans un avenir plus lointain, pour la conception d’un homme transgénique. Notons que Thomson et Jones ne pouvaient être financés par l’Etat américain, qui se refuse par éthique à soutenir des recherches non thérapeutiques sur l’embryon humain. C’est donc grâce à des crédits privés qu’ils ont mené leurs travaux.

 

Ils veulent cloner l’homme

 

Depuis la naissance de la brebis Dolly, en 1997, la plupart des grands pays ont juré qu’on ne fabriquerait pas de clones humains. Cette louable intention empêchera-t-elle de succomber à la tentation de se reproduire eux-mêmes les gens assez riches et assez inconscients pour en avoir envie ? C’est d’autant moins probable que quelques chercheurs indisciplinés sont bien décidés à passer outre. Pour la science, pour la gloire, pour l’argent…



chromosome20X20et20Y                  RTEmagicC c3cb297845 jpg



Ecartons le physicien américain William Seed qui clame haut et fort sa volonté de se faire cloner, personne ne le prend au sérieux. Mais le très médiatique obstétricien italien Severino Antinori – à qui l’on doit déjà l’enfantement de femmes de plus de 60 ans et qui aimerait bien être le premier à créer un clone – est très fortuné er pourrait acquérir le savoir-faire de son rêve. On citera également Michel Revel, généticien à l’Institut Weizmann, en Israël : ce religieux pratiquant se déclare favorable au clonage pour lutter contre la stérilité.

 

Il faut aussi tenir compte des nombreuses cliniques américaines qui ne voient aucun obstacles, sinon technique, à pratiquer le bouturage humaine. Tout récemment, la société Advanced Cell Technology a déclaré avoir créé, par clonage, des embryons homme-vache, ce qui pourrait constituer une étape sur le chemin du clonage humain à partir de cellules embryonnaires.

 

Cette situation réjouit les partisans de l’homme transgénique, car, pour modifier l’espèce humaine, il pourrait être nécessaire de recourir au clonage.

 

Petit lexique de génétique

 

Tous les organismes vivants sont constitués de cellules spécifiques de chaque tissu. Dans leur noyau, elles contiennent une grande molécule, l’ADN (acide désoxyribonucléique), qui, replié sur lui-même et fractionné en longs fragments, forme les chromosomes. L’ADN se compose d’une sorte d’armature en forme de double hélice (comme l’escalier de Léonard de Vinci, à Chambord). Sur chaque brin de l’armature sont fixés les nucléotides : thymine (T), adénine (A), cytosine (C) et guanine (G). L’enchaînement de ces bases est assimilable à un texte dont certaines phrases constituent des informations appelées gènes. On nomme génome l’ensemble des gènes portés par les chromosomes. A partir de cette information, la cellule synthétise des protéines dont elle se sert pour son propre fonctionnement ou qu’elle sécrète à l’usage d’autres cellules.

 

Toutes les cellules contiennent tous les gènes d’un organisme, mais elles n’utilisent que certains d’entre eux en fonction du tissu auquel elles appartiennent. En effet, selon les tissus, les cellules contiennent diverses molécules nommées facteurs de transcription qui n’activent que certains gènes, par exemple, celui de la synthèse des protéines du lait dans les cellules des glandes mammaires quand une hormone vient déclencher ce processus. On dit d’un organisme qu’il est transgénique quand il a intégré à son génome un gène étranger de sorte que ce gène se transmet à toute sa descendance, créant ainsi une lignée transgénique.

  

  

L'île du Dr Moreau-1236

 

 

   

 

 

 

 

 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:37

L’atome est-il divisible à l’infini

 

 

Coup de tonnerre dans le ciel de la physique. On croyait que le quark était l’ultime particule, or, d’après une expérience américaine, il serait lui-même constitué de « sous-quarks ». Le modèle standard de la physique fondamentale tremble sur ses bases !

 

 

 Collision de particules-v1

 

 

Les quarks sont des corpuscules que les physiciens considéraient, il y a seulement quelques semaines, comme les ultimes et indivisibles constituants de la matière. En fait, ils ne seraient pas si élémentaires que ça : telle est l’excitante conclusion d’une expérience conduite dans l’accélérateur géant Tevatron du laboratoire Fermi, près de Chicago, et rapportée par l’hebdomadaire spécialisé américain Science dans son numéro du 9 février. Moins d’un an après la découverte, dans ce même « Fermilab », du sixième et dernier quark – le « top » -, qui mettait magnifiquement un terme au tableau des particules élémentaires, l’édifice semble s’écrouler. La quête de l’élémentarité repartirait de plus belle vers le toujours plus petit…

 

De Démocrite à Rutherford

 

Le conditionnel s’impose, car l’existence de « sous-quarks » n’est encore que l’une des hypothèses proposées pour expliquer d’étranges anomalies dans le résultat de l’expérience CDF (Collider Detector at Fermilab). Mais l’hypothèse émoustille déjà les physiciens des particules, un peu las des succès répétés et sans surprise du trop fameux Modèle standard, l’édifice théorique qui décrit les particules et les forces élémentaires de la matière. « Enfin il se passe quelque chose ! Un événement imprévu va ébranler cette forteresse théorique », pensent tous les physiciens.

 

La nature semblait donner raison à la superbe intuition du philosophe grec Démocrite (460-370 avant notre ère), qui, le premier, imagina que toute la matière était composée d’atomes insécables (le mot atome signifie en grec « qu’on ne peut couper »), assemblées de diverses manières, au moyen de « crochets », pour former l’infinie variété de tous les objets qui nous entourent. Il fallut attendre la fin du XIXe siècle pour voir se confirmer la réalité des atomes, ultimes constituants de la centaine d’éléments chimiques qui composent la table de Mendeleïev (de l’hydrogène à l’uranium, en passant par le carbone, le fer ou l’or).

 

 

 

 525px-Quark structure proton                        Les quarks-v1

 

 

Mais il a suffi de quelques années pour que les progrès de la physique détruisent le mythe non pas de l’atome mais de son caractère insécable. C’est d’abord, en 1897, la découverte de l’électron, premier corpuscule subatomique. Puis, en 1911, le prix Nobel de chimie britannique Ernest Rutherford élucide la structure de l’atome. Son expérience, célèbre et magistrale, vaut d’être racontée, car c’est l’ancêtre de bien des expériences de physique des particules, y compris, peut-être, de celle du Fermilab…

 

Pour sonder les atomes, Rutherford a eu en effet l’idée de bombarder une mince feuille d’or avec des particules α émises par du radium. Il remarque que, si a plupart des particules α sont faiblement déviées en traversant la feuille, une minorité d’entre elles subissent au contraire une forte déviation et parfois même bondissent en arrière, comme si elles avaient heurté quelque chose de dur… Rutherford comprend que les atomes qui constituent la feuille d’or ont une structure très peu homogène : ils sont formés d’un noyau central, petit, très massif et de charge électrique positive, autour duquel gravitent des électrons, légers et négatifs – si bien que le volume des atomes est en réalité essentiellement du vide !

 

Vingt ans plus tard, les physiciens dévoilaient la structure du noyau atomique : il est constitué de deux sortes de particules, les protons (positifs) et les neutrons (neutres).

 

Des gerbes de hadrons

 

C’est seulement dans les années 60 que sera franchi le pas suivant sur le chemin de l’élémentarité. En bombardant des particules cibles avec des particules projectiles dans des accélérateurs, les scientifiques se trouvent confrontés à toute une ménagerie d’étranges particules issues de ces réactions, la plupart d’entre elles appartenant à la même famille que les protons et les neutrons (la famille des hadrons). La situation s’éclaircit beaucoup quand les théoriciens américains Murray Gell-Mann et George Zweig suggèrent que les hadrons ne sont pas élémentaires, mais qu’ils sont formés de sous-particules, qu’ils baptisent quarks (d’après le nom de personnages du romancier irlandais James Joyce). Avec seulement trois sortes de quarks (« u », « d » et « s »), on peut reconstituer le proton, le neutron et tous les autres hadrons connus à l’époque. Plus tard, trois autres quarks, « c », « b » et « t », viendront compléter le tableau.

 

Pourtant, cette construction séduisante avait un défaut majeur : il était impossible d’isoler les quarks. A défaut de les extirper de leur hadron, ce qui est en réalité impossible (à cause d’une propriété qui leur est spécifique, le « confinement »), on réussit quand même à les détecter à l’intérieur même des protons, en 1967, dans l’accélérateur linéaire de Standford (Californie). Depuis, les physiciens ont édifié une théorie décrivant la « force forte », qui lie les quarks à l’intérieur des hadrons par l’intermédiaire de particules nommées gluons (parce qu’ils « collent » les quarks entre eux).

 

 na-2004-166 9503044 02

 

 

Plus de vingt ans après, au Fermilab, des protons et des antiprotons tournent en sens contraire à une vitesse très proche de celle de la lumière, pour se heurter dans des collisions qui libèrent une énergie de 1,8 Tev (1800 milliards d’électronvolts), d’où le nom de Tevatron donné à cet accélérateur, aujourd’hui le plus puissant du monde. A ces énergies colossales, « chaque proton peut être considéré comme un petit faisceau de quarks et de gluons », explique John Ellis, théoricien au CERN (le laboratoire européen de physique des particules, près de Genève). Et il en va de même pour chaque antiproton, ce qui donne des collisions plutôt compliquées entre quarks, antiquarks, gluons et antigluons ! L’énergie libérée dans ces chocs se rematérialise immédiatement en toutes sortes de particules, surtout en quarks (et en anti-quarks) qui, ne pouvant vivre seuls, engendrent des gerbes de hadrons, des « jets » dans le jargon des physiciens.

 

Or, depuis plusieurs mois, l’expérience CDF met en lumière « un nombre étonnamment élevé de collisions violentes entre quarks ». Plus précisément, il y a une proportion anormalement forte de jets très énergétiques concentrés dans des angles très étroits. « C’est précisément le genre d’effet qu’on observerait si les quarks étaient non pas des particules fondamentales mais possédaient une structure interne », commente, dans Science, le porte-parole de l’expérience, William Carithers.

 

L’expérience serait alors un remake de celle de Rutherford : les chocs violents révéleraient des interactions entre sous-quarks à l’intérieur des quarks, tout comme les particules α très déviées témoignaient de l’existence du noyau atomique.

 

 

 RTEmagicC belle

 

 

En fait, si les physiciens de l’expérience CDF affirment clairement qu’il y a bien un excès de collisions violentes au Tevatron, il est encore trop tôt pour en déduire l’existence révolutionnaire des sous-quarks. Le texte de présentation de Science est prometteur, mais l’article proprement scientifique est beaucoup plus prudent. Car, à en croire John Ellis, il existe plusieurs autres explications, moins fantastiques mais plus probables. Il faut d’abord reconsidérer le Modèle standard, et chercher à savoir si l’on n’a pas oublié, ou sous-estimer, certains effets qui expliqueraient les anomalies.

 

Il pourrait également exister une particule lourde jusqu’alors inconnue (un « cousin » du boson faible Z°, la particule qui véhicule la force dite faible). La désintégration de cette particule serait responsable du taux apparemment élevé d’interactions à haute énergie. L’existence d’une telle particule pourrait en outre justifier d’autres petites anomalies, observées cette fois dans une expérience du CERN. Et elle n’exigerait que de légères modifications du Modèle standard.

 

C’est seulement si ces explications « banales » sont rejetées qu’on pourra envisager sérieusement des hypothèses plus spéculatives, telle que la « non-élémentarité » des quarks. Ces précautions feraient croire que les physiciens sont d’incorrigibles conservateurs, accrochés à leur cher Modèle standard. En réalité, ils ne sont pas dupes. Ils savent bien que le fameux Modèle n’est pas « la » théorie définitive de la physique des particules et des forces, ne serait-ce que parce qu’il n’inclut pas la gravitation et n’explique pas, par exemple, les masses et les charges des particules.

 

Cependant, aucune loi physique  n’interdit que les quarks possèdent une étendue et une structure interne. Alors se posent les inévitables questions (méta ?) physiques. Cette course s’arrêtera-t-elle un jour ? Trouvera-t-on des particules vraiment élémentaires, ou la matière se subdivise-t-elle à l’infini ? La réponse des physiciens est à la fois pragmatique et vertigineuse. Aujourd’hui, les énergies délivrées par le Tevatron permettent d’explorer la matière jusqu’à l’échelle de 10-17 cm. Mais plus l’énergie augmente, plus on progresse vers les petites dimensions. Jusqu’où ?

 

D’autre part, lorsqu’on cherche à unifier les théories quantiques régissant le monde des particules et la relativité générale d’Einstein, qui décrit la gravitation à l’échelle de l’Univers, les calculs donnent une dimension (10-33 cm) où toutes les forces se rejoignent. S’il y a une taille minimale, c’est peut-être celle-là, ce qui laisse une certaine marge…

 

 

 

250px-CMS Higgs-event

 

 

 

 

 

  


 

 





Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:26

Comètes, astéroïdes

 

La Terre contre-attaque

 

Bombarder une comète. Tel est l’objectif de la mission Deep Impact qui a décollé le 30 décembre 2004 de Cap Canaveral. Et même si cette manœuvre spectaculaire vise essentiellement à obtenir une meilleure connaissance des comètes, elle est le premier acte « agressif » envers les innombrables petits corps qui menacent la Terre. D’ici quelques années, d’autres missions pourraient suivre.

 



Frappe astéroïde


Au matin du 30 juin 1908, un corps céleste d’une taille estimée à une cinquantaine de mètres de diamètre pénétrait dans l’atmosphère et se désagrégeait à 10.000 m d’altitude au-dessus de la Sibérie. Quelques minutes après l’explosion, plus de 2000 km² de taïga étaient totalement dévastés. Si cette région désertique de la Toungouska avait été aussi peuplée que l’Europe de l’Ouest, les victimes se seraient comptées par millions. Un siècle plus tard, les traces du cataclysme – des centaines de milliers d’arbres abattus – ont presque disparu. Et la Terre lance sa « contre-attaque ». La sonde Deep Impact a décollé de Cap Canaveral à bord d’une fusée Delta 2, avec un objectif singulier : bombarder la comète Tempel 1, qui croise entre Jupiter et la Terre. Si tout se passe bien, l’engin larguera un projectile de 370 kg, qui percutera la surface glacée de l’astre errant. A plus de 10,2 km/s, ce véritable boulet de canon devrait former un cratère de 25 m de profondeur pour 100 m de diamètre… A moins qu’il ne détache carrément un fragment de la comète.

 

Cet « acte de guerre » spectaculaire contre la comète Tempel 1 n’est pas le résultat d’une rancune tenace envers les petits corps qui ont régulièrement bombardé la Terre depuis 4,5 milliards d’années. Pas question non plus de venger la disparition des dinosaures, attribuée au moins en partie à la chute d’un gros astéroïde en Amérique centrale voici 65 millions d’années. Le but des astronomes est d’en savoir un peu plus sur la structure et la composition interne des comètes. Car jusqu’ici, ils ont dû se contenter d’observer à distance les gaz relâchés par ces corps glacés lors de leur passage au plus près du Soleil. Or, précisément, le rayonnement solaire dissocie la plupart des molécules libérées, de sorte que les scientifiques doivent déduire leur existence à partir d’éléments observés. De plus, le dégazage engendré par la chaleur du Soleil n’affecte que la croûte superficielle ; pas moyen de savoir ce que cache l’intérieur des comètes. Pour cette raison, excaver par une collision du matériau de Tempel 1 intéresse au plus haut point les astronomes. Ils espèrent que, pendant les quelques minutes qui suivront la rencontre explosive, la sonde Deep Impact pourra ausculter avec son spectrographe infrarouge le nuage de matériau volatilisé et réaliser quelques découvertes sur les origines du Système solaire. Pourtant, rien n’est moins sûr. « Compte tenu de la courte période de visibilité dont disposera le vaisseau spatial avant de s’éloigner, nous avons fait une demande de temps d’observation à l’aide des quatre télescopes de 8,2 m du VLT, explique Olivier Marco, astronome à l’ESO. De cette manière, nous devrions pouvoir caractériser la composition du noyau de la comète ». D’autant que l’événement promet d’être spectaculaire. Au moment de l’impact, l’éclat de l’astre chevelu (alors voisin de la magnitude 9) pourrait augmenter de 2 à 5 magnitudes ! Une aubaine pour les astronomes amateurs européens puisque Tempel 1 sera visible dans le ciel. Le VLT lui, devra attendre une douzaine d’heures avant de tenter ses éventuelles observations.

 

 


CometTempel1 Rawlings low                    comete-asteroide-meteorite

 

 

 

Si Deep Impact poursuit une quête purement scientifique, elle n’en constitue pas moins la première mission « agressive » en direction de l’un des innombrables petits corps du Système solaire… Dont ceux qui menacent la Terre. A ce titre, ses effets fourniront des informations aux scientifiques désirant établir la meilleure manière de faire face au danger d’une collision. Tout d’abord, ils connaîtront le diamètre du cratère créé par le projectile de la taille d’un fauteuil. Plus celui-ci sera gros, plus sera signifiera que le corps céleste est composé d’un agglomérat peu compact. « Indirectement, nous allons recueillir des données sur les propriétés d’une comète. Nous pourrons donc estimer les conséquences d’un impact avec la Terre, avance Patrick Michel, spécialiste des astéroïdes géocroiseurs à l’observatoire de la Côte d’Azur. Mais je ne suis pas sûr que l’on avancera beaucoup plus grâce à cette mission ».

 

En effet, l’une des faiblesses de Deep Impact quant à l’observation des conséquences de la collision est son incroyable manque de temps. Même si la cicatrice laissée par le projectile est photographiée par les caméras à haute résolution, aucun instrument ne pourra faire des mesures. « La sonde ne se placera par en orbite autour de la comète Tempel 1. Il sera donc impossible de voir sa différence de vitesse avant et après le choc, explique Giovanni Valsecchi, spécialiste des géocroiseurs à Rome. Or, cette variation n’est pas détectable depuis la Terre ».

 

 

 



 

 

Voilà pourquoi l’Agence spatiale européenne (ESA) a lancé en 2002 une étude préliminaire sur six projets de missions automatiques spécialement conçues pour évaluer la menace des petits corps (astéroïdes ou comètes) susceptibles de venir frapper la Terre. Le 9 juillet 2004, le comité scientifique Neomap a rendu son verdict en donnant la priorité au projet Don Quichotte. Tout comme Deep Impact, il a pour but de provoquer une collision, non plus avec un noyau cométaire, mais avec un astéroïde de 500 m de diamètre. Et cette fois, il observera précisément la cible longtemps avant et après le choc. Le projet initial prévoit ainsi deux lancements. Une sonde, baptisée Sancho, ira se placer en orbite autour de l’astéroïde. Pendant six mois environ, elle étudiera ses mouvements et déterminera sa masse, sa structure interne et sa forme exacte. Ensuite, une deuxième sonde de 380 kg, Hidalgo, viendra percuter l’astéroïde à une vitesse de plus de 13 km/s. L’impact sera observé par Sancho, qui poursuivra ses investigations pendant au moins quatre mois, afin de mesurer notamment les variations du mouvement de l’astéroïde. Si la collision produit une déviation de l’orbite de 1400 m et un changement de période de rotation de 0,5° par jour, Sancho sera capable de le détecter. « Nous avons choisi de recommander Don Quichotte parce que, parmi les missions d’analyse in situ des risques liés aux collisions, c’est celle qui va le plus au cœur du problème, commente Giovanni Valsecchi, membre du comité Neomap.

 



Apophis                 Asteroide300

 

 

 

Elle devrait permettre de répondre à une question essentielle : peut-on dévier un astéroïde de 200 m à 1 km de diamètre si l’on découvre qu’il va percuter la Terre ? » Car malgré les divers scénarios envisagés, aucun scientifique ne sait comment écarter une éventuelle menace. « Si un objet est un jour en route vers notre planète, il faudra que nous ayons clairement établi la bonne méthode », martèle Patrick Michel, également du comité Neomap. « L’idée de faire exploser un bolide menaçant avec une bombe nucléaire paraît dangereuse : l’objet se divisera en fragments qui toucheront la Terre en plusieurs endroits, pour un résultat encore plus dévastateur, précise Marcello Fulchignoni, spécialiste des astéroïdes à l’observatoire de Paris-Meudon. Mais si l’on veut dévier l’astéroïde par exemple en y ajoutant un moteur ionique, il faut connaître son centre de masse ». Giovanni Valsecchi ajoute : « Un bolide réagira différemment s’il est constitué de roches compactes ou si, au contraire, il est poreux comme Mathilde, qui a été visité par la sonde Near. Ces informations sont nécessaires si l’on veut contrôler la déviation ». D’où l’importance d’essuyer les plâtres avec une mission telle que Don Quichotte. Reste que, pour l’instant, celle-ci, dont l’enveloppe est évaluée à 150 millions d’euros, n’a pas le moindre début de financement. « Il est clair que Don Quichotte ne sera pas proposée à la conférence interministérielle de l’ESA prévue en 2005, prévoit Franco Ongaro, chef du bureau des concepts et études avancées de l’ESA. Dans l’année qui vient, une étude interne sera lancée pour voir quelles modifications peuvent être apportées au projet initial. Par ailleurs, la mission a déjà été présentée à de possibles partenaires. Japonais et Chinois se sont montrés intéressés. Côté américain, la Nasa n’a pas vraiment pris d’engagement ». En supposant que l’ESA parvienne à s’adjoindre le renfort d’autres agences spatiales, Sancho et Hidalgo pourraient décoller en 2008. Quatre ans plus tard, les deux engins atteindraient leur cible, si bien qu’en 2013, les astronomes seraient enfin fixés sur les moyens à mettre en œuvre pour écarter la menace d’un astéroïde géocroiseur.

 


tempel                    Astéroide-explosé

 

 

 

A priori, rien ne presse car les collisions avec des bolides similaires à celui qui a frappé la Toungouska ne surviennent statistiquement qu’une fois tous les 1000 à 10.000 ans. Pourtant, les télescopes automatiques tels que Linear ou Neat découvrent sans cesse de nouveaux rochers célestes potentiellement dangereux. D’ici dix ans, l’ensemble des instruments d’observation qui seront en activité au sol (dont le Discovery Channel Telescope, de 4 m de diamètre, à partir de 2006) auront découvert 80 à 90 % des géocroiseurs de moins de 300 m de diamètre. Les astronomes pourront étudier leur orbite et prédire leur trajectoire plusieurs années à l’avance. Il serait alors dommage de ne pas savoir comment éviter une éventuelle catastrophe annoncée.

 

Première cible : la comète Tempel 1

 

 

 hayabusa asteroide-388x275                  DonQuijote-asteroide-impact

 

 

Découverte en 1867 par Ernst Tempel, la comète visée par Deep Impact appartient à la famille de Jupiter, composée de comètes à courte période. Elle tourne autour du Soleil en cinq ans et demi. Vraisemblablement formé voici plus de 4,5 milliards d’années au niveau de la ceinture de Kuiper (au-delà de Neptune), elle aurait été injectée dans le Système solaire interne il y a moins de 10.000 ans. Son noyau, dont le diamètre est estimé à 6 km, est animé d’une rotation assez lente (entre 42 et 22 heures). Tempel 1 croisera à 133 millions de kilomètres de la Terre lorsque le projectile de Deep Impact la percutera. La rencontre sera observable depuis l’Europe dans la constellation de la Vierge, non loin de Spica.

 

Pour quelques fragments d’astéroïdes

 

 astres-M6

 

 

 

" Connaître l’ennemi pour mieux s’en protéger ». Selon Marcello Fulchignoni, de l’observatoire de Paris-Meudon, telle est la devise actuelle des astronomes étudiant les corps qui approchent la Terre. Pour la mettre en application, le Centre national d’études spatiales (Cnes) commencera en avril 2005 des études préliminaires pour une mission vers un géocroiseur avec retour d’échantillons. « C’est typiquement le genre de missions pour lesquelles nous recherchons une collaboration avec d’autres agences », précise Denis Moura, du Cnes. Si le projet franchit toutes les étapes de sélection, il pourrait voir le jour vers 2010.  



 



 




 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 14:51

Voyager dans le temps

 

L’expérience qui donne le signal du départ

 

 

Fameux thème de science-fiction, le voyage dans le passé ne transgresse pas les lois de la physique… mais celle de la logique. Pourtant, une expérience récente fournit, pour la première fois, un socle à la plus fascinante des hypothèses.

  

 

 Trou de ver-v3

 

 

 

Peut-on voyager dans le passé ? La question n’en finit pas de troubler les esprits – même les plus rationnels. Le désir de retourner dans le passé est certes un vieux rêve de l’humanité. Pour ne parler que des cents dernières années, livres, films et bandes dessinées ont multiplié à l’envi l’expression de ce « fantasme ». De la Machine à explorer le temps, de Herbert George Wells, publiée en 1895, au film Retour vers le futur, en passant par le Piège diabolique de Blake et Mortimer, les héros de la célèbre BD – sans compter les séries télévisées -, le retour dans le passé semblait la chasse gardée des spéculations romanesques.

 

Mais la réalité dépasse parfois en imagination la pure fiction. Surtout depuis qu’un dénommé Einstein a offert à la science des équations quelque peu exotiques, grâce auxquelles les lois de la physique, sans le garantir, ne s’opposaient pas à un tel voyage. Aujourd’hui, un nouveau pas est franchi, avec une expérience qui pourrait être le « chaînon manquant » conduisant concrètement à la machine à remonter le temps ! Le no man’s land scientifique où s’épanouissait ce cliché de la science-fiction vient d’être pris d’assaut par la physique, non sans mettre notre bon sens à rude épreuve…

 

Le temps n’est pas une donnée absolue

 

Tout a commencé en 1905, le jour où Einstein a échafaudé une théorie, la relativité restreinte, selon laquelle plus un corps se déplace vite, plus le temps s’écoule pour lui lentement. Ce phénomène est non pas subjectif, mais bel et bien réel. La limite étant la vitesse de la lumière (300.000 km/s), vitesse à laquelle le temps se fige ! Ainsi, si un vaisseau quitte la Terre et atteint une vitesse proche de la vitesse de la lumière, les voyageurs évolueront sur un rythme temporel plus lent que les hommes restés sur notre planète. S’ils communiquent par radio, les hommes restés sur place entendront les voix des voyageurs au ralenti, comme lorsqu’on passait un 45 tours à la vitesse d’un 33 tours. Les occupants du vaisseau observeront le phénomène opposé. La dilatation du temps, ainsi qu’on la nomme, est l’une des caractéristiques de l’Univers.

 

Cette loi fut la première atteinte à la croyance en l’existence d’un temps absolu, s’écoulant toujours au même rythme aux quatre points cardinaux de notre monde. Einstein récidiva en 1916, en énonçant la théorie de la relativité générale, selon laquelle il devenait possible de construire de véritables tunnels vers le passé.

 

En effet, selon cette théorie phare de la science du XXe siècle, plus un corps (une étoile) est dense, plus il courbe l’espace, comme une boule de billard posée sur un drap tendu. Cette courbure « précipite » les objets avoisinants sur le corps massif (les attire, en langage classique) : c’est ainsi que s’exerce la force dite de gravitation. Par exemple, la Terre, qui est plus dense que la Lune, produit une courbure plus accentuée de l’espace qui la contient, donc un champ gravitationnel plus fort, que son satellite naturel.


 

article backtothefuture                        HommeSablier

 

 

 

La densité[1] peut croître, du moins en théorie, au point de provoquer l’écroulement du corps sur lui-même, sous l’effet de sa propre gravité : la boule de billard superdense finit par crever le drap. On est alors en présence d’un trou noir cet objet mythique qui, prévu par la théorie de la relativité générale comme stade ultime d’une étoile massive s’effondrant sui elle-même, n’a pas encore été observé et identifié formellement. (On a cependant détecté des phénomènes cosmiques qui laissent croire que les trous noirs existent, in texte 1996). Autre particularité, un trou noir a une telle densité, une telle force d’attraction que même la lumière ne peut lui échapper quand elle tombe dans son puits. Tout ce qui s’en approche sera d’abord broyé puis définitivement gobé.

 

Toujours d’après la relativité générale, un trou noir peut parfois donner naissance à un « trou de ver », véritable tunnel de l’espace-temps débouchant sur une « fontaine de lumière », ou « fontaine blanche », sorte de frère jumeau ennemi du trou noir. L’entrée du trou de ver, le trou noir, absorbe la matière ; la sortie du trou de ver, la fontaine blanche, la recrache ! Avec les particularités, pour le moins étranges, d’une telle configuration, la science surpasse, et de loin, l’imagination. En effet, s’ils existent, les trous de ver sont des raccourcis de l’espace. Dans les trois dimensions où nous avons l’habitude de nous mouvoir, les raccourcis sont courants : si un train emprunte à 100 km/h un tunnel creusé dans la montagne et si une voiture suit le relief de cette montagne à la même vitesse, c’est le train qui arrivera le plus vite à destination. De même, une particule qui entre dans un trou de ver ressort par la fontaine de lumière, qui peut se trouver à des milliards de kilomètres de là, sans avoir dû parcourir physiquement cette distance. Les trous de ver sont des tunnels creusés non plus dans le flanc d’une montagne, mais dans l’espace à trois dimensions.

 

 

Albert Einstein-v1                    univhist-shigemi-numazawa

 

 

Mais il y a plus étrange encore ! D’après la relativité générale, l’espace et le temps sont intimement liés : ils forment une seule entité appelée espace-temps. La modification des paramètres liés à l’espace (lieu, vitesse, densité…) peut entraîner une altération du temps. En manipulant les équations de la relativité générale, des scientifiques[2] ont montré que les trous de ver pouvaient engendrer des « boucles temporelles », sortes de passages du présent vers le passé. Ils devenaient ainsi de véritables machines à remonter le temps. Si l’entrée du trou de ver (le trou noir) est immobile par rapport à nous et si la sortie (la fontaine blanche) se déplace dans l’espace à une vitesse proche de celle de la lumière, le phénomène de dilatation du temps aura une conséquence étonnante : le temps s’écoulera à des rythmes différents à l’entrée du tunnel temporel et à sa sortie. Supposons que la sortie du trou de ver se meut à 99,99 % de la vitesse de la lumière, lorsque 48 heures auront passé à l’entrée, il ne se sera écoulé que 28 minutes à la sortie ! De ce fait, la maîtrise de la construction des trous de ver permettrait de choisir le moment de sortie dans le passé. Dans l’exemple qui précède, si le voyageur temporel pénètre dans le trou de ver 48 heures après l’avoir créé, il en ressortira seulement 28 minutes après l’instant de la création : il aura donc fait un retour dans le passé de 47 h 32 min.

 

Le voyage dans le temps serait-il un jeu d’enfant ? Certains problèmes fondamentaux se posent. On ignore notamment s’il y a réellement des trous de ver dans l’Univers… Que la théorie les prévoie ne change rien à l’affaire, car celle-ci laisse une large place à la spéculation. Cependant, certains indices tendraient à prouver qu’ils existent dans l’Univers… mais seulement à l’échelle quantique, dans l’infiniment petit. Ils ne mesureraient que 10-43 cm et disparaîtraient au bout de 10-35 seconde[3] pour cause d’instabilité structurelle ! On aurait du mal à faire passer un homme et son vaisseau par cette tête d’épingle spatio-temporelle. Pour voyager dans le temps, il faudrait « construire » un trou de ver à notre échelle. Comment s’y prendre ?

 

L’instabilité des trous de ver est due à leur fâcheuse tendance à s’effondrer sur eux-mêmes. En effet, une simple particule qui s’approche de l’entrée du trou noir sera accélérée et atteindra la vitesse de la lumière au moment de s’y précipiter. En physique relativiste, on constate que la masse de la particule augmente à mesure que sa vitesse se rapproche de celle de la lumière. A cette limite, la masse sera infinie !

 

La particule prisonnière du trou noir

 

L’entrée dans le trou de ver de la particule à masse infinie se fera sans problème, car elle ajoutera sa masse gravitationnelle à celle (déjà énorme) du trou noir : le trou noir grandira. Mais, une fois qu’il aura été franchi, les structures du tunnel s’effondreront sous l’effet gravitationnel de la particule. Celle-ci creusera sa propre tombe : du trou de ver ne subsistera que le trou noir, dans lequel la particule restera prisonnière.

 

La seule manière de consolider le trou de ver serait de le « tapisser » avec un « matériau » capable de s’opposer à l’immense champ gravitationnel développé par la particule. Bref, pour maintenir les structures du tunnel, il faut… un champ gravitationnel, c’est-à-dire à énergie négative. Or, à notre échelle, nous ne connaissons pas un tel champ et nous ne savons pas non plus s’il pourrait exister. Nous revoilà en pleine science-fiction !

 

 

 Trou de ver

 

 

Pourtant, ces échafaudages intellectuels viennent de quitter le domaine de la spéculation pour entrer dans celui de la recherche. On a récemment mis en évidence expérimentalement un drôle de phénomène connu sous le nom « d’effet casimir » (voir la revue américaine Science du 7 juin 1996). En quelques mots, si l’on impose une forte tension électrique entre deux plaques conductrices séparées par du vide, on donne naissance à des électrons. Ce qui revient à extraire de l’énergie du vide. D’après les lois de la mécanique quantique, cette énergie ne peut être que négative ! En d’autres termes, un champ électromagnétique très fort peut engendrer une énergie électromagnétique négative. Si l’on extrapole ce résultat à la gravitation, on peut penser qu’un champ gravitationnel extrêmement fort (comme ceux qui se forment à la surface des trous noirs) donnera naissance à une énergie gravitationnelle négative. C’est exactement ce dont on a besoin pour consolider les trous de ver !

 

Les « plans » de la machine à remonter le temps sont, donc déjà conçus. En supposant qu’on puisse un jour fabriquer des trous de ver macroscopiques, il reste à vérifier que ce bel édifice ne croulera pas sous le poids d’une… « bourde » logique. Car toute réalisation matérielle doit respecter certains principes fondamentaux sous-jacents aux lois physiques, tels que la cohérence logique et le principe de causalité[4]. Sinon, la machine à remonter le temps, une fois construite, risque de ne pas fonctionner… Hors de la logique point de salut, même pour la physique la plus théorique.

 

Nos descendants ne peuvent pas nous envahir !

 

Car, si la machine à remonter le temps met en lumière au moins deux paradoxes fondamentaux, elle se heurte à une redoutable interrogation : si le voyage dans le passé est possible, comment expliquer que nous ne soyons pas envahis par de lointains descendants venus du futur qui auraient maîtrisé cette technique ? La réponse est plus simple qu’il n’y paraît. Il faut imaginer qu’une boucle temporelle est une sorte de tunnel. Il est évident que si l’on perce l’entrée du tunnel mais non sa sortie, il ne servira à rien. Le trou de ver temporel suit le même principe : il faut d’abord le construire pour pouvoir l’utiliser !

 

Ainsi, si un inventeur de génie crée un trou de ver le 1er novembre 1996, « l’entrée » et la « sortie » commenceront leur existence à ce moment-là. L’entrée du trou de ver (le trou noir) évoluera normalement ; sa sortie (la fontaine de lumière) peut rester figée dans le temps si on lui communique la vitesse de la lumière. Ainsi, un an plus tard, si l’inventeur décide d’utiliser son tunnel temporel, il entrera par le trou noir, qui l’a suivi dans le temps, et sortira par la fontaine de lumière, qui se trouve « quelque part » entre le 1er novembre 1996 et le 1er novembre 1997.



Trou de ver-v2              trou-de-ver-v1

 

 

L’inventeur ne pourra pas revenir au-delà de la première date, celle de la création : le temps, à la sortie, a simplement été gelé. Bref, nos descendants ne viendront pas nous saluer tant que nous n’aurons pas construit nous-mêmes notre première boucle temporelle (le trou de ver) ! Et voici le premier paradoxe : il serait fort possible que, le 1er novembre 1996, notre génial inventeur voit arriver par la sortie de son trou de ver, son petit-fils – qui n’est pas encore né. Supposons que ce dernier, redoutable psychopathe, tue son grand-père, l’inventeur, qui n’a pas encore de fils. Mort, l’inventeur ne peut plus engendrer de progéniture, donc son petit-fils ne naîtra jamais. Dès lors, comment ce dernier pourrait-il tuer son aïeul ? Ce « paradoxe du grand-père » interdit en toute logique qu’un quelconque retour dans le passé soit possible, car il nie ce qu’il affirme : il nie l’existence du petit-fils et il affirme que c’est celui-ci qui tue son grand père…

 

Hélas, ce cruel paradoxe n’est pas unique ! Si, au lieu de tuer son grand-père, le voyageur du temps fournit à un jeune homme le livre qui le rendra célèbre dans le futur, on débouche sur un nouveau paradoxe. En effet, le jeune homme, qui n’a encore rien écrit, n’aura qu’à recopier son futur livre pour gagner la célébrité. Bref, cette œuvre n’aura jamais été véritablement créée, elle aura simplement été recopiée ! Ce paradoxe est aussi décisif que le précédent : il semble lui aussi condamner tout retour dans le passé.

 

Devons-nous écarter à jamais ce rêve (ou ce cauchemar) ? Accepter la possibilité d’un tel voyage revient à nier les principes de causalité et de cohérence logique, sur lesquels reposent les théories physiques. Or, comme ces dernières sont en adéquation avec les observations, leurs bases semblent solides. En quelques mots : ou bien la physique élucide les paradoxes, ou bien il faut renoncer aux voyages dans le passé !

 

 

 Trou de ver-v6                t-t sablier

 

 

C’est là qu’intervient la physique quantique, autre révolution scientifique majeure de notre siècle, à côté de la relativité générale. En effet, le monde de la physique quantique est encore plus surprenant que celui de la relativité : il répond à une drôle de logique… Le meilleur exemple en est le fameux paradoxe du « chat de Schrödinger ». Sans entrer dans les détails, pour la physique quantique, une particule peut se trouver simultanément en plusieurs endroits. Mais, lorsqu’on l’observe, la (multi) particule se  « ré-assemble » en une seule, en un lieu déterminé par une certaine probabilité de présence.

 

De nombreuses explications de ce comportement ont été esquissées depuis des décennies. Ces tentatives vont de l’extrême le plus « rationnel » (« la théorie quantique n’est qu’un formalisme mathématique qui ne décrit pas physiquement le comportement réel des particules »), à l’extrême le plus « spéculatif » (« il existe autant d’univers parallèle qu’il y a de possibilités de présence d’une même particule en des lieux distincts »).

 

L’improbable pour expliquer l’incertain

 

Que signifie la possibilité de l’existence d’une multitude d’univers parallèles ? Lorsque la particule est « démultipliée » en plusieurs lieux, il se crée en réalité une superposition d’univers. Dans chacun des univers, la particule occupera un lieu et un seul. Ici, il est question non plus de superposition d’états d’une particule mais de superposition d’univers. Dès qu’on effectue la mesure, on disjoint les univers. Chacun d’eux suivra sa propre évolution, indépendamment des autres, et sera mesuré par des chercheurs « parallèles » dans chaque univers. Si « farfelue » qui puisse paraître une telle interprétation, elle est prise au sérieux par de nombreux physiciens. Car elle est bien la seule à pouvoir résoudre le paradoxe du grand-père et celui de l’écrivain. Ainsi, lorsqu’on crée une boucle temporelle, on construit en même temps un pont entre deux univers parallèles.

 

 

 BigBounce                 Trou de ver-v4

 

 

 

La résolution des paradoxes devient dès lors facile. Le petit-fils de l’inventeur vivait dans son univers. Quand il emprunte le trou de ver, il revient en arrière dans le temps, mais il change aussi d’univers. Il se retrouve alors face à un grand-père qui vit dans un univers qui n’est pas l’univers d’origine de notre voyageur. S’il tue son aïeul, il ne naîtra jamais dans l’univers où il a échoué. Mais il naîtra parfaitement dans l’univers d’où il est parti, car, là, le grand-père n’aura pas été tué (il n’aura même pas rencontré son petit-fils psychopathe venant du futur !). Ainsi, en retournant dans le passé, le voyageur va modifier l’histoire d’un univers auquel il n’appartient pas. Ses actions n’auront aucune conséquence sur son univers d’origine ni donc sur lui-même.

 

Le paradoxe de l’écrivain se résout de la même façon. Un écrivain recevra le livre que son « double » écrira dans le futur de l’autre univers. Le premier copiera le livre, mais celui-ci sera néanmoins créé dans l’autre univers… L’acte de création aura lieu au moins dans un univers. Les paradoxes s’estompent donc au prix – élevé ! – d’une multiplicité d’univers. Il n’en demeure pas moins que les physiciens semblent se servir de l’extrêmement improbable pour expliquer le fortement incertain !

 

Mais la difficulté théorique se complique d’autres écueils, plus « techniques » : comment passer à travers un trou noir sans être broyé et réduit à l’état de particule élémentaire ? La pression gravitationnelle qui s’exerce sur un objet à proximité d’un trou noir est si forte qu’à priori aucun vaisseau, si robuste qu’il soit ne pourrait garder son intégrité physique. Toujours est-il que si, un jour, dans vingt, cinquante ou cent ans, l’homme parvient à voyager dans le temps, les historiens diront que le premier pas de ce périple a été franchi au milieu des années 90.

 

L’effet Casimir : quelque chose à partir de rien

 

Prévu par le physicien allemand H.B.G. Casimir en 1940, mais observé de manière expérimentale seulement depuis 1994, l’effet Casimir met en évidence les fluctuations quantiques du vide.


 

L'effet casimir-v2                 L'effet casimir-v3

 

 

 

En effet, d’après la théorie quantique, le vide est en réalité peuplé de particules « virtuelles » qui naissent et disparaissent si vite qu’on est incapable de les voir. La plupart du temps, le vide reste vide, mais parfois les particules virtuelles (éphémères) deviennent « réelles » (c’est-à-dire qu’elles durent). Or le principe de symétrie, qui régit les lois physiques à l’échelle macroscopique, indique que « rien ne se crée, rien ne se perd, tout se transforme ». Donc, si une particule virtuelle devait perdurer, il faudrait que l’antiparticule qui lui est associé naisse et demeure aussi. Or, l’effet Casimir contrevient à ce principe : on peut par exemple faire naître du vide et des électrons sans produire simultanément les anti-électrons (ou positons) associés. En principe, on dit qu’il y a « rupture de symétrie » du vide. Dans les équations, ce phénomène se traduit par la création d’énergie négative.

 

 








[1] Quantité de matière par unité de volume.

[2] Kurt Gödel, Kip Thorne (physicien au Californian Institute of Technology).

[3] Ces deux valeurs, dites constantes de Planck, marquent la limite en deçà de laquelle les lois physiques nous échappent.

[4] Un effet ne peut se produire avant la cause qui lui donne naissance : l’effet suit la cause et ne la précède pas.

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 11:50

Contexte

 

Si aller voir ce qui se passe au centre de la Terre est l’un des voyages qui, au même titre que marcher sur la Lune, a toujours stimulé l’imagination des hommes, l’entreprise demeure toujours une impossibilité physique. Du coup, les scientifiques ont tourné la difficulté : ils cherchent à « faire venir » le centre de la Terre dans leurs laboratoires, en recréant les conditions de température et de pression qui y règnent. Une invention rendit la chose possible : la cellule à enclumes de diamant, mise au point en 1959 par quatre Américains du National Bureau of Standards, Charles Weir, Ellis Lippincott, Alvin Valkenburg et Elmer Bunting.

 

Géomagnétisme : 2000 tours/minute en ballon

 

 

 

 ib2587,experience-derviche-tourneur-lgit-grenoble-simuler-g

 

 

 

L’origine du champ magnétique terrestre fait toujours débat. Considérations théoriques et simulations numériques suggèrent qu’il est produit par les mouvements de convection qui brassent sans cesse le noyau de fer liquide. On admet que l’écoulement de ce fluide métallique, conducteur d’électricité, à travers un champ magnétique, induit des courants électriques qui, à leur tour, créent un champ magnétique. Bref, le noyau fonctionnerait comme une énorme dynamo qui s’auto-entretiendrait. Mais comment marche-t-elle ? Avec quelle énergie ? Et pourquoi le champ magnétique fluctue-t-il et s’inverse-t-il dans le temps ?

 

Pour répondre à ces questions, les chercheurs du laboratoire de géophysique interne et de tectonophysique de Grenoble ont conçu, sous la houlette de Philippe Cardin et Henri-Claude Nataf, une expérience originale, surnommée le « derviche tourneur sodium ». Inauguré en octobre 2003, le dispositif expérimental devrait faire venir le cœur de la Terre jusqu’aux chercheurs…

 

Une double sphère


La pièce maîtresse est une sphère en inox de 40 cm de diamètre remplie de sodium liquide. Elle dissimule une boule de cuivre de 13 cm de diamètre portant un aimant permanent. La première représente le noyau externe liquide de la Terre, la seconde, sa graine solide. Un premier moteur fait tourner la sphère jusqu’à 2000 tours/minute. Un second entraîne la graine centrale à vitesse variable. Emboîtées, elles ne tournent cependant pas tout à fait en même temps. Résultat : le mouvement différentiel va entraîner le sodium, l’étirer et le mettre en mouvement. Les simulations numériques réalisées en amont donnent une idée de la géométrie de ces mouvements : des tourbillons (cyclones et anticyclones) apparaissent, dont les axes sont parallèles à l’axe de rotation de la sphère. Comme pour la Terre, le mouvement du métal liquide entre les deux sphères va créer le champ magnétique. Il sera alors possible de mesurer de façon continue la vitesse d’écoulement du sodium liquide et l’intensité du champ magnétique induit. Autres paramètres étudiés : le champ de pression (dont la mesure permet aussi de remonter à la vitesse de l’écoulement) et les potentiels électriques en surface qui favorisent la mesure des courants électriques générés par l’écoulement du sodium engendrant le champ magnétique.

 

A cette fin, une batterie d’instruments de mesure a été placée sous la sphère, contrôlée en temps réel par deux ordinateurs. L’un, voué au contrôle et aux commandes, affiche les données en temps réel. L’autre reçoit les mesures scientifiques. Reste que si l’un des intérêts de cette expérience est d’utiliser du sodium liquide, métal dont la viscosité est comparable à celle du noyau terrestre, ce choix n’est pas sans risques : le sodium liquide s’enflamme à l’air. Il réagit aussi très violemment avec l’eau, formant de l’hydrogène qui, en se combinant avec l’oxygène de l’atmosphère, explose. Aussi la salle de 24 m² qui abrite l’expérience est-elle revêtue d’acier en inox et placée sous surveillance 24h sur 24, tandis que son sol est surélevé de 1,20 m pour éviter l’entrée d’eau. Des aménagements qui expliquent le coût de l’opération : 350 000 euros, financés par le ministère de la Recherche et l’Institut national des sciences de l’Univers du CNRS. Il ne reste plus qu’à attendre que l’expérience donne des nouvelles du centre de la Terre.

 

Géocristallographie : de la Terre au noyau

 

La graine, cette boule solide au centre de la Terre, présente une curieuse propriété, connue depuis une dizaine d’années : les ondes sismiques y voyagent légèrement plus vite le long d’un axe nord-sud que dans le plan équatorial. Selon les géologues, elle serait donc « anisotrope », une particularité qui pourrait s’expliquer par une orientation préférentielle des cristaux de fer qui constitueraient la graine. Mais comment tester cette hypothèse ? A défaut d’échantillonner directement les matériaux qui constituent les couches les plus profondes de la Terre, il est possible de recréer en laboratoire les conditions extrêmes qui règnent au cœur de notre planète et d’y soumettre des cristaux de fer pour voir si leurs propriétés sont conformes à celles du « corps » de la graine. C’est l’un de ces voyages virtuels que des chercheurs de l’European Synchroton Radiation Facility de Grenoble et du laboratoire de minéralogie-cristallographie de l’université de Paris VI, ont effectué, voici quelques mois, non pas dans l’ambiance feutrée d’une salle de laboratoire mais dans celle, plus électrique et internationale, du synchroton européen, le fameux accélérateur de particules situé à Grenoble ! Pour la première fois, ils ont pu mesurer la vitesse de propagation des ondes acoustiques (comparables aux ondes sismiques qui circulent à l’intérieur de la Terre) dans des cristaux de fer soumis à des pressions de plus de 110 gigapascals, soit plus de 1 million de fois la pression atmosphérique !

 

Un échange d’énergie

 

La tâche était ardue : les chercheurs ont dû travailler sur des échantillons de fer de quelques dizaines de micromètres. Ils ont donc comprimé des agrégats de cristaux de fer entre deux pointes de diamants, puis les ont soumis à un rayonnement X. Le cristal retenu est de type hexagonal compact, forme sous laquelle le fer pourrait être présent dans la graine. Concrètement, la technique repose sur le principe d’un échange d’énergie entre les photons X et des phonons, c’est-à-dire des ondes acoustiques engendrées par la vibration des atomes de fer à l’intérieur du réseau cristallin. De cet échange, on peut déduire la vitesse de propagation des ondes acoustiques et la comparer avec celle des ondes sismiques. Mais comment vérifier que la vitesse des premières varie suivant leur trajet,  à l’instar de ce qui se passe pour les secondes ? Simple : à l’intérieur de la « cellule à enclumes de diamants », les cristaux de fer s’orientent naturellement sous l’effet de la pression, suivant l’axe de compression de la cellule. En inclinant plus ou moins celle-ci, les chercheurs ont pu mesurer la vitesse de propagation du son dans différentes directions et mettre là aussi en évidence une antisotropie. Et en effet, le son voyage légèrement plus vite suivant l’axe d’allongement des cristaux de fer que dans leur plan équatorial. Conclusion : l’antisotropie s’expliquerait bien par une orientation préférentielle des cristaux de fer à l’intérieur de la graine. Reste que ces expériences de diffusion inélastiques sont longues : il faut 24 heures pour analyser un point à une pression et une orientation de cristaux données ! Ce qui explique que l’expérience a dû se dérouler en deux temps sur 2003 et 2004.

 

Géoneutrinos : 6350 km sous les mers

 

Il y a un siècle, la découverte des rayons X permettait de scruter le corps humain. Bientôt, une particule élémentaire, l’antineutrino, pourrait jouer le même rôle en autorisant les géologues à visualiser la radioactivité interne de la Terre. Une première ! Pour l’instant, le voyage est théorique… L’équipe de l’italien Gianni Florentini, de l’université de Ferrara, a imaginé recourir à un détecteur d’antineutrinos, particules émises par notre planète, pour percer un mystère : l’origine de la chaleur interne du globe. La Terre irradie 40 térawatts (1012 W) de chaleur vers l’espace, soit autant que 100 000 centrales thermiques ! Si cette énergie provient surtout du Soleil, le sous-sol n’est pas en reste : chaque mètre carré émet 80 milliwatts venant des entrailles du globe.

 

 

 barracuda-3d-DCN

 

 

Savoir décrypter

 

Cette énergie a plusieurs sources possibles. « Lors de la formation de la Terre, l’énergie cinétique des roches en accrétion qui s’entrechoquaient s’est transformée en énergie thermique, explique Alessandro Forte, géologue à l’université du Québec, à Montréal. Avec l’effondrement gravitationnel de la matière vers le centre, la plus grande partie de cette chaleur a été piégée dans le noyau ». Autre source potentielle : les éléments radioactifs capturés lors de la formation de la Terre et qui se désintègrent lentement (thorium, potassium, uranium). Reste qu’on ignore quelle est la part de la radioactivité dans la chaleur produite par la Terre, il n’empêche : « Les éléments radioactifs emprisonnés sous terre émettent des neutrinos et des antineutrinos lorsqu’ils se désintègrent, explique Gianni Florentini. Ils parviennent intactes à la surface, où nous pouvons les détecter ». Encore faut-il parvenir à décrypter les messages dont ces espions du monde sous-terrain sont porteurs… Un défi relevé l’été 2002, par les chercheurs du Sudbury Neutrino Observatory, un détecteur installé au Canada. Ils sont parvenus à décrire le changement de nature qui affecte une partie des neutrinos émis et explique que les détecteurs récupèrent moins de particules que prévu. Pour voyager au centre de la Terre, les Italiens proposent donc d’utiliser un détecteur classique : une sphère remplie d’eau lourde, c’est-à-dire enrichie en deutérium (un isotope de l’hydrogène qui réagit avec les neutrinos) et dont l’intérieur est tapissé de milliers de tubes photomultiplicateurs, les yeux du détecteur. Un antineutrino qui pénètre dans le détecteur a toutes les chances de rencontrer un noyau de deutérium. Tous deux réagissent en échangeant une particule chargée, un boson W. Le neutrino se transforme alors en un électron bourré d’énergie éjecté à la vitesse de la lumière. Ce phénomène provoque une onde de choc de lumière, la radiation Cherenkov », détectée par les tubes. On détermine alors la somme des antineutrinos émis au départ, en fonction de celle recueillie par le détecteur. Ainsi, pour la première fois, on pourra estimer la quantité d’éléments radioactifs situés dans les entrailles de la Terre ! Cela étant, la méthode ne permet pas de conclure qu’un antigéoneutrino a été produit dans la croûte, le manteau ou le noyau. Elle ne localise pas précisément la radioactivité souterraine. Conscient de ces limites, Gianni Florentini a imaginé une expérience encore plus ambitieuse : « Le détecteur pourrait être installé dans un sous-marin. En multipliant les expériences en différents lieux bien choisis, les géologues dessineraient une véritable carte de la radioactivité souterraine ». L’idée est lancée, la balle est dans le camp des géologues.


Le sort du vivant est d’ordre magnétique

 

A quoi bon aller au centre de la Terre ? La question ne se pose plus quand on sait que le sort des nombreuses espèces animales, et même celui de l’homme, dépend de l’activité du noyau enfoui sous nos pieds. Sans parler de la prévision des séismes ou de l’élucidation de mystères enveloppant d’autres planètes. Plongée au cœur de préoccupations cruciales.

 

 

 

Aurora-Borealis
 

 

 

D’intrépides voyageuses, telles sont les tortues de mer, qui parcourent des milliers de kilomètres pour se reproduire dans des contrées propices. Après avoir quitté la Floride, ne traversent-elles pas l’Atlantique jusqu’aux Açores, avant de piquer vers le sud ? Or, aux Açores, elles frôlent un courant qui monte vers l’Atlantique Nord. Un courant qui, si elles s’y aventuraient, les entraînerait inéluctablement vers une froideur fatale. Comment font-elles pour ne pas se tromper de route ? On sait depuis peu qu’elles se repèrent grâce au champ magnétique terrestre. Autrement dit, le sort des tortues – mais aussi des oiseaux migrateurs, de bactéries, etc. – est suspendu à l’activité du noyau terrestre enfoui à 6350 km sous leurs nageoires. Et encore plus quand on sait que le champ magnétique ne cesse de varier, comme lors des deux derniers siècles. Sans conséquences, semble-t-il, pour les tortues de mer. Mais en sera-t-il toujours ainsi ? Si tel n’était le cas, que de bouleversements alors sur Terre !

 

Des effets sur la santé

 

Le problème, c’est que pour estimer les variations futures du champ magnétique, il faudrait en connaître l’origine. Une tâche impossible tant que la nature du formidable générateur de champ magnétique niché au centre de la Terre ne sera pas précisément connue. Et voilà bien le premier intérêt d’aller voir de près ce qui se passe au cœur de notre planète. Le noyau externe est-il constitué de fer en fusion agité de turbulences propres à créer un champ magnétique ? Contient-il du potassium 40 alimentant ce champ en énergie ? A moins qu’il ne le génère en se comportant tout entier comme un géoréacteur… Pour l’heure, les spécialistes peinent à trancher entre ces hypothèses. Pourtant, c’est le sort de nombreuses espèces animales qui est en jeu. Et même celui de l’homme ! Car le noyau a des conséquences directes sur sa santé. « La présence du champ magnétique terrestre est importante en ce sens que les lignes de champ protègent des radiations cosmiques », rappelle Annie Souriau, géophysicienne à l’Observatoire Midi-Pyrénées, à Toulouse. De fait, le champ magnétique agit comme un bouclier contre les particules électriquement chargées qui heurtent de plein fouet notre planète. Provenant du Soleil ou de l’espace, ces particules (des protons, des électrons, des noyaux d’hélium ionisés…) sont en partie déviées par les lignes de champ magnétique jusqu’aux pôles où, en ionisant l’atmosphère, elles nappent le ciel d’aurores boréales. Sans le noyau et son champ magnétique, ce bouclier n’existerait pas et notre planète serait bombardée de particules cosmiques. Exposés à une importante radioactivité, les êtres vivants connaîtraient alors mortalité et mutations…

 

Ce n’est pas tout. Car nombre d’équipements sont également concernés. En Amérique du Sud, par exemple, une anomalie de bas champ magnétique cause régulièrement des avaries aux satellites survolant la région. En 2001, elle provoqua même 15 jours durant la panne d’un des instruments du satellite d’observation de la Terre de la Nasa, Terra. Et les dégâts s’accentuent lorsque s’y ajoutent les humeurs du Soleil. Lors de ses maxima d’activités, les bouffées de particules qu’exhale notre astre sont si denses qu’elles perturbent le champ magnétique et déclenchent des orages magnétiques. Orages qui détruisent des satellites en déréglant les puces électroniques embarquées, troublent les communications et les réseaux électriques. En 1989, le Québec fut ainsi plongé dans l’obscurité après qu’une tempête magnétique eut fait disjoncter le réseau électrique.

 

Questions : doit-on alors craindre une diminution générale du champ magnétique et donc un effritement de la protection contre les particules cosmiques ? Une modification du champ magnétique accentuerait-elle les orages magnétiques ? Là encore, seule l’élucidation du moteur du champ magnétique permettrait de répondre.

 

Vers l’inversion des pôles ?

 

Toutefois, les donnés paléomagnétiques fournissent quelques pistes. L’orientation du champ magnétique à diverses époques du passé peut se déduire, en effet, de la disposition de cristaux dans des laves solidifiées. Et ces enregistrements géologiques ont montré que le champ était à son maximum il y a deux mille ans et qu’il n’a, depuis, cessé de diminuer. S’il continue de la sorte, il s’annulera, puis s’inversera (les pôles magnétiques Nord et Sud échangeant leur place) dans les deux prochains millénaires. Une durée compatible avec les travaux de Bradford Clement de l’université internationale de Floride qui, en examinant des roches sédimentaires, a conclu qu’en moyenne lors des quatre dernières inversions (la dernière datant d’il y a 780 000 ans) le champ a basculé en 7000 ans.

 

 

 soleil-terre-bouclemagnetique

 

 

 

Si une inversion est bien en cours, les variations qu’elle entraîne portent sur des durées de l’ordre d’une centaine à un millier d’années. Mais le risque qui pèse sur les satellites n’en est pas pour autant écarté car le champ magnétique se déplace à une vitesse moyenne de 10 km par an. A Paris, par exemple, la direction indiquée par les boussoles a pivoté d’une trentaine de degrés en quatre siècles, signe d’un déplacement du pôle Nord magnétique. Conclusion : une zone placée sous haute protection du champ magnétique peut en quelques années perdre une grosse partie de cette défense. L’évolution du champ magnétique est donc bien une préoccupation à court terme pour l’industrie spatiale.

 

A plus longue échéance, l’intérêt d’étudier le noyau touche cette fois à la prévision des séismes ! A l’origine des tremblements de terre, le déplacement des plaques de la surface terrestre est en effet l’expression superficielle de la dynamique du manteau. « Et nous n’aurons aucune certitude en la matière sans connaissances fondamentales sur le noyau. Car la dynamique du noyau et celle du manteau sont liées », explique Mar Monnereau, directeur-adjoint du laboratoire dynamique terrestre et planétaire à Toulouse. On aurait tort de considérer le manteau terrestre rigide, comme posé sur le noyau liquide, tel un bouchon flottant à la surface de l’eau. Une analogie plus juste serait celle de la casserole d’huile chaude placée sur un feu. Le manteau est mis en mouvement par sa propre chaleur, mais également par celle du noyau. Quiconque veut décrire la dynamique du manteau et la tectonique des plaques doit donc s’intéresser aux phénomènes qui siègent au cœur de la planète. Mais ici, un problème surgit. Celui de l’incertitude régnant sur les sources d’énergie à l’œuvre dans le noyau. Car même si on ne considère que les sources d’énergie classiques (chaleur emmagasinée à la naissance de la Terre, radioactivité naturelle, chaleur latente lors de la solidification de la graine, énergie potentielle des éléments radioactifs et des éléments légers rejetés lors de la cristallisation), les contributions de chacune d’elles sont entachées d’une large marge d’erreur. Avec comme conséquence, reconnaît Marc Monnereau, que « la température de surface du noyau est inconnue à plusieurs milliers de degrés Celsius près : elle varie selon les modèles entre 3000 et 6000 degrés ».

 

En raison de ce flou, les géophysiciens simulent la dynamique du manteau via les modèles « adimensionnés », c’est-à-dire faisant fi de paramètres tels qu’épaisseur du manteau ou température du noyau. Les conclusions qu’ils en tirent sont donc restreintes à des mécanismes généraux. Pour améliorer ces modèles, il paraît donc essentiel de préciser les sources d’énergie siégeant dans le noyau et leurs contributions respectives. Les simulations de la dynamique du manteau progresseront alors, améliorant du même coup la prévision des déplacements des plaques tectoniques. Il faudra certes patienter avant que la sismologie ne bénéficie des retombées de ces recherches, car les séismes et la tectonique des plaques s’effectuent à deux échelles différentes. Un séisme résulte de l’accumulation de tensions locales de l’écorce terrestre, à l’échelle d’une faille qui s’étend du mètre au kilomètre ; tandis que les modèles numériques de la dynamique de la Terre simulent la tectonique des plaques à l’échelle des continents. Mais la précision des modèles grandissant, la sismologie et l’étude de la tectonique des plaques finiront par se rejoindre, et la première profitera des avancées de la seconde.

 

Contrer la dynamo solaire


Et si l’étude du noyau éclaire la dynamique actuelle de la Terre, il en sera a fortiori de même pour plusieurs des zones d’ombre qui émaillent le passé de la planète, telles l’apparition des continents ou la date de formation du noyau. De quoi, au passage, en savoir plus sur les autres planètes du système solaire puisque toutes, sauf Vénus et Mars, possèdent un champ magnétique et, du coup, recèlent leur lot d’énigmes. Uranus, par exemple, indique un champ magnétique incliné de 55° par rapport à l’axe de rotation de la planète, alors que cet angle ne dépasse pas 10° chez les autres planètes. Est-ce circonstanciel, le champ d’Uranus étant sur le point de s’inverser ? Ou bien, cette inclinaison a-t-elle toujours existé ? Pour ces planètes, la Terre pourrait bien servir de système modèle. Tout comme pour le Soleil.

 

 

 mag field1              aurore boreale

  

 

Constitué d’un plasma d’hydrogène et d’hélium ionisés à 90 %, il abrite lui aussi une dynamo. Une dynamo responsable du cycle d’activité solaire de onze ans qui suscite bien des interrogations. Le comportement de notre étoile est pourtant crucial pour les activités humaines car les expulsions violentes de particules qui causent, sur Terre, des orages magnétiques, surviennent lors des épisodes d’intense activité solaire. En étudiant les rouages du moteur terrestre, nous parviendrons peut-être un jour à nous prémunir contre les foudres de la dynamo solaire. Pas de doute, le centre de la Terre est bien au cœur de multiples préoccupations.

 

Entretien avec Marc Monnereau

Du Laboratoire dynamique terrestre et planétaire, Toulouse.

 

En quoi l’étude du noyau de la Terre nous aide-t-elle à mieux connaître les autres planètes du système solaire ?

 

Grâce à l’étude de la dynamo terrestre, nous savons quelles conditions une planète doit respecter pour posséder un champ magnétique. Ce champ doit être entretenu par une source d’énergie interne, la planète doit tourner et son noyau être liquide.

 

Qu’en déduit-on lorsqu’une planète est dépourvue de champ magnétique ?

 

Mars ne possède pas de champ magnétique, mais on pense qu’elle a un noyau. L’absence de champ magnétique découlerait du refroidissement de la planète et de la solidification avancée de son noyau.

 

Pourquoi Vénus, jumelle de la Terre, n’a-t-elle pas de champ magnétique ?

 

Vénus est d’une taille comparable à la Terre, elle devrait donc a priori être dans le même état de refroidissement que notre planète, et donc avoir un noyau liquide et un champ magnétique. Elle ne fait certes qu’un tour sur elle-même en une année, mais les spécialistes disent que cette rotation suffit à produire un champ magnétique. On s’interroge donc sur la vitesse à laquelle Vénus s’est refroidie.

 

 


mars terre coupe

 
 

 

 

 

 

 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 11:33

Voyage au centre de la Terre

 

Mais que cache le centre de la Terre ?

 

C’est l’ultime « terra incognita » : à 6350 km sous nos pieds, le cœur de notre planète garde jalousement son secret, faute qu’on puisse y aller voir de près. Du coup, les hypothèses rivalisent : s’agit-il d’une dynamo ? D’un réacteur ? D’autre chose ? Pour le savoir, les scientifiques montent d’incroyables explorations… directement dans leurs labos ! Embarquement immédiat pour la plus obscure des destinations, là où se joue aussi l’avenir du vivant…

 

 

 terre creuse coupe

 

 

L’homme a beau allé sur Mars, il ne sait toujours pas ce que cache le centre de la Terre ! Du coup, les hypothèses rivalisent. Dynamo ? Réacteur nucléaire ?... Une récente découverte vient de relancer le débat. Enquête à 6350 km de profondeur.

 

Le 3 juillet 2004, des dizaines de scientifiques venus du monde entier ont fait route vers Garmish-Partenkirchen, la célèbre station de ski bavaroise. Paradoxalement, ils se sont donné rendez-vous dans ce lieu fréquenté et haut perché pour s’entretenir du plus mystérieux et du plus profond endroit du globe terrestre : le centre de la Terre, cette région située à 6350 km sous nos pieds et que personne n’a jamais visitée. Ce symposium SEDI, pour Study of the Earth’s Deep Interior, vise à voir plus clair dans les entrailles du globe. Les travaux de Jeffrey Nguyen et Neil Holmes publiés en avril 2004 y seront abondamment commenté, les géochimistes californiens ayant annoncé que le cœur de notre planète serait fait d’une seule sorte de cristal de fer qu’ils ne sont pas parvenus à identifier. En effet, à ce jour, on en sait beaucoup moins sur cette partie du monde que sur la surface du Soleil ! Un astre situé pourtant 25.000 fois plus loin de nous…

 

Une certitude, cependant : contrairement à une idée bien ancrée dans l’imaginaire populaire, ce cœur n’est en rien une énorme boule de feu. Une confusion entretenue par les coulées de lave venues des profondeurs et qui s’épanchent de la bouche des volcans. Or, la matière minérale en fusion provient de chambres « magnétiques » situées seulement à quelques kilomètres de la surface ! En fait, selon la théorie dominante avancée dès 1936 par la sismologue danoise Inge Lehmann et présenté à tort comme une certitude par les manuels, le centre de la Terre est un gigantesque cœur de 2400 km de diamètre, composé de fer solide et d’éléments à l’état de traces (nickel, soufre, oxygène…). Une sphère à peine plus grosse que la Lune !

 

Un noyau dans une mer de fer

 

Selon ladite théorie, cette « graine » ou « noyau interne » baigne dans un immense océan de fer en fusion, le « noyau externe », et siège à 5100 km de profondeur, sous la « croûte », la couche géologique terrestre la plus superficielle, et sous le « manteau ». La pression qui y règne de 360 gigapascals (GPa), équivaut à plus de 3.600.000 fois celle mesurée en surface. Et la température atteint 6000° C, l’équivalent de la température à la surface du Soleil ! Aucune de ces données n’a été récoltée sur place : il s’agit d’estimations obtenues par des méthodes de sondage indirectes. Quant au précieux champ magnétique terrestre engendré par le noyau, cette force qui nous préserve des vents solaires, dirige les boussoles et guide les oiseaux migrateurs, il fait l’objet de bien des discussions.

 

Une boule d’uranium ?

 

« En fait, le champ magnétique est bien décrit depuis plus de quatre siècles : les mesures directes à la surface du globe ont montré que cette force ressemble au champ d’un aimant dipolaire situé au centre de la Terre et incliné approximativement de 11° par rapport à l’axe de rotation de la planète, explique Philippe Cardin, du laboratoire de géophysique interne et tectonophysique, à Grenoble. Reste qu’en réalité aucune étude scientifique ne corrobore l’existence d’un aimant permanent au centre de la Terre. Aussi, l’origine de ce champ dipolaire est-elle encore très mal comprise ». Et pour tenter de percer ce mystère, plusieurs hypothèses rivalisent avec la thèse précédente du noyau de fer solide, qui recueille les faveurs de la majorité des chercheurs. Selon cette théorie, le champ magnétique serait généré par d’énormes tourbillons au sein du liquide entourant la graine, transformant celle-ci en dynamo. Oui, mais tout s’obscurcit lorsqu’il s’agit de comprendre la cause des changements de direction du champ magnétique terrestre. Car dans le passé, le nord magnétique correspondait tantôt au pôle Sud géographique, comme il y a 780 000 ans, tantôt au pôle Nord, comme aujourd’hui. D’après les partisans de la thèse du cœur de fer, ces inversions seraient dues à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication qui ne fédère pas tous les avis…

 

 

 

 terrelune

 

 

Ainsi Richard Muller, physicien à l’université de Californie avance une hypothèse surprenante : « La plupart des inversions du champ magnétique sont dues à des avalanches spontanées se produisant à la limite du noyau externe et du manteau : se tassant à cette frontière, les sédiments retombent dans le noyau et perturbent les tourbillons à l’origine du champ magnétique ». Une thèse controversée : « Certes, la limite noyau-manteau étant aussi accidentée que les fonds marins, des éboulements similaires à ceux observés dans les océans peuvent s’y produire, commente Stéphane Labrosse, de l’Institut de physique du globe, à Paris, partisan des tourbillons au sein du noyau de fer. Toutefois, aucune coulée, même importante, ne peut modifier la circulation globale de l’eau. Pourquoi donc imaginer qu’une même cause aurait des effets plus importants dans le noyau, au point d’inverser le champ magnétique ? » Réponse de Richard Muller : un choc puissant comme la collision de la Terre avec des astéroïdes pourrait déclencher des avalanches nettement plus conséquentes qu’un éboulement marin. Ce qui est jugé spéculatif par les partisans de la thèse du noyau de fer. Reste que le physicien ne va pas jusqu’à affirmer qu’une structure autre que la boule de fer solide se cache au centre de la Terre. Le géophysicien américain Marvin Herndon si !

 

Il postule en effet que la graine, en son centre, ne renferme pas du fer mais une énorme boule d’uranium radioactif (uranium 235 et 238) de 8 km de diamètre, siège de réactions de fissions en chaîne. Le centre de la Terre ne serait donc pas une dynamo mais un énorme réacteur nucléaire naturel : un « géoréacteur ». Lequel  fournirait une énergie distincte de celle émise par la radioactivité naturelle produite par trois éléments dans la croûte terrestre : le thorium 232, l’uranium 235 et l’uranium 238. Cette thèse repose sur l’observation d’un rapport 3He/4He (deux formes d’hélium, un gaz rare) anormalement élevé dans des roches volcaniques d’Hawaï, l’élément 3He étant un sous-produit de fission nucléaire. Elle explique à sa manière les inversions magnétiques.

 

Autre candidat : le potassium

 

« Pour des raisons qui nous échappent encore, le géoréacteur s’assoupirait avant de redoubler d’intensité, entraînant les inversions du champ magnétique lors de ses reprises d’activité », précise Marvin Herndon. L’idée est séduisante. Sauf que l’existence d’un géoréacteur est vivement critiquée par la communauté scientifique qui, dans son ensemble, soutient la thèse dominante d’un noyau de fer se comportant comme une dynamo. D’autant que cette dernière explique le rapport élevé de 3He/4He dans les basaltes hawaïens par une persistance de l’hélium produit lors de la formation de la Terre. Les travaux de Marvin Herndon ont néanmoins attiré l’attention de chercheurs, néerlandais du Kernfysich Versneller Instituut, un institut de physique nucléaire rattaché à l’université de Groningen. En effet, dans un récent article intitulé « Quest for a nuclear georeactor » (« A la recherche d’un géoréacteur nucléaire »), Robert de Meijer et ses collègues proposent de construire un laboratoire souterrain afin de savoir si nous sommes réellement assis sur un géoréacteur, tandis que les partisans des autres hypothèses ne sont pas en reste et montent leurs propres expériences pour les valider : « L’idée est de développer un détecteur des particules produites lors de la désintégration de l’uranium radioactif : les antineutrinos, précise Robert de Meijer. Un système plus sensible que ceux existant à ce jour, comme celui de Kam-Land, au Japon. On pense le construire sur l’île Curaçao, au large du Venezuela, là où la croûte du globe est mince et loin de toute industrie, afin d’éviter les interférences entre les particules venant du centre de la Terre et celles produites par la croûte terrestre et les centrales nucléaires. »

 

La thèse d’un géoréacteur se rapproche d’une autre théorie, moins extrême, qui elle aussi avance la présence de radioactivité dans le noyau. Attention, il n’est pas question ici d’uranium et de réacteur nucléaire, mais d’un élément moins lourd, qui serait dispersé dans tout le noyau et non concentré en son centre : le potassium 40, noté 40K. A la jonction de la théorie de la géodynamo et de celle du géoréacteur, cette troisième thèse fait du centre de notre planète un noyau de fer et de 40K. Explicitée pour la première fois dans les années 70, notamment par la planétologue américain Mark Bukowinski, cette hypothèse est née d’une question troublante. Si c’est l’énergie générée par le refroidissement de la graine qui alimente le champ magnétique, sachant que celui-ci existe depuis 3,2 milliards d’années et que la graine n’est âgée que d’un ou de deux milliards, d’où provenait l’énergie faisant « tourner » le champ avant la formation de la graine ?

 

Un cœur de fer radioactif : la thèse de la réconciliation ?

 

Réponse des partisans de la théorie du potassium radioactif : du 40K, dont la radioactivité est source d’énergie… Sitôt formulée, cette théorie a fait l’unanimité contre elle. Pour une raison simple : le potassium 40 ne peut avoir coulé au centre de la Terre lors de la formation de cette dernière il y a 4,6 milliards d’années. Il faut savoir, en effet, que selon l’hypothèse dominante expliquant la naissance de notre planète (là encore on en est réduit à des hypothèses), la Terre s’est formée dans le jeune système solaire par accrétion de météorites de plusieurs centaines de kilomètres de diamètre. Elle a ensuite fondu partiellement, principalement sous l’effet de la chaleur libérée par les chocs entre la planète et les météorites. Conséquence : à cause de la gravité, les métaux lourds, comme le fer, ont migré vers le centre en quelques dizaines de millions d’années, formant ainsi le noyau terrestre. Tandis que les éléments plus légers, comme les silicates montaient vers la surface pour former le manteau. D’après cette théorie, en coulant vers le centre de la Terre, le fer n’a pu entraîner avec lui le 40K, un composé qui ne se combine pas avec lui. Or, surprise, en décembre 2003, les Américains Kanani Lee et Raymond Jeanloz, géophysiciens de l’université de Berkeley de Californie, ont réussi à créer un alliage de fer et de 40K. Cette prouesse fut réalisée en portant un échantillon de fer et de potassium purs à hautes pressions (26 gigapascals, soit 250.000 fois la pression en surface) et température (dépassant les 2230° C). Une première internationale assurée de faire date dans les annales de géophysique.

 

 

  

athenoshpere

 

 

 

Car du coup, cet assemblage jamais obtenu jusque-là montre que le 40K a bel et bien pu gagner le centre de la Terre, à ses origines. « En considérant nos données, et en comparant les quantités de 40K présentes dans la croûte et le manteau actuellement et lors de la formation de la Terre, on peut dire que le noyau contient près de 0,1 % de 40K, triomphe Kanani Lee. Cette quantité paraît ridicule, mais elle peut suffire à fournir 25 % de la chaleur dissipée par la Terre, car un peu de 40K dégage beaucoup d’énergie ! ». « L’obtention d’un alliage de fer et de potassium est un résultat très important, commente Guillaume Fiquet, chercheur du laboratoire minéralogie-cristallographie de Paris. Mais pour valider la thèse du 40K, il faudra montrer que cet élément se lie avec le fer en présence de silicates comme c’était le cas lors de la formation de la Terre. Ce qui n’a pas été pris en compte ici. »

 

Quoi qu’il en soit, l’avancée réalisée par les deux chercheurs de Berkeley brouille encore davantage les pistes menant à la vraie nature du centre terrestre. Dynamo en fer ? Géoréacteur ? Cœur de fer couplé à de la radioactivité ? Ou, qui sait, autre chose ? A ce jour, rien ne permet de trancher. Mais les scientifiques travaillent d’arrache-pied pour extirper son secret à notre planète. Un peu partout dans le monde, des équipes mettent au point des outils d’étude plus précis, plus élaborés, plus fiables, afin de sonder les entrailles de la Terre. « En progressant à tâtons, nous avons atteint un degré de raffinement sans précédent dans notre réflexion, nos concepts et nos outils d’étude du noyau terrestre », explique Denis Andrault du laboratoire des géomatériaux. De quoi espérer en savoir plus sur le champ magnétique. Mais aussi répondre à une multitude d’autres questions relatives au centre de la Terre, toutes aussi importantes et nées des derniers résultats de la géophysique et de la géochimie. Ce qui n’est pas pour demain : le chemin est encore long pour les chercheurs rassemblés à Garnisch-Partenkirchen afin de déterminer ce qui se cache et se trame aux tréfonds de notre planète.

 

Chronologie

 

1914

 

Découverte du noyau de la Terre par le sismologue germano-américain Beno Gutenberg.

 

1936

 

En étudiant la propagation des ondes générées par les séismes à l’intérieur de la Terre, la sismologue danoise Inge Lehmann détecte la présence d’une « graine » de fer solide au centre de la planète.

 

2003

 

Le géophysicien américain Marvin Herndon postule la présence d’un géoréacteur dans le cœur de la Terre.

 

Décembre 2003

 

D’autres géophysiciens américains, Kanani Lee et Raymond JeanLoz, obtiennent en laboratoire un alliage de fer et de potassium radioactif plaidant pour la présence de radioactivité au centre de la Terre.

 

La thèse de la dynamo

 

Selon la thèse dominante, la Terre est formée d’une croûte, d’un manteau et d’un noyau. Ce dernier est une « graine » de fer nichée dans un océan de fer en fusion. Dans celui-ci, des courants de convection produisent le champ magnétique. A l’origine, le champ est dipolaire, puis ses pôles se confondent, avant d’échanger leur place. Selon la thèse de la dynamo, ceci serait dû à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication contestée.

 

 

 dynamoEarth                    geomag

 

 

Jargon

 

Aimant dipolaire : aimant de la forme d’un cylindre ou d’un barreau présentant des pôles nord et sud à ses extrémités.

 

Cristal : solide formé d’atomes, d’ions ou de molécules, arrangés selon un patron géométrique régulier et répétitif.

 

Fission : réaction nucléaire au cours de laquelle un noyau atomique lourd se scinde en deux noyaux de masses inférieures et ceci en produisant de l’énergie, un rayonnement gamma et des neutrons/

 

Silicate : minéral constitué de silice et d’oxygène et formant 95 % de la couche la plus superficielle de la planète, la croûte terrestre.

 

Le centre tourne-t-il plus vite que la surface ?

 

En 1996, Xiaodong Song, de l’université de l’Illinois, faisait sensation en annonçant que le centre de la Terre tourne plus vite que sa surface. En analysant les ondes des séismes, il avait en effet calculé que le noyau terrestre tourne avec une vitesse de 1,1° de plus par an, au point d’accomplir, tous les 400 ans, un tour de plus que la Terre ! « Ces résultats s’expliquent par le fait que la graine est nichée dans un environnement liquide de faible viscosité lui permettant de se désolidariser du reste de la planète, explique Raphaël Garcia, de l’Institut de physique du globe de Paris. Cependant, de nouveaux travaux ont remis en cause la différence de rotation du noyau, et d’autres publiés récemment, l’estiment insignifiante (0,2° par an). « La question reste donc, à ce jour en suspens. Or, une réponse n’est possible que si l’on comprend pourquoi les ondes sismiques se comportent si bizarrement au centre de la Terre : les enregistrements des stations sismiques ont montré que ces ondes cheminent plus rapidement le long de l’axe nord-sud que dans le plan équatorial. Plus de quinze ans après sa mise en évidence par l’américain Adam Dziewonski, de l’université d’Harvard, cet étrange phénomène, appelé « anisotropie », intrigue encore les chercheurs. « Il est peut-être lié à une orientation préférentielle des cristaux de fer dans le noyau, qui seraient tous alignés sur l’axe nord-sud. La vitesse des ondes traversant le centre de la Terre dépendrait donc de cette orientation. Mais ceci reste à démontrer ». Ce qui n’est pas gagné, la structure cristalline du fer restant elle aussi un mystère.

 

Une multitude de mystères persistent

 

L’hypothèse communément admise est la suivante : soumis à des pressions et à des températures extrêmes, le fer lové au cœur de notre planète adopterait, à l’image du diamant, une structure en cristal. Mais quelle forme prend-il ? Trois structures cristallines sont théoriquement possibles : « la cubique centrée », « l’hexagonale compacte », et une forme intermédiaire. Or, si en avril 2004, les Californiens Jeffrey Nguyen et Neil Holmes ont annoncé qu’il existait qu’une seule sorte de cristal au sein du noyau, ils ne sont pas parvenus à identifier la nature précise de celle-ci.

 

Par ailleurs, un autre mystère demeure non résolu : la quantité d’énergie disponible sous nos pieds. Une information capitale puisque de l’énergie stockée dans le noyau lors de la formation de la Terre dépend le maintien du champ magnétique terrestre. « Pour le savoir, on doit au préalable définir la température de cristallisation (solidification) du fer du noyau sous haute pression », explique Stéphane Labrosse, géophysicien à Paris. Mais cette nécessité se heurte à un problème de taille puisque cette fameuse température n’est toujours pas connue ! Et les chercheurs n’ont aucune chance de l’évaluer sans posséder la composition exacte du noyau en éléments légers, comme l’oxygène ou le souffre. Or, cette composition reste, elle aussi, mystérieuse…

 

A l’assaut du centre de la Terre

 

Inaccessible, les entrailles de notre planète ? Plus maintenant ! Car pour explorer les profondeurs, les scientifiques ont mis au point des ruses technologiques. Embarquement immédiat.

 

 

 

 terre-dynamo

 

 

 

Jules Verne eut beau imaginer une expédition parvenant après moult péripéties jusqu’au centre de la Terre, la réalité est moins romanesque : le cœur de notre planète demeure inaccessible à l’observation directe. Inutile de creuser une vertigineuse cheminée : avec ses 12 kilomètres, le forage le plus profond, situé sur la presqu’île russe de Kola, ne fait qu’écorcher la pellicule superficielle du globe ; et même s’il était possible de plonger jusqu’à son centre, à 6350 km de profondeur, comme l’a récemment proposé le géophysicien néo-zélandais David Stevenson, nous ne pourrions résister aux températures et pressions colossales qui y règnent : quelque 6000° C et 360 gigapascals ! Inaccessible donc, mais pas tout à fait impénétrable. Car il est aujourd’hui possible de voyager au centre de la Terre… de façon virtuelle !

 

Première à entreprendre le voyage, la sismologie a permis de sonder les profondeurs. De fait, les ondes émises lors des séismes se propagent dans toutes les directions et parviennent à la surface après avoir traversé des milieux aux propriétés physiques et chimiques variées. Elles sont parfois réfléchies ou réfractées aux interfaces de ces milieux. Autant de déviations qui rallongent leur périple. C’est en analysant les dizaines de milliers de temps parcours des ondes captées par les sismographes du monde entier qu’on a pu identifier les grandes structures de la Terre, en particulier le noyau externe liquide et la graine centrale solide. Et déterminer leur composition chimique.

 

Des voyages par procuration

 

Au début des années 50, le géophysicien américain Francis Birch a en effet découvert que la vitesse de ces ondes dépend de la densité du milieu traversé. Et donc que tout changement de vitesse peut s’interpréter au niveau chimique. Il en a déduit que le noyau externe et la graine étaient surtout constitués de fer, confirmant une hypothèse datant de 1936 et qui est aujourd’hui encore la théorie dominante. Depuis vingt ans, la cartographie des anomalies locales de vitesse des ondes (ou « tomographie sismique ») ainsi que l’identification d’anomalies de densité, c’est-à-dire d’hétérogénéités de matière, ont permis de visualiser des détails plus intimes encore. Lors d’un de ces grands voyages… par procuration, les sismologues ont ainsi constaté que les ondes sismiques qui traversent le centre de la Terre filent plus vite sur un axe nord-sud. L’anomalie, en apparence anodine, pourrait trahir un des secrets les mieux conservés du noyau : l’orientation préférentielle de ses cristaux.

 

Mais il existe d’autres moyens de déambuler dans les profondeurs de la Terre sans quitter son laboratoire. Les géophysiciens ont ainsi eu l’idée de soumettre la matière aux conditions de pression et de température énormes qui règnent dans le noyau et la graine. Une entreprise rendue possible, notamment, par la cellule à enclumes de diamant. Un nom assez explicite pour désigner un instrument qui révèle in situ le comportement de minéraux artificiellement descendus dans les profondeurs terrestres. Comprimé entre deux diamants et chauffé par un faisceau laser ou un four résistif, l’échantillon étudié est exposé aux conditions existant au centre de la Terre. Il dévoile alors les propriétés qui seraient les siennes : structures cristallographiques et électronique, élasticité, vitesse de déplacement d’ondes, diffraction de rayons X… Un dispositif qui permet de tester les minéraux candidats à la composition des couches profondes.

 

 

 

 terre-coupe-big                        image001

 

 

 

Les mouvements de nutation du globe, c’est-à-dire les petites oscillations de son axe de rotation au cours du temps, mais aussi les variations de l’accélération de la pesanteur ou du champ magnétique terrestre sont d’autres moyens de plonger dans les tréfonds de notre planète. Tous ces phénomènes livrent, en effet, un lot d’informations sur la dynamique de la Terre profonde et, notamment, sur les mouvements de convection qui brassent l’océan de fer liquide entourant la graine. Par exemple, les mesures réalisées en surface dans des observatoires depuis plus de quatre siècles, ou depuis des satellites comme l’appareil danois Oersted, l’attestent : le champ magnétique se déplace lentement à l’échelle de quelques décennies, voire de quelques siècles. Cette intrigante observation pourrait impliquer que le maelström en fusion est agité de mouvements rapides, de l’ordre de 1 à 10 kilomètres par an (contre seulement quelques centimètres par an au-dessus, dans le manteau terrestre). Encore une piste à suivre…

 

Enfin, théoriciens et expérimentateurs ne sont pas les explorateurs les moins intrépides lorsqu’ils modélisent et simulent la géométrie des cellules de convection, construisent des « géodynamos » théoriques susceptibles de produire un champ magnétique ou conçoivent des expériences toujours plus complexes et spectaculaires. Car l’homme ne manque finalement pas de ressources pour explorer malgré tout cette ultime terra incognita qui lui résiste. Embarquement immédiat pour trois de ces voyages virtuels qui n’ont rien à envier à celui que l’imagination féconde de Jules Verne inventa il y a plus d’un siècle…

.../...

Repost 0
Orphée - dans Sciences
25 février 2010 4 25 /02 /février /2010 19:23

Ordinateur quantique

 

L’incroyable révolution

 

 

L’informatique classique vit-elle ses dernières années ? Le XXIe siècle devrait consacrer l’ordinateur quantique, issu des principes les plus stupéfiants de la physique fondamentale. Il fournira en un éclair des résultats qui demanderaient aujourd’hui des années à la machine la plus performante.

 

 super-ordinateur CM5-2

 

 

Et si, dans quelques années, l’ordinateur était supplanté par une nouvelle machine ? Cette question semble illégitime dans un monde où croit de jour en jour la capacité des ordinateurs, au point de rendre obsolète celui qui, six mois auparavant, semblait du « dernier cri » ! Mais cette course frénétique technologique a fait oublier que le concept d’ordinateur, déjà quinquagénaire, n’a pas évolué d’un pouce depuis ces origines.

 

En revanche, la recherche de nouveaux concepts, elle, n’a jamais autant fourmillé d’idées. Cette recherche de pointe a aujourd’hui atteint son apogée avec l’invention d’une nouvelle classe de machine, l’ordinateur quantique, qui – et là réside la nouveauté – utilise les principes de la physique quantique, dont les lois défient le sens commun !

 

Cette machine, qui existe déjà au stade théorique, allie les conceptions les plus modernes de la physique de l’infiniment petit – la physique quantique – et les exigences de la logique mathématique. Pourtant, le mariage de la logique et du quantique n’était pas conclu d’avance. Comment imaginer que des calculs puissent être correctement menés dans un monde où règnent l’ubiquité – un objet peut se trouver au même moment en des lieux différents -, la dualité – une particule est aussi une onde – et d’autres phénomènes étranges ? L’informatique, discipline rigoureuse entre toutes, est désormais entrée dans l’ère magique du quantique.

 

C’est le symposium sur les fondements de l’informatique, à Los Alamitos (Californie), en octobre 1994, qui a marqué le grand tournant : Peter W. Shor, chercheur en informatique théorique aux laboratoires AT&T Bell, présente son travail et crée la sensation. Voilà pourtant plus de dix ans que le concept d’ordinateur quantique se précise dans l’esprit des scientifiques…

 

Dès 1982, le prix Nobel de physique Richard Feynman esquisse l’idée d’un ordinateur fonctionnant sur les principes de la physique quantique. Drôle d’idée, quand on songe que cette physique, qui décrit le comportement des particules dans l’infiniment petit, va à l’encontre de l’intuition et du sens commun. Mais une donnée manque pour lancer véritablement la recherche sur l’ordinateur quantique : la démonstration que celui-ci peut faire ce dont un ordinateur classique est incapable.

 

Un enjeu militaire et économique

 

C’est seulement douze ans plus tard, en 1994, que Peter Shor explique comment un ordinateur quantique résout rapidement un problème que les meilleurs ordinateurs d’aujourd’hui mettraient des années, voire des siècles, à résoudre. Il s’agit du problème de la « factorisation en nombres premiers de très grands nombres ». Or ce casse-tête de mathématique pure est intimement lié à celui de la sécurité des systèmes d’information. L’ordinateur quantique devient dès lors un enjeu militaire et économique ! Le premier pays qui réussirait à construire un tel ordinateur deviendrait le maître du monde en matière de cryptage-décryptage, pour véhiculer des informations aussi bien militaires que commerciales.

 

A l’heure où les réseaux numériques, tel Internet, envahissent notre quotidien, il n’en faut pas plus pour que des laboratoires et des industries du monde entier se lancent dans la course à la conception de cette machine quantique.

 

 

 

Etat quantique                          Simulation quantique

 

 

 

Mais, au-delà de son intérêt stratégique, l’ordinateur quantique marque une révolution dans la science du traitement de l’information et dans l’utilisation de la logique à des fins de calcul. Pour comprendre ce bouleversement, il faut pénétrer au cœur de la mécanique quantique, qui, sous son apparence rugueuse, cache un parfum d’exotisme. Rappelons d’abord que les mathématiciens savent depuis longtemps qu’on peut effectuer toutes les opérations logiques et mathématiques en manipulant uniquement des suites de 0 et 1. Chaque nombre peut s’écrire sous une forme binaire : 1 s’écrit 1, 2 s’écrit 10, 3 s’écrit 11, 4 s’écrit 100, etc.

 

Si l’on ajoute trois « opérateurs » logiques : ET, NON et COPIE, on obtient un système mathématique capable d’additionner, de soustraire, de multiplier, etc, capable même de faire des choix logiques du type : « Si le nombre A est inférieur au nombre B additionner A et B ; sinon, multiplier A par B ». Les ordinateurs classiques fonctionnent selon ce principe. Car le langage binaire, pure entité mathématique, a des équivalents physiques.

 

Ainsi, lorsqu’on allume ou qu’on éteint une lampe à l’aide d’un interrupteur, on manipule le langage binaire : 0 correspond à l’interrupteur ouvert (pas de lumière), 1 à l’interrupteur fermé (lumière). En associant d’une certaine façon des milliers, voire des millions, d’interrupteurs, on disposerait d’un véritable ordinateur. C’est d’ailleurs ainsi que furent construits les premiers calculateurs à la fin des années 30. Depuis, on a simplement remplacé les interrupteurs par des lampes, ensuite par des transistors, puis réduit leur taille en les faisant tenir dans des microprocesseurs.

 

La particule est aussi une onde

 

Or, si à notre échelle un interrupteur est ouvert ou fermé, en physique quantique, il peut être simultanément ouvert et fermé ! L’expérience quotidienne nous a habitués à considérer qu’un courant électrique passe ou ne passe pas – il n’y a pas de demi-mesure. Mais, dans le monde de l’infiniment petit, le « flou artistique » est de mise. Prenons un interrupteur « quantique », constitué d’une particule dans un puits à deux poches ou « puits bistable ». Supposons que, quand la particule est à gauche, l’interrupteur est fermé et que, quand elle est à droite, l’interrupteur est ouvert.

 

Pour faire passer la particule d’un côté à l’autre – pour ouvrir ou fermer l’interrupteur -, il faut lui fournir de l’énergie, sous forme par exemple de lumière, grâce à un laser. Jusque-là, rien d’anormal. Mais, lorsqu’on commence à irradier la particule avec le laser, l’affaire se corse. Car la particule est aussi une onde : on nomme cette « ambivalence » : dualité onde-corpuscule. Cette onde peut être considérée, très approximativement, comme la probabilité que la particule se trouve à tel endroit. Au départ, l’onde est à gauche. Lorsqu’on l’irradie avec le laser, elle décroît, tandis qu’une onde naît à droite et croît. Au bout d’un certain temps, l’onde de gauche aura disparu et celle de droite aura atteint son maximum : la particule est passée à droite, l’interrupteur est indiscutablement ouvert.

 

 

 ordinateur quantiquet-v2                  ordinateur quantique-v3

 

 

Mais que se passe-t-il si l’on coupe le laser lorsque l’onde de gauche (qui décroît) et l’onde de droite (qui croît) sont de même taille ? La particule sera en même temps à droite et à gauche : l’interrupteur est à la fois ouvert et fermé ! En mécanique quantique, on dit qu’il y a superposition de l’état « interrupteur ouvert » et de l’état « interrupteur fermé ». Puisque l’état d’un interrupteur est donné par une onde et que, telles les vagues dans la mer, les ondes peuvent se chevaucher, par une autre bizarrerie du microcosme quantique il se crée une superposition de plusieurs interrupteurs. Les « interrupteurs-ondes » perdent leur individualité pour devenir tous ensemble un seul et grand interrupteur-onde.

 

L’existence d’états superposés laissait supposer qu’on allait pouvoir mener des calculs « en parallèle ». Avec un ordinateur classique doté d’un bon programme de comptabilité, on peut gérer son compte en banque et connaître, en appuyant sur une touche du clavier, son solde. Si l’on dispose de plusieurs comptes, l’ordinateur donnera tous les soldes. A l’échelle du microprocesseur, les calculs se font en série : le programme calculera le solde du premier compte, puis celui du deuxième et ainsi de suite. Le temps de calcul de tous les soldes sera donc proportionnel au nombre de compte.

 

Grâce au principe de superposition d’états, il est possible de créer un seul état contenant les données de tous les comptes. Cet état serait traité comme une seule donnée par le logiciel, qui aboutirait à un seul résultat « superposé », contenant tous les soldes. Ainsi, dans le temps qu’il faut à un ordinateur classique pour calculer un seul solde, l’ordinateur quantique les calculera tous.

 

Condamnés à ne jamais « voir » l’infiniment petit

 

Mais il y a un hic : à l’échelle quantique, lorsque l’expérimentateur mesure une grandeur physique, il l’altère. En d’autres termes, si l’on cherche à déterminer la vitesse d’une particule, le dispositif de mesure agit sur la particule et en modifie la vitesse. C’est à ce paradoxe que sont confrontés les inspecteurs de l’Education nationale. Lorsqu’ils se rendent dans une classe pour noter l’aptitude à enseigner d’un jeune professeur, leur présence perturbe le comportement des élèves et celui du professeur.

 

Bref, nous sommes condamnés à ne jamais « voir » une certaine réalité physique de l’infiniment petit, car, en voulant la découvrir, nous l’altérons. Cette limitation est, hélas, inévitable en physique quantique. Ainsi, l’existence d’états superposés – « la particule est à gauche et la particule est à droite » - peut être supputée mais non observée directement. Dès que l’expérimentateur y plonge le nez, la superposition d’états disparaît, et la particule se retrouve soit à gauche, soit à droite. On dit qu’il y a eu « réduction du paquet d’ondes ».

 

Pour en revenir à l’exemple des comptes en banque, au moment de puiser dans l’ordinateur le « résultat » - superposition de tous les soldes bancaires – le paquet d’ondes se réduira, et l’on se retrouvera avec le solde d’un seul des comptes ou avec un résultat mélangé inexploitable. Bref, au mieux, on n’aura rien obtenu de plus qu’avec un ordinateur classique !

 

Bien que des scientifiques aient récemment réussi à observer une superposition d’états pendant une fraction de seconde, l’espoir d’obtenir le résultat superposé de tous les soldes bancaires semble être une chimère. Ce constat a failli vouer à l’oubli l’ordinateur quantique… jusqu’à la communication de Peter Shor, en 1994.

 

 

 

 superordinateur

 

 

Si la mesure détruit la superposition d’états, comment savoir si elle existe « réellement » ? Et surtout comment exploiter cette particularité de la physique quantique pour gagner du temps de calcul ? En fait, la mise en évidence expérimentale de la superposition d’états quantiques se fait par des mesures indirectes. Ce sont ces mesures indirectes. Ce sont ces mesures qui feront toute la différence entre l’ordinateur quantique et l’ordinateur classique.

 

On l’a vu, les états quantiques prennent la forme d’ondes, qui peuvent interférer comme les vagues : parfois, elles se chevauchent, engendrant une vague deux fois plus grande ; parfois, elles s’annulent. Ainsi, deux rayons lumineux peuvent interférer – négativement – et créer de l’obscurité. Pour mettre en évidence la superposition d’états, on utilise ce phénomène d’interférence. Revenons à notre particule dans son puits bistable. La superposition d’états – elle est à la fois à gauche et à droite – est prouvée par l’existence d’une onde à gauche et d’une onde à droite.

 

Que se passe-t-il si on les fait interférer ? Comme pour la lumière, on obtiendra un « dessin » caractéristique de cette interférence. C’est là qu’intervient l’algorithme de Peter Shor, qui exploite le « dessin » résultat de l’interférence de tous les états superposés, ce qu’un ordinateur classique ne peut évidemment pas faire. Ce « dessin » fournit immédiatement des renseignements sur une propriété commune à toutes les données superposées (par exemple leur plus grand diviseur commun…). Pour faire ressortir cette propriété commune à toutes les données, l’ordinateur quantique n’a eu aucun calcul à effectuer, alors que l’ordinateur classique aurait besoin de plusieurs années de calcul pour obtenir le résultat.

 

Depuis la communication de Shor, le nombre de publications sur l’ordinateur quantique dans des revues prestigieuses telles que Nature ou Science croît « exponentiellement » : le monde de la recherche est en ébullition. Les surprises se multiplient. Ainsi l’Américain Seth Lloyd, grand nom de la physique théorique, a-t-il récemment démontré la conjecture de Feynman de 1982 – qui a initié la recherche dans ce domaine - : un ordinateur quantique pourrait simuler le comportement d’un « système » quantique en utilisant des programmes simples et rapides, tâche qui, encore une fois, demanderait des années à un ordinateur classique. Démonstration déterminante, car elle offre aux scientifiques la perspective d’un nouvel outil de recherche fondamentale en mécanique quantique, domaine où, depuis des décennies, d’énormes lacunes freinent le progrès des connaissances.

 

La question est maintenant de savoir si l’on pourra un jour construire un ordinateur quantique ou s’il existe une limite non pas technologique mais physique à sa réalisation. La communauté des spécialistes est divisée. « L’optimisme gagne du terrain », affirme Jean-Paul Delahaye, chercheur au Laboratoire d’informatique fondamentale de Lille. « Si aucune limite physique en vient empêcher le fonctionnement des ordinateurs quantiques[1], on verra apparaître dans dix ans des ordinateurs hybrides – des machines classiques contenant quelques microprocesseurs quantiques -, et dans cinquante ans ce sera fantastique ! » Selon d’autres spécialistes, la technologie ne permettra jamais de construire ces prodigieuses machines.

 

En attendant, certains scientifiques étudient déjà de nouvelles méthodes de cryptage pour parer le danger de l’écroulement de la sécurité informatique mondiale. L’une d’entre elles, qui semble inviolable, se fonde notamment sur… la physique quantique.

 

 




 





 

 

 

 


[1] Il se pourrait, en effet, que des phénomènes d’instabilité quantique interdisent de manipuler et de conserver pendant le temps du calcul une superposition d’états.


 
 

Repost 0
Orphée - dans Sciences
25 février 2010 4 25 /02 /février /2010 18:45

II – La vie est possible ailleurs dans l’Univers

 

Des expériences viennent de le montrer : les acides aminés, ces précurseurs de la vie, se forment facilement dans le cosmos. Mieux : ils sont capables de survivre à des conditions extrêmes et d’atterrir sur une planète pour la fertiliser. De quoi rêver à la découverte de traces de vie extraterrestre.

 

 

 exoplanete-v1

 

 

Orsay, Institut d’astrophysique spatiale, mars 2003. Les cadrans du cryostat indiquent une pression dix milliards de fois plus faible que la pression atmosphérique, une température à 193° C en dessous de zéro… Après deux jours de préparation, Michel Nuevo, jeune doctorat de l’équipe d’astrochimie expérimentale de Louis d’Hendecourt, est enfin prêt pour réaliser son expérience : recréer, en laboratoire, un morceau d’Univers ! Mais pas n’importe lequel : il s’agit de reproduire un bout de nuage moléculaire, ceux constitués de gaz et de poussières denses et froids qui, flottant dans le vide cosmique, abritent de nombreuses molécules et sont, de ce fait, le lieu de formation privilégié des étoiles et des planètes dans l’Univers.

 

18 acides aminés détectés !

 

Objectif : observer les molécules « prébiotiques », les briques de base de la vie telle que nous la connaissons, dont on suppose qu’elles se forment dans la glace entourant les grains de poussière interstellaire. Pendant deux jours, un mélange gazeux d’eau, de méthanol, d’ammoniaque, de monoxyde et de dioxyde de carbone (H2O, CH3, CH2OH, NH2, CO, CO2), les molécules les plus communes dans les glaces interstellaires, va se condenser dans le cryostat. La fine couche de glace ainsi formée, irradiée par une lampe à plasma chargée de reproduire la lumière ultraviolette qui se propage dans le Cosmos, va s’épaissir. Une fois réchauffée, elle laissera un résidu jaunâtre soigneusement collecté et envoyé pour analyse à l’université de Brême, en Allemagne. Verdict ? Il est tombé trois semaine plus tard, confirmant superbement les résultats obtenus par l’équipe de Guillermo Munoz Caro, à Leiden, aux Pays-Bas, et publiés dans la célèbre revue Nature en mars 2002 : ce simple petit bout de nuage moléculaire reconstitué contient plusieurs composés organiques, et parmi eux, pas moins de 18 acides aminés, dont certains sont identiques à ceux qu’utilisent nos propre protéines ! Autant de briques de base de la vie qui se formeraient donc aisément dans l’espace… Et si c’est bien le cas, alors notre petit coin d’Univers n’est probablement pas le seul à avoir vu apparaître la vie.

 

Une luxuriance inattendue

 

Pour le chimiste Uwe Meierhenrich qui a réalisé les analyses des échantillons de Michel Nuevo à Brême, le constat ne fait aucun doute : la formation des acides aminés dans les glaces interstellaires n’est pas dépendantes de conditions physico-chimiques particulières et semble bel et bien être un processus général : « Nous avons modifié les conditions de l’expérience, jusqu’à ne plus considérer qu’un simple mélange à base d’ammoniaque et de monoxyde de carbone… et à chaque fois, nous avons retrouvé les mêmes acides aminés. » Max Bernstein, chercheur au SETI Institute de la Nasa, le célèbre institut américain pour la recherche d’intelligence extraterrestre, est tout aussi positif : « Nous avons réalisé le même type d’expériences, certes avec une approche et des conditions différentes, mais nous trouvons aussi des acides aminés. »

 

 

 

 124-00595-01high

 

 

Spectaculaires, ces résultats annoncent peut-être des découvertes que feront bientôt les astronomes, cette fois-ci non plus dans les laboratoires, mais dans le ciel. En effet, depuis plusieurs dizaines d’années déjà, les observations astronomiques mettent en évidence la grande richesse du milieu interstellaire. Plus de 140 molécules différentes y ont été répertoriées à ce jour, la plus petite étant celle du di-hydrogène (H2) et la plus grande un dérivé de l’acide cyandrique (HCN) doté de pas moins de 13 atomes : HC11N. Et en août 2003, la glycine (NH2-CH2-COOH), qui n’est autre que l’acide aminé le plus simple, y a même fait son entrée ! La démonstration est faite que le milieu interstellaire, qu’il soit observé dans le ciel ou reproduit en laboratoire, est beaucoup plus luxuriant qu’on ne le pensait il y a encore quelques années.

 

Des obstacles de taille !

 

Reste alors une question centrale : comment ces molécules organiques peuvent-elles parvenir jusqu’à une planète et s’y fixer, de sorte que la vie à proprement parler puisse s’y développer ? Car nombreux sont les obstacles qui se dressent sur leur chemin. Tout d’abord, il leur faut passer le cap de la formation stellaire, qui les met sérieusement à mal. En effet, lors de la création d’un système planétaire, le cœur du nuage s’effondre et s’échauffe jusqu’à atteindre plusieurs millions de degrés, température à laquelle l’étoile centrale s’allume. Celle-ci va ensuite irradier et balayer son nuage parent de vents violents, ne laissant sur place que des petits corps qui donneront naissance aux planètes. Peu de molécules survivraient dans ces conditions extrêmes… Exceptées celles fixées sur des grains de poussière à la périphérie du nouveau système planétaire, où ces grains conservent leur manteau de glace. Ceux-ci s’agglomèrent alors, pour former comètes et astéroïdes qui, à leur tour, viennent bombarder les planètes nouvellement formées. La Terre a, par exemple, connu une période d’intenses bombardements au début de son existence, il y a environ 4 milliards d’années, pendant laquelle elle a peut-être été ensemencée par des molécules organiques, base de départ de la vie… C’est la théorie bien connue de la « panspermie ».

 

 

 Exoplanet-Artiste-v1

 

 

Ainsi, les acides aminés, des glaces interstellaires auraient-ils « fertilisé » n’importe quelle planète en y déposant les premières graines de la vie. A condition toutefois d’être arrivés en bon état ! Mais sur ce point, les chercheurs sont plutôt optimistes : « Les acides aminés ne voyagent pas sous forme simple, explique Uwe Meierhenrich. Ils sont stockés dans des polymères, des molécules plus complexes qui ressemblent un peu à des protéines. Ces précurseurs d’acides aminés – ils les libèrent une fois dans l’eau – résistent bien mieux aux rayons UV que les acides aminés seuls. »

 

De plus, il semble que la couche de glace qui les entoure pendant une partie du voyage les protège efficacement des agressions extérieures. C’est en tout cas l’avis de Michel Nuevo : « D’après nos expériences en laboratoire, le rayonnement solaire UV n’y pénètre pas à plus de 0,1 micron de profondeur. » Pour en avoir le cœur net, des expériences ont été réalisées en orbite terrestre, à bord de l’ancienne station spatiale russe MIR et sur des fusées russes Foton. Plusieurs équipes y ont étudié la stabilité des acides aminés dans les conditions spatiales. A chaque fois, les mêmes conclusions apparaissent : nus, les acides aminés ne survivent pas plus de quelques heures ; mais leurs précurseurs résistent mieux au rayonnement UV et aux rayons cosmiques. Une couche de 5 microns de roche météoritique suffit même à assurer une protection efficace !

 

Forcer l’atmosphère : un défi

 

Après le voyage dans l’espace, reste encore à traverser l’atmosphère d’une planète sans trop d’encombre. Là encore, l’épreuve ne semble pas rédhibitoire, même si la température due aux frottements avec l’atmosphère peut atteindre les 2000° C. Pour s’en assurer, on a inséré trois échantillons de roches dans le bouclier thermique d’un satellite russe Foton. Le premier était un basalte, typique d’une surface planétaire, les deux autres des roches sédimentaires : une dolomite et un sol martien reconstitué.

 

Reste à atterrir sans dégâts

 

Certains chercheurs pensent en effet que la vie aurait pu se développer sur Mars et arriver ensuite sur Terre via une météorite de la Planète rouge. Une hypothèse parmi d’autres, qui ne résout pas la question de l’apparition même de la vie. Lancé le 9 septembre 1999, le satellite Foton a passé deux semaines en orbite, avant de traverser l’atmosphère terrestre pour se poser au Kazakhstan. Verdict : l’échantillon de basalte a été perdu et il ne restait plus grand-chose du sol martien reconstitué, mais la dolomite avait conservé plus de 30% de sa matière ! D’après le responsable de la mission, qui n’était autre que l’exobiologiste français André Brack : « Ces résultats sont encourageants car ils prouvent que le passage de l’atmosphère est loin d’être un obstacle insurmontable. » Reste à savoir si des acides aminés, d’origine martienne ou non, pourraient survivre. Réponse dans quelques mois, avec le lancement d’un nouveau Foton.

 

 

 008-00200-02high

 

 

 

 

 

Il demeure encore un ultime point d’interrogation : contrairement aux satellites artificiels, les bolides qui traversent l’atmosphère n’ont pas de parachute ni de rétrofusées pour se poser en douceur. Des molécules organiques complexes peuvent-elles alors résister à l’impact entre une planète et le corps qui les transportent ? Pour simuler cette collision, rien de tel qu’un canon surpuissant, comme celui de l’Institut de l’espace et des sciences astronautiques à Yokohama, au Japon. Les acides aminés y subissent des chocs à des vitesses comprises entre 2,5 et 7 km/s, soit plus de 25.000 km/h ! Les résultats obtenus sont surprenants : non seulement les acides aminés survivent, mais ils forment même des polymères ! Quant aux précurseurs des acides aminés, comme ceux fabriqués à Orsay, ils sont encore plus stables… Cela ne fait donc plus guère de doute aujourd’hui : des molécules complexes, précurseurs de la vie, peuvent assez facilement être fabriquées dans le milieu interstellaire, survivre au voyage les amenant dans l’orbite d’une planète, ainsi qu’à la rentrée atmosphérique et à l’impact qui s’ensuit.

 

On s’y attendait cependant un peu. En effet, en mesurant la teneur en hydrogène des océans et des comètes, on sait maintenant qu’entre 10 et 50 % de l’eau terrestre est d’origine cométaire… Or, si les comètes ont apporté de l’eau sur Terre, sûrement y-ont-elles aussi déposé des molécules plus complexes, car leur noyau contiendrait 30 % de composés organiques. Les météorites ne sont pas en reste non plus. Il en tombe environ 10t sur Terre chaque année, et ce chiffre devait être entre 100 et 10.000 fois plus grand au début de la formation du système solaire, où les collisions de corps célestes étaient incessantes.

 

Une des météorites les plus célèbres est celle tombée en 1969 près de Murchison, en Australie. Après analyse, on y a trouvé environ 500 molécules organiques, dont 70 acides aminés différents. Or, plusieurs sont utilisés par le vivant. Certains acides détectés en mai 2004 par Uwe Meierhenrich et Guillermo Munoz Caro pourraient même être à l’origine d’une molécule proche de l’ADN !

 

L’échéance de 2014

 

L’affaire est-elle réglée ? Reste pourtant une bizarrerie : les acides aminés obtenus en laboratoire sont présents sous deux configurations différentes, « L » et « D », images l’une de l’autre dans un miroir ; or, une particularité essentielle des 20 acides aminés du vivant est d’exister exclusivement sous la forme « L ». Ici, la question n’est pas de savoir pourquoi la vie a choisi les acides aminés « L » plutôt que « D », mais où, quand et comment cette discrimination a eu lieu.

 

 

 

 Osirisplanet                        roaster-medres

 

 

Pour le savoir, des météorites comme celle de Murchison ont été ré-analysées plus finement : certains acides aminés présentent un excès de composés « L » de 10% ! Le choix se serait-il fait dans l’espace ? Certaines expériences de laboratoire, comme celle d’Orsay, cherchent désormais à le prouver. La réponse sera sûrement plus nette en 2014, lorsque la sonde européenne Rosetta se posera sur la comète Churyumov-Gerasimenko. L’un de ses instruments analysera d’éventuels acides aminés, et déterminera quel composé y est majoritaire. Un résultat primordial, car si les composés « L » sont prépondérants, on aura quasi la preuve que la vie est d’origine extraterrestre. Et donc qu’elle a parfaitement pu se développer sur d’autres planètes.

 

Interview d’André Brack

 

A 66 ans, André Brack est celui qui, en France, a donné ses lettres de noblesse à l’exobiologie, soit l’étude des origines de la vie terrestre, son évolution et sa distribution éventuelle dans l’Univers.

 

 

 andre-brack                    2003-19-a-web

 

 

Science & Vie : L’eau liquide est-elle indispensable à l’apparition de la vie ?

 

André Brack : Tous les êtres vivants que nous connaissons, des plus primitifs aux plus évolués, ont besoin d’eau pour vivre. Nous aurons donc du mal à détecter et même à imaginer une quelconque forme de vie « ailleurs » qui pourrait s’en passer. De plus, l’eau liquide oriente les réactions chimiques des molécules organiques contenant carbone, hydrogène, oxygène et azote – les briques du vivant – dans des directions particulières. C’est pour cela que rechercher de la vie ailleurs passe par une recherche d’eau liquide sur les exoplanètes.

 

S&V : Sur quels critères chercher une autre forme de vie ?

 

A.B. : La recherche de la vie ailleurs pose la question de la définition de la vie. Je considère, et je ne suis pas le seul, qu’un ensemble de molécules est « en vie » à partir du moment où il présente les deux qualités suivantes : l’autoreproduction et l’évolution. Il faut que le système en question soit en mesure de faire « plus de lui-même par lui-même ». C’est-à-dire qu’il doit pouvoir se dupliquer à partir d’éléments chimiques tout en étant capable de devenir de plus en plus efficace pour se reproduire. Le problème, c’est que le seul exemple de la vie que nous connaissions se trouve sur Terre, et nous ne savons pas exactement comment elle a démarré ici.

 

S&V : Les chances sont-elles plus grandes que la vie existe ailleurs ?

 

A.B. : Toute la question tient à la complexité minimale des premiers êtres vivants. S’il faut peu de pièces détachées pour fabriquer une entité capable de se reproduire et d’évoluer, alors la vie a des chances d’apparaître chaque fois que les conditions sont réunies. Au contraire, si des milliers de pièces détachées sont requises, l’apparition de la vie devient très aléatoire, et même avec des millions de planètes dans l’Univers nous sommes peut-être seuls…

 

 universe-v1254

 

 

 

 



 
 

Repost 0
Orphée - dans Sciences