Overblog
Suivre ce blog Administration + Créer mon blog
26 février 2010 5 26 /02 /février /2010 15:41

Ils veulent changer l’espèce humaine

 

Des hommes transformés génétiquement, plus beaux, plus grands, plus forts, jamais malades… Ce rêve – si dangereux – est aujourd’hui à la portée de généticiens fascinés par la puissance des technologies qu’ils ont élaborées. Qui pourra les arrêter ?

 

 

 

 clonage homme

 

 

 

Après la souris et la tomate, voici venir l’homme transgénique. Un projet fou qui vise à introduire de nouveaux gènes dans notre espèce, comme le fait déjà chez les animaux de laboratoire et les plantes. Rien à voir avec les thérapies géniques, comme celles que soutien le Téléthon : elles se bornent à ajouter des gènes dans certaines cellules, mais surtout pas dans les cellules sexuelles, ovocytes ou spermatozoïdes, car la modification se transmettrait de génération en génération avec des conséquences imprévisibles.

 

En dépit de toutes les mises en garde, et contre l’avis des comités d’éthique du monde entier, des généticiens, de plus en plus nombreux, la plupart américains, envisagent de s’attaquer précisément à ces cellules germinales pour créer des lignées d’hommes transgéniques. Le tabou est brisé.

 

Verra-t-on apparaître une caste de surhommes, dotés de gènes décuplant leur puissance intellectuelle, leur force physique, leur résistance aux maladies, au stress, des hommes capables de vivre plus vieux tout en restant jeunes ? Ils seront nécessairement issus des classes les plus favorisées puisque toutes ces améliorations coûteront fort cher. Dans une divagation futuriste, le biologiste Lee Silver, de l’université de Princeton (New Jersey), auteur de Remaking Eden, imagine la séparation de l’humanité en deux classes, les « GenRich » et les « Natural », évidemment dominée par les premiers. Deux classes qui finissent par constituer deux espèces car elles ne peuvent plus se reproduire entre elles. Vision d’horreur ? Certes, mais Lee Silver est un homme positif : ce serait juste une étape difficile vers l’adaptation de certaines espèces humaines à une vie heureuse sur d’autres planètes.

 

Revenons sur Terre, en 1990. Des médecins de Bethesda (Maryland) tentent de soigner un enfant atteint d’un grave déficit immunitaire héréditaire en introduisant un gène sain dans ses globules blancs. C’est la première expérience humaine de thérapie génique. A l’époque, le risque de voir le « gène-médicament » contaminer les cellules sexuelles terrifie les autorités médicales. Ce n’est qu’à la condition expresse que cela ne se produira pas qu’on autorise les essais sur l’homme. Mais ce qu’on perçoit toujours comme le danger absolu devient un avantage potentiel aux yeux d’une minorité de chercheurs. Ils espèrent qu’en modifiant les cellules sexuelles ils pourront guérir beaucoup plus facilement les maladies génétiques des enfants qui en seront issus. Ils espèrent même éradiquer ces maladies souvent incurables…

 

 

 031231 dna watson hmed 12p h2                     adn-bilan

 

 

L’an dernier encore, il était fort mal vu d’avance cette idée, quand s’est tenu le premier symposium scientifique consacré à ce qu’on appelle les thérapies génétiques germinales. Organisé par des responsables de l’université de Californie Los Angeles (UCLA), il rassemblait le gratin de la génétique américaine. Les débats avaient pour objet d’examiner l’intérêt des interventions sur les cellules germinales humaines et de fournir une information scientifique de qualité aux autorités de santé qui devront prendre des décisions dans ce domaine.

 

Pour Grégory Stock, professeur à l’école de médecine de UCLA et co-organisateur du symposium, « la vraie question n’est plus de savoir s’il faut ou non appliquer les thérapies germinales à l’homme, mais quand cela sera possible et comment on s’y prendra. La technologie avance très vite, et ses possibilités sont fascinantes. Elle devrait être disponible dans moins de vingt ans. » Grégory Stock et cons collaborateur John Campbell sont d’intarissables partisans des thérapies germinales, dont ils font la promotion à longueur de congrès et sur leur site Internet. Dans ses conférences, Stock ne cesse de procéder à ce sondage éclair : « Imaginez que vous êtes en train de concevoir un enfant in vitro. Accepteriez-vous, si l’opération est sans danger, qu’on ajoute à l’embryon un gène qui le protégerait du cancer ? » Invariablement, la grande majorité de ses auditeurs répond oui.

 

Principal argument des défenseurs de cette méthode : elle devrait être beaucoup plus efficace que les thérapies géniques classiques, « Hormis quelques cas anecdotiques, aucune thérapie génique n’a encore fait ses preuves contre une quelconque maladie », rappelle French Anderson (université de Californie du Sud), pionnier mondial dans ce domaine. Ce qui n’a rien de surprenant car « nos organismes ont passé des dizaines de milliers d’années à apprendre à protéger leur génome des gènes étrangers, ceux des virus notamment ». Si plusieurs essais sont prometteurs, note Anderson, les obstacles sont nombreux. En effet, les gènes thérapeutiques, généralement « emballés » dans un virus vecteur inoffensif, ont un long parcours à effectuer avant d’atteindre le tissu cible – par exemple, le muscle dans le cas de la myopathie. Ils traversent les muqueuses (bouche, estomac, poumons) et leur puissant système de défense cellulaire, le système immunitaire, les diverses barrières tissulaires entre les organes, la membrane des cellules cibles, enfin la membrane du noyau cellulaire. Au terme de ce périple semé d’embûches, bien peu de gènes parviennent au but, même quand on vise des tissus plus accessibles tels que la muqueuse des poumons.

 

Un argument économique

 

Au contraire, si le gène est intégré dans un œuf fécondé, au premier stade de son développement, il sera présent dans toutes les cellules de l’enfant, dont celles qui fabriquent les spermatozoïdes ou les ovules. Ses descendants bénéficieront donc eux aussi du gène-médicament.

 

Les thérapies géniques classiques rencontrent un autre écueil, presque insurmontable aujourd’hui : le gène transféré se place un peu n’importe où dans les chromosomes de la cellule hôte, ce qui risque de perturber gravement son fonctionnement. De plus, quand ce gène est mal placé, la cellule aura du mal à l’utiliser et il perdra son efficacité. L’idéal serait d’obtenir une « recombinaison homologue », c’est-à-dire l’insertion du gène thérapeutique en lieu et place du gène déficient. Malheureusement, ce phénomène ne se produit qu’une fois sur dix mille, ou cent mille dans le pire des cas, et nul ne voit encore comment augmenter sa fréquence in vivo.

 

 

 cryo2                               1498034596 small 

 

 

In vitro, il en va tout autrement. Dans une culture de cellules, la recombinaison homologue reste rare, mais un système de sélection chimique permet d’extraire celles qui ont accompli cette recombinaison avec succès. Justement, la thérapie germinale travaille in viro sur des cultures de cellules embryonnaires. A cet argument technique, les généticiens en ajoutent un autre, économique celui-là : le rapport coût-efficacité des thérapies germinales est nettement plus favorable.

 

Pour mener à bien leur projet, les généticiens peuvent choisir entre deux méthodes : remplacer les gènes défectueux ou ajouter de nouveaux gènes à l’aide de chromosomes artificiels. Ce sont des chromosomes apparemment comme les autres, à ceci près qu’on les fabrique de toutes pièces en laboratoire, à partir de morceaux d’ADN humain. En théorie, les chromosomes artificiels présentent un avantage majeur : ils dispensent d’insérer les gènes thérapeutiques dans les chromosomes du receveur. Ils viennent simplement se placer à côté des autres dans le noyau des cellules. De plus, leur taille est suffisante pour apporter d’un coup à la cellule un complexe de plusieurs gènes. Le projet le plus futuriste en la matière conçoit le chromosome artificiel comme une sorte de système d’amarrage muni de « bornes » auxquelles on pourrait attacher, à chaque génération, de nouveaux gènes, comme on ajoute des extensions à un ordinateur. On pourrait plus tard remplacer ces gènes-là par de nouvelles versions plus performantes.

 

Est-ce un délire de savants fous exaltés par leurs rêves de toute-puissance, ou une projection réaliste des applications de techniques déjà disponibles ? Ni l’un ni l’autre. La technologie n’est pas au point, c’est certain. Mais, en dix ans, la génétique a fait des progrès considérables, le décryptage du génome et la découverte des fonctions des gènes avancent à pas de géant, ainsi que la connaissance des enzymes qui participent à leur régulation.

 

« Si nous avons tendance à surestimer ce que nous serons capables de faire dans cinq ans, estime Mario Capecchi, inventeur des techniques de manipulation génétique les plus élaborées, nous sous-estimons généralement ce que nous pourrons faire dans vingt ans. Aucun obstacle théorique ne s’oppose aux thérapies germinales. »

 

La France interdit expressément

 

Désormais, on ne peut plus éviter de s’interroger sur l’avènement des thérapies germinales. Certains pays, dont la France, ont expressément interdit les recherches dans cette voie, mais il n’en va pas de même partout. Si la Déclaration universelle sur le génome humain condamne clairement le clonage et la modification de la nature humaine, elle n’a pas pour autant force de loi.

 

L’Etat américain ne condamne pas expressément les recherches de ce type, mais tout essai clinique doit être soumis à l’autorisation de la Food and Drug Administration (FDA). Les tenants des thérapies germinales se livrent donc à une entreprise de « lobbying » auprès de cette autorité. S’ils parviennent à faire triompher leur point de vue – certains experts de la FDA n’y sont pas hostiles -, il ne fait aucun doute que ces thérapies trouveront sans mal une clientèle fermement décidée à faire bénéficier sa descendance des progrès de la science.

 

Le moratoire sur le clonage réclamé par le président Bill Clinton suscite des sentiments mitigés chez les partisans des interventions sur la lignée germinale, car cette technique pourrait être utile à l’aboutissement de leurs travaux. « Il est urgent de ne pas légiférer sur ces questions, estime le prix Nobel James Watson, codécouvreur de l’ADN. Ce serait se priver de moyens thérapeutiques très efficaces. Car on peut discuter sans fin de grands principes, ce que les gens veulent, c’est ne plus être malades. Si nous les y aidons, ils seront d’accord avec nous. » Selon Watson, il sera toujours temps de légiférer si l’on découvre un mauvais usage. Mais, avant qu’on applique cette stratégie à l’homme, elle devra démontrer sa totale innocuité, vérifiée par de nombreux tests sur l’animal.


Eugénisme ou progrès ?

 

Mus par leur pragmatisme yankee, nos apprentis sorciers pèsent-ils bien les risques qu’ils feraient courir à l’espèce humaine ? Qu’adviendra-t-il des futures générations ? Le généticien français Axel Kahn, membre du Comité consultatif national d’éthique, rappelle que des gènes jugés mauvais aujourd’hui –ceux du diabète, par exemple – ont probablement été bénéfiques dans le passé : ils ont favorisé la naissance de gros bébés. D’autres gènes de prédisposition à certaines maladies pourraient devenir salvateurs un jour, sans qu’on puisse prédire lesquels.

 
 

arton25                          couv-adn
 

 

« Si on avait les moyens de l’empêcher, rétorque Lee Silver, qui accepterait de laisser ses descendants souffrir de gènes délétères sous prétexte qu’ils pourront se révéler utiles dans un hypothétique et lointain avenir ? Au nom de quel caractère sacré de l’ADN, n’aurait-on pas le droit d’y toucher ? L’ordre naturel n’est pas forcément bon. Il est simplement le fruit du hasard des changements de l’environnement. Les grandes extinctions du crétacé ont favorisé les mammifères, mais la nature a également fabriqué des virus mortels, et nul ne se plaint que l’homme ait éradiqué celui de la variole. Dès lors, pourquoi ne pas modifier une lignée, si cela peut éviter à des hommes de souffrir ? »

 

« Je ne comprends pas ceux qui veulent interdire les interventions germinales, renchérit le biologiste Daniel Koshland, ancien directeur de la revue américaine Science. On le fait déjà, puisque, en donnant de l’insuline à un enfant diabétique, on lui permet de vivre et de parvenir à l’âge de la reproduction. Ses enfants seront porteurs des gènes du diabète, ce qui accroît la fréquence naturelle de ces gènes dans la population. » Dans cette logique, il serait donc bénéfique d’intervenir sur la lignée germinale. Cet eugénisme positif et indolore passerait pour un progrès de la médecine. Et puis, cherchent à nous rassurer les généticiens, ces manipulations ne concerneront qu’un nombre limité d’individus puisqu’on ne peut y procéder que lors d’une fécondation in vitro, mode de reproduction qui ne risque pas de se généraliser (environ 8000 naissances par an en France).

 

Cependant, un point d’éthique tracasse nos démiurges du génome : comment obtenir le « consentement éclairé » des générations futures qu’impose la loi ? Si cette exigence continue à freiner les avancées de la recherche, Mario Capecchi propose deux solutions : d’une part, rendre les modifications génétiques réversibles en retirant les gènes ajoutés ; d’autre part, soumettre l’expression de ces gènes à l’absorption d’un médicament déclencheur.

 

Où est la barrière morale ?

 

En y regardant de plus près, la volonté farouche de corriger la lignée germinale apparaît d’autant plus malsaine qu’elle n’est pas nécessaire. Axel Kahn est catégorique : cette méthode ne présente aucun avantage sur la sélection génétique in vitro des embryons avant leur implantation dans l’utérus de la mère. En effet, pour dépister certaines maladies héréditaires incurables, on sait prélever, après une fécondation in vitro, une cellule de l’embryon et diagnostiquer la présence de nombreux gènes anormaux. On élimine ensuite les embryons qui seront malades et on implante seulement ceux qui échapperont à la maladie. Cependant, dans le cas d’une maladie récessive, on n’écartera pas les embryons porteurs sains. Les gènes anormaux se transmettront à la descendance et se manifesteront lorsqu’ils seront de nouveau appariés à des gènes semblables provenant d’une autre lignée.

 

 

 DACTU IMG PREVIEW                     foetus15semaines

 

 

En France, on considère que la suppression des embryons porteurs sains est un acte eugéniste condamnable. Encore une fois, cette position n’est pas universelle. Mais, si la sélection d’embryons peut suffire, pourquoi vouloir à tout prix manipuler la lignée germinale ? « Parce que ces chercheurs ont un projet autre que thérapeutique, s’écrie Axel Kahn. Ils veulent améliorer des lignées humaines. Sur le plan éthique, c’est inacceptable. » Inacceptable dans de nombreux pays européens traumatisé par les horreurs du nazisme, mais pas forcément en Chine, par exemple.

 

« Si on a les moyens d’améliorer les hommes, pourquoi ne le ferait-on pas ? » lance James Watson, toujours plus provocateur. Alors que certains tenants de la thérapie germinale s’interrogent sur les limites qu’il faudrait assigner à leurs interventions – rechercher non pas l’amélioration mais seulement la thérapie -, d’autres enjambent la barrière éthique sans vergogne, en faisant remarquer qu’il est d’ailleurs bien difficile de savoir où elle se trouve. A partir de quelque taille un enfant sera-t-il trop petit pour vivre heureux ? Ajouter un gène qui protège du cancer, est-ce une amélioration ou une thérapie préventive ? L’histoire des comités de bioéthique montre bien que, sous la pression de la compétition scientifique et économique, les barrières morales reculent sans cesse. Par exemple, la loi française de 1994 interdit toute recherche sur l’embryon humain, mais déjà le comité national d’éthique propose d’assouplir cette disposition lors de la révision de la loi cette année.

 

Admettons que les outils soient enfin disponibles, fiables et sans danger. On nous proposera d’abord de les utiliser contre les maladies héréditaires incurables, puis on passera aux maladies engendrées par des prédispositions génétiques, aux affections dues au vieillissement, au cancer, etc. Et pourquoi ne pas y ajouter des gènes de résistance à des virus, ou d’autres qui accroissent la longévité ou améliorent les performances intellectuelles ou physiques ? Nous voici donc en route vers la fabrication de lignées de surhommes aux caractéristiques génétiques artificielles. Domineront-ils le monde ? Seront-ils condamnés à remplir des tâches spécifiques en fonction de leurs aptitudes génétiques ? Ou, comme l’imagine Lee Silver, seront-ils destinés à coloniser des mondes nouveaux ?

                     

 

 23chromosomes                 05645 recherches genetiques 0094

 

 

Il est inquiétant d’observer que la volonté de créer une espèce humaine améliorée est celle de scientifiques renommés – satisfaisant le désir d’une partie, minoritaire mais déterminée, de la population. En effet, les partisans des thérapies germinales s’accordent avec leurs opposants pour souligner que la demande viendra des couples eux-mêmes.

 

Dans son Meilleur des mondes, Aldous Huxley n’avait finalement pas prévu le pire. Il était inutile d’imaginer une sorte d’Etat totalitaire qui contrôlerait la reproduction et la nature humaine. Au fil des générations, les individus risquent de s’en charger eux-mêmes en concevant leurs enfants à façon, pour leur donner, en toute bonne conscience, les gènes les plus favorables à leur réussite.

 

L’homme devient son créateur

 

Depuis longtemps déjà, par la culture, la technique, la médecine, l’homme échappe à la sélection naturelle. Les thérapies germinales apparaissent comme l’inévitable prolongement de la prise de pouvoir de l’homme sur sa propre évolution. Il devient son propre créateur. Un très vieux rêve, vertigineux, si difficile à refouler. Nos arrière-arrière-petits-enfants sauront-ils renoncer à l’extraordinaire puissance des outils que nous leur forgeons ? Il est déjà trop tard…

 

La toute puissance des cellules « ES »

 

Chez la souris et quelques autres mammifères, on connaissait des cellules embryonnaires douées de capacités extraordinaires : elles se multiplient indéfiniment in vitro sans jamais donner un tissu particulier. Mais, dès lors qu’on les implante dans un embryon, elles peuvent engendrer n’importe quel type de cellule de l’organisme.

 

Les cellules ES (embryonic stem cells, « cellules souches embryonnaires ») permettent actuellement de concevoir des animaux transgéniques. Les biologistes américains James Thomson et Jeffrey Jones viennent de découvrir le même type de cellules chez l’embryon humain. Ce qui ouvre de fantastiques possibilités pour la production de tissus biologiques ou, dans un avenir plus lointain, pour la conception d’un homme transgénique. Notons que Thomson et Jones ne pouvaient être financés par l’Etat américain, qui se refuse par éthique à soutenir des recherches non thérapeutiques sur l’embryon humain. C’est donc grâce à des crédits privés qu’ils ont mené leurs travaux.

 

Ils veulent cloner l’homme

 

Depuis la naissance de la brebis Dolly, en 1997, la plupart des grands pays ont juré qu’on ne fabriquerait pas de clones humains. Cette louable intention empêchera-t-elle de succomber à la tentation de se reproduire eux-mêmes les gens assez riches et assez inconscients pour en avoir envie ? C’est d’autant moins probable que quelques chercheurs indisciplinés sont bien décidés à passer outre. Pour la science, pour la gloire, pour l’argent…



chromosome20X20et20Y                  RTEmagicC c3cb297845 jpg



Ecartons le physicien américain William Seed qui clame haut et fort sa volonté de se faire cloner, personne ne le prend au sérieux. Mais le très médiatique obstétricien italien Severino Antinori – à qui l’on doit déjà l’enfantement de femmes de plus de 60 ans et qui aimerait bien être le premier à créer un clone – est très fortuné er pourrait acquérir le savoir-faire de son rêve. On citera également Michel Revel, généticien à l’Institut Weizmann, en Israël : ce religieux pratiquant se déclare favorable au clonage pour lutter contre la stérilité.

 

Il faut aussi tenir compte des nombreuses cliniques américaines qui ne voient aucun obstacles, sinon technique, à pratiquer le bouturage humaine. Tout récemment, la société Advanced Cell Technology a déclaré avoir créé, par clonage, des embryons homme-vache, ce qui pourrait constituer une étape sur le chemin du clonage humain à partir de cellules embryonnaires.

 

Cette situation réjouit les partisans de l’homme transgénique, car, pour modifier l’espèce humaine, il pourrait être nécessaire de recourir au clonage.

 

Petit lexique de génétique

 

Tous les organismes vivants sont constitués de cellules spécifiques de chaque tissu. Dans leur noyau, elles contiennent une grande molécule, l’ADN (acide désoxyribonucléique), qui, replié sur lui-même et fractionné en longs fragments, forme les chromosomes. L’ADN se compose d’une sorte d’armature en forme de double hélice (comme l’escalier de Léonard de Vinci, à Chambord). Sur chaque brin de l’armature sont fixés les nucléotides : thymine (T), adénine (A), cytosine (C) et guanine (G). L’enchaînement de ces bases est assimilable à un texte dont certaines phrases constituent des informations appelées gènes. On nomme génome l’ensemble des gènes portés par les chromosomes. A partir de cette information, la cellule synthétise des protéines dont elle se sert pour son propre fonctionnement ou qu’elle sécrète à l’usage d’autres cellules.

 

Toutes les cellules contiennent tous les gènes d’un organisme, mais elles n’utilisent que certains d’entre eux en fonction du tissu auquel elles appartiennent. En effet, selon les tissus, les cellules contiennent diverses molécules nommées facteurs de transcription qui n’activent que certains gènes, par exemple, celui de la synthèse des protéines du lait dans les cellules des glandes mammaires quand une hormone vient déclencher ce processus. On dit d’un organisme qu’il est transgénique quand il a intégré à son génome un gène étranger de sorte que ce gène se transmet à toute sa descendance, créant ainsi une lignée transgénique.

  

  

L'île du Dr Moreau-1236

 

 

   

 

 

 

 

 

Partager cet article
Repost0
26 février 2010 5 26 /02 /février /2010 15:37

L’atome est-il divisible à l’infini

 

 

Coup de tonnerre dans le ciel de la physique. On croyait que le quark était l’ultime particule, or, d’après une expérience américaine, il serait lui-même constitué de « sous-quarks ». Le modèle standard de la physique fondamentale tremble sur ses bases !

 

 

 Collision de particules-v1

 

 

Les quarks sont des corpuscules que les physiciens considéraient, il y a seulement quelques semaines, comme les ultimes et indivisibles constituants de la matière. En fait, ils ne seraient pas si élémentaires que ça : telle est l’excitante conclusion d’une expérience conduite dans l’accélérateur géant Tevatron du laboratoire Fermi, près de Chicago, et rapportée par l’hebdomadaire spécialisé américain Science dans son numéro du 9 février. Moins d’un an après la découverte, dans ce même « Fermilab », du sixième et dernier quark – le « top » -, qui mettait magnifiquement un terme au tableau des particules élémentaires, l’édifice semble s’écrouler. La quête de l’élémentarité repartirait de plus belle vers le toujours plus petit…

 

De Démocrite à Rutherford

 

Le conditionnel s’impose, car l’existence de « sous-quarks » n’est encore que l’une des hypothèses proposées pour expliquer d’étranges anomalies dans le résultat de l’expérience CDF (Collider Detector at Fermilab). Mais l’hypothèse émoustille déjà les physiciens des particules, un peu las des succès répétés et sans surprise du trop fameux Modèle standard, l’édifice théorique qui décrit les particules et les forces élémentaires de la matière. « Enfin il se passe quelque chose ! Un événement imprévu va ébranler cette forteresse théorique », pensent tous les physiciens.

 

La nature semblait donner raison à la superbe intuition du philosophe grec Démocrite (460-370 avant notre ère), qui, le premier, imagina que toute la matière était composée d’atomes insécables (le mot atome signifie en grec « qu’on ne peut couper »), assemblées de diverses manières, au moyen de « crochets », pour former l’infinie variété de tous les objets qui nous entourent. Il fallut attendre la fin du XIXe siècle pour voir se confirmer la réalité des atomes, ultimes constituants de la centaine d’éléments chimiques qui composent la table de Mendeleïev (de l’hydrogène à l’uranium, en passant par le carbone, le fer ou l’or).

 

 

 

 525px-Quark structure proton                        Les quarks-v1

 

 

Mais il a suffi de quelques années pour que les progrès de la physique détruisent le mythe non pas de l’atome mais de son caractère insécable. C’est d’abord, en 1897, la découverte de l’électron, premier corpuscule subatomique. Puis, en 1911, le prix Nobel de chimie britannique Ernest Rutherford élucide la structure de l’atome. Son expérience, célèbre et magistrale, vaut d’être racontée, car c’est l’ancêtre de bien des expériences de physique des particules, y compris, peut-être, de celle du Fermilab…

 

Pour sonder les atomes, Rutherford a eu en effet l’idée de bombarder une mince feuille d’or avec des particules α émises par du radium. Il remarque que, si a plupart des particules α sont faiblement déviées en traversant la feuille, une minorité d’entre elles subissent au contraire une forte déviation et parfois même bondissent en arrière, comme si elles avaient heurté quelque chose de dur… Rutherford comprend que les atomes qui constituent la feuille d’or ont une structure très peu homogène : ils sont formés d’un noyau central, petit, très massif et de charge électrique positive, autour duquel gravitent des électrons, légers et négatifs – si bien que le volume des atomes est en réalité essentiellement du vide !

 

Vingt ans plus tard, les physiciens dévoilaient la structure du noyau atomique : il est constitué de deux sortes de particules, les protons (positifs) et les neutrons (neutres).

 

Des gerbes de hadrons

 

C’est seulement dans les années 60 que sera franchi le pas suivant sur le chemin de l’élémentarité. En bombardant des particules cibles avec des particules projectiles dans des accélérateurs, les scientifiques se trouvent confrontés à toute une ménagerie d’étranges particules issues de ces réactions, la plupart d’entre elles appartenant à la même famille que les protons et les neutrons (la famille des hadrons). La situation s’éclaircit beaucoup quand les théoriciens américains Murray Gell-Mann et George Zweig suggèrent que les hadrons ne sont pas élémentaires, mais qu’ils sont formés de sous-particules, qu’ils baptisent quarks (d’après le nom de personnages du romancier irlandais James Joyce). Avec seulement trois sortes de quarks (« u », « d » et « s »), on peut reconstituer le proton, le neutron et tous les autres hadrons connus à l’époque. Plus tard, trois autres quarks, « c », « b » et « t », viendront compléter le tableau.

 

Pourtant, cette construction séduisante avait un défaut majeur : il était impossible d’isoler les quarks. A défaut de les extirper de leur hadron, ce qui est en réalité impossible (à cause d’une propriété qui leur est spécifique, le « confinement »), on réussit quand même à les détecter à l’intérieur même des protons, en 1967, dans l’accélérateur linéaire de Standford (Californie). Depuis, les physiciens ont édifié une théorie décrivant la « force forte », qui lie les quarks à l’intérieur des hadrons par l’intermédiaire de particules nommées gluons (parce qu’ils « collent » les quarks entre eux).

 

 na-2004-166 9503044 02

 

 

Plus de vingt ans après, au Fermilab, des protons et des antiprotons tournent en sens contraire à une vitesse très proche de celle de la lumière, pour se heurter dans des collisions qui libèrent une énergie de 1,8 Tev (1800 milliards d’électronvolts), d’où le nom de Tevatron donné à cet accélérateur, aujourd’hui le plus puissant du monde. A ces énergies colossales, « chaque proton peut être considéré comme un petit faisceau de quarks et de gluons », explique John Ellis, théoricien au CERN (le laboratoire européen de physique des particules, près de Genève). Et il en va de même pour chaque antiproton, ce qui donne des collisions plutôt compliquées entre quarks, antiquarks, gluons et antigluons ! L’énergie libérée dans ces chocs se rematérialise immédiatement en toutes sortes de particules, surtout en quarks (et en anti-quarks) qui, ne pouvant vivre seuls, engendrent des gerbes de hadrons, des « jets » dans le jargon des physiciens.

 

Or, depuis plusieurs mois, l’expérience CDF met en lumière « un nombre étonnamment élevé de collisions violentes entre quarks ». Plus précisément, il y a une proportion anormalement forte de jets très énergétiques concentrés dans des angles très étroits. « C’est précisément le genre d’effet qu’on observerait si les quarks étaient non pas des particules fondamentales mais possédaient une structure interne », commente, dans Science, le porte-parole de l’expérience, William Carithers.

 

L’expérience serait alors un remake de celle de Rutherford : les chocs violents révéleraient des interactions entre sous-quarks à l’intérieur des quarks, tout comme les particules α très déviées témoignaient de l’existence du noyau atomique.

 

 

 RTEmagicC belle

 

 

En fait, si les physiciens de l’expérience CDF affirment clairement qu’il y a bien un excès de collisions violentes au Tevatron, il est encore trop tôt pour en déduire l’existence révolutionnaire des sous-quarks. Le texte de présentation de Science est prometteur, mais l’article proprement scientifique est beaucoup plus prudent. Car, à en croire John Ellis, il existe plusieurs autres explications, moins fantastiques mais plus probables. Il faut d’abord reconsidérer le Modèle standard, et chercher à savoir si l’on n’a pas oublié, ou sous-estimer, certains effets qui expliqueraient les anomalies.

 

Il pourrait également exister une particule lourde jusqu’alors inconnue (un « cousin » du boson faible Z°, la particule qui véhicule la force dite faible). La désintégration de cette particule serait responsable du taux apparemment élevé d’interactions à haute énergie. L’existence d’une telle particule pourrait en outre justifier d’autres petites anomalies, observées cette fois dans une expérience du CERN. Et elle n’exigerait que de légères modifications du Modèle standard.

 

C’est seulement si ces explications « banales » sont rejetées qu’on pourra envisager sérieusement des hypothèses plus spéculatives, telle que la « non-élémentarité » des quarks. Ces précautions feraient croire que les physiciens sont d’incorrigibles conservateurs, accrochés à leur cher Modèle standard. En réalité, ils ne sont pas dupes. Ils savent bien que le fameux Modèle n’est pas « la » théorie définitive de la physique des particules et des forces, ne serait-ce que parce qu’il n’inclut pas la gravitation et n’explique pas, par exemple, les masses et les charges des particules.

 

Cependant, aucune loi physique  n’interdit que les quarks possèdent une étendue et une structure interne. Alors se posent les inévitables questions (méta ?) physiques. Cette course s’arrêtera-t-elle un jour ? Trouvera-t-on des particules vraiment élémentaires, ou la matière se subdivise-t-elle à l’infini ? La réponse des physiciens est à la fois pragmatique et vertigineuse. Aujourd’hui, les énergies délivrées par le Tevatron permettent d’explorer la matière jusqu’à l’échelle de 10-17 cm. Mais plus l’énergie augmente, plus on progresse vers les petites dimensions. Jusqu’où ?

 

D’autre part, lorsqu’on cherche à unifier les théories quantiques régissant le monde des particules et la relativité générale d’Einstein, qui décrit la gravitation à l’échelle de l’Univers, les calculs donnent une dimension (10-33 cm) où toutes les forces se rejoignent. S’il y a une taille minimale, c’est peut-être celle-là, ce qui laisse une certaine marge…

 

 

250px-CMS Higgs-event

 

 

Partager cet article
Repost0
26 février 2010 5 26 /02 /février /2010 15:26

Comètes, astéroïdes

 

La Terre contre-attaque

 

Bombarder une comète. Tel est l’objectif de la mission Deep Impact qui a décollé le 30 décembre 2004 de Cap Canaveral. Et même si cette manœuvre spectaculaire vise essentiellement à obtenir une meilleure connaissance des comètes, elle est le premier acte « agressif » envers les innombrables petits corps qui menacent la Terre. D’ici quelques années, d’autres missions pourraient suivre.

 



Frappe astéroïde

 

Au matin du 30 juin 1908, un corps céleste d’une taille estimée à une cinquantaine de mètres de diamètre pénétrait dans l’atmosphère et se désagrégeait à 10.000 m d’altitude au-dessus de la Sibérie. Quelques minutes après l’explosion, plus de 2000 km² de taïga étaient totalement dévastés. Si cette région désertique de la Toungouska avait été aussi peuplée que l’Europe de l’Ouest, les victimes se seraient comptées par millions. Un siècle plus tard, les traces du cataclysme – des centaines de milliers d’arbres abattus – ont presque disparu. Et la Terre lance sa « contre-attaque ». La sonde Deep Impact a décollé de Cap Canaveral à bord d’une fusée Delta 2, avec un objectif singulier : bombarder la comète Tempel 1, qui croise entre Jupiter et la Terre. Si tout se passe bien, l’engin larguera un projectile de 370 kg, qui percutera la surface glacée de l’astre errant. A plus de 10,2 km/s, ce véritable boulet de canon devrait former un cratère de 25 m de profondeur pour 100 m de diamètre… A moins qu’il ne détache carrément un fragment de la comète.

 

Cet « acte de guerre » spectaculaire contre la comète Tempel 1 n’est pas le résultat d’une rancune tenace envers les petits corps qui ont régulièrement bombardé la Terre depuis 4,5 milliards d’années. Pas question non plus de venger la disparition des dinosaures, attribuée au moins en partie à la chute d’un gros astéroïde en Amérique centrale voici 65 millions d’années. Le but des astronomes est d’en savoir un peu plus sur la structure et la composition interne des comètes. Car jusqu’ici, ils ont dû se contenter d’observer à distance les gaz relâchés par ces corps glacés lors de leur passage au plus près du Soleil. Or, précisément, le rayonnement solaire dissocie la plupart des molécules libérées, de sorte que les scientifiques doivent déduire leur existence à partir d’éléments observés. De plus, le dégazage engendré par la chaleur du Soleil n’affecte que la croûte superficielle ; pas moyen de savoir ce que cache l’intérieur des comètes. Pour cette raison, excaver par une collision du matériau de Tempel 1 intéresse au plus haut point les astronomes. Ils espèrent que, pendant les quelques minutes qui suivront la rencontre explosive, la sonde Deep Impact pourra ausculter avec son spectrographe infrarouge le nuage de matériau volatilisé et réaliser quelques découvertes sur les origines du Système solaire. Pourtant, rien n’est moins sûr. « Compte tenu de la courte période de visibilité dont disposera le vaisseau spatial avant de s’éloigner, nous avons fait une demande de temps d’observation à l’aide des quatre télescopes de 8,2 m du VLT, explique Olivier Marco, astronome à l’ESO. De cette manière, nous devrions pouvoir caractériser la composition du noyau de la comète ». D’autant que l’événement promet d’être spectaculaire. Au moment de l’impact, l’éclat de l’astre chevelu (alors voisin de la magnitude 9) pourrait augmenter de 2 à 5 magnitudes ! Une aubaine pour les astronomes amateurs européens puisque Tempel 1 sera visible dans le ciel. Le VLT lui, devra attendre une douzaine d’heures avant de tenter ses éventuelles observations.

 

 


CometTempel1 Rawlings low                    comete-asteroide-meteorite

 

 

 

Si Deep Impact poursuit une quête purement scientifique, elle n’en constitue pas moins la première mission « agressive » en direction de l’un des innombrables petits corps du Système solaire… Dont ceux qui menacent la Terre. A ce titre, ses effets fourniront des informations aux scientifiques désirant établir la meilleure manière de faire face au danger d’une collision. Tout d’abord, ils connaîtront le diamètre du cratère créé par le projectile de la taille d’un fauteuil. Plus celui-ci sera gros, plus sera signifiera que le corps céleste est composé d’un agglomérat peu compact. « Indirectement, nous allons recueillir des données sur les propriétés d’une comète. Nous pourrons donc estimer les conséquences d’un impact avec la Terre, avance Patrick Michel, spécialiste des astéroïdes géocroiseurs à l’observatoire de la Côte d’Azur. Mais je ne suis pas sûr que l’on avancera beaucoup plus grâce à cette mission ».

 

En effet, l’une des faiblesses de Deep Impact quant à l’observation des conséquences de la collision est son incroyable manque de temps. Même si la cicatrice laissée par le projectile est photographiée par les caméras à haute résolution, aucun instrument ne pourra faire des mesures. « La sonde ne se placera par en orbite autour de la comète Tempel 1. Il sera donc impossible de voir sa différence de vitesse avant et après le choc, explique Giovanni Valsecchi, spécialiste des géocroiseurs à Rome. Or, cette variation n’est pas détectable depuis la Terre ».

 

 

Voilà pourquoi l’Agence spatiale européenne (ESA) a lancé en 2002 une étude préliminaire sur six projets de missions automatiques spécialement conçues pour évaluer la menace des petits corps (astéroïdes ou comètes) susceptibles de venir frapper la Terre. Le 9 juillet 2004, le comité scientifique Neomap a rendu son verdict en donnant la priorité au projet Don Quichotte. Tout comme Deep Impact, il a pour but de provoquer une collision, non plus avec un noyau cométaire, mais avec un astéroïde de 500 m de diamètre. Et cette fois, il observera précisément la cible longtemps avant et après le choc. Le projet initial prévoit ainsi deux lancements. Une sonde, baptisée Sancho, ira se placer en orbite autour de l’astéroïde. Pendant six mois environ, elle étudiera ses mouvements et déterminera sa masse, sa structure interne et sa forme exacte. Ensuite, une deuxième sonde de 380 kg, Hidalgo, viendra percuter l’astéroïde à une vitesse de plus de 13 km/s. L’impact sera observé par Sancho, qui poursuivra ses investigations pendant au moins quatre mois, afin de mesurer notamment les variations du mouvement de l’astéroïde. Si la collision produit une déviation de l’orbite de 1400 m et un changement de période de rotation de 0,5° par jour, Sancho sera capable de le détecter. « Nous avons choisi de recommander Don Quichotte parce que, parmi les missions d’analyse in situ des risques liés aux collisions, c’est celle qui va le plus au cœur du problème, commente Giovanni Valsecchi, membre du comité Neomap.

 



Apophis                 Asteroide300

 

 

 

Elle devrait permettre de répondre à une question essentielle : peut-on dévier un astéroïde de 200 m à 1 km de diamètre si l’on découvre qu’il va percuter la Terre ? » Car malgré les divers scénarios envisagés, aucun scientifique ne sait comment écarter une éventuelle menace. « Si un objet est un jour en route vers notre planète, il faudra que nous ayons clairement établi la bonne méthode », martèle Patrick Michel, également du comité Neomap. « L’idée de faire exploser un bolide menaçant avec une bombe nucléaire paraît dangereuse : l’objet se divisera en fragments qui toucheront la Terre en plusieurs endroits, pour un résultat encore plus dévastateur, précise Marcello Fulchignoni, spécialiste des astéroïdes à l’observatoire de Paris-Meudon. Mais si l’on veut dévier l’astéroïde par exemple en y ajoutant un moteur ionique, il faut connaître son centre de masse ». Giovanni Valsecchi ajoute : « Un bolide réagira différemment s’il est constitué de roches compactes ou si, au contraire, il est poreux comme Mathilde, qui a été visité par la sonde Near. Ces informations sont nécessaires si l’on veut contrôler la déviation ». D’où l’importance d’essuyer les plâtres avec une mission telle que Don Quichotte. Reste que, pour l’instant, celle-ci, dont l’enveloppe est évaluée à 150 millions d’euros, n’a pas le moindre début de financement. « Il est clair que Don Quichotte ne sera pas proposée à la conférence interministérielle de l’ESA prévue en 2005, prévoit Franco Ongaro, chef du bureau des concepts et études avancées de l’ESA. Dans l’année qui vient, une étude interne sera lancée pour voir quelles modifications peuvent être apportées au projet initial. Par ailleurs, la mission a déjà été présentée à de possibles partenaires. Japonais et Chinois se sont montrés intéressés. Côté américain, la Nasa n’a pas vraiment pris d’engagement ». En supposant que l’ESA parvienne à s’adjoindre le renfort d’autres agences spatiales, Sancho et Hidalgo pourraient décoller en 2008. Quatre ans plus tard, les deux engins atteindraient leur cible, si bien qu’en 2013, les astronomes seraient enfin fixés sur les moyens à mettre en œuvre pour écarter la menace d’un astéroïde géocroiseur.

 


tempel                    Astéroide-explosé

 

 

 

A priori, rien ne presse car les collisions avec des bolides similaires à celui qui a frappé la Toungouska ne surviennent statistiquement qu’une fois tous les 1000 à 10.000 ans. Pourtant, les télescopes automatiques tels que Linear ou Neat découvrent sans cesse de nouveaux rochers célestes potentiellement dangereux. D’ici dix ans, l’ensemble des instruments d’observation qui seront en activité au sol (dont le Discovery Channel Telescope, de 4 m de diamètre, à partir de 2006) auront découvert 80 à 90 % des géocroiseurs de moins de 300 m de diamètre. Les astronomes pourront étudier leur orbite et prédire leur trajectoire plusieurs années à l’avance. Il serait alors dommage de ne pas savoir comment éviter une éventuelle catastrophe annoncée.

 

Première cible : la comète Tempel 1

 

 

 hayabusa asteroide-388x275                  DonQuijote-asteroide-impact

 

 

Découverte en 1867 par Ernst Tempel, la comète visée par Deep Impact appartient à la famille de Jupiter, composée de comètes à courte période. Elle tourne autour du Soleil en cinq ans et demi. Vraisemblablement formé voici plus de 4,5 milliards d’années au niveau de la ceinture de Kuiper (au-delà de Neptune), elle aurait été injectée dans le Système solaire interne il y a moins de 10.000 ans. Son noyau, dont le diamètre est estimé à 6 km, est animé d’une rotation assez lente (entre 42 et 22 heures). Tempel 1 croisera à 133 millions de kilomètres de la Terre lorsque le projectile de Deep Impact la percutera. La rencontre sera observable depuis l’Europe dans la constellation de la Vierge, non loin de Spica.

 

Pour quelques fragments d’astéroïdes

 

 astres-M6

 

 

 

" Connaître l’ennemi pour mieux s’en protéger ». Selon Marcello Fulchignoni, de l’observatoire de Paris-Meudon, telle est la devise actuelle des astronomes étudiant les corps qui approchent la Terre. Pour la mettre en application, le Centre national d’études spatiales (Cnes) commencera en avril 2005 des études préliminaires pour une mission vers un géocroiseur avec retour d’échantillons. « C’est typiquement le genre de missions pour lesquelles nous recherchons une collaboration avec d’autres agences », précise Denis Moura, du Cnes. Si le projet franchit toutes les étapes de sélection, il pourrait voir le jour vers 2010.  


 

 


 

 



 

 

Partager cet article
Repost0
26 février 2010 5 26 /02 /février /2010 14:51

Voyager dans le temps

 

L’expérience qui donne le signal du départ

 

 

Fameux thème de science-fiction, le voyage dans le passé ne transgresse pas les lois de la physique… mais celle de la logique. Pourtant, une expérience récente fournit, pour la première fois, un socle à la plus fascinante des hypothèses.

  

 

 Trou de ver-v3

 

 

 

Peut-on voyager dans le passé ? La question n’en finit pas de troubler les esprits – même les plus rationnels. Le désir de retourner dans le passé est certes un vieux rêve de l’humanité. Pour ne parler que des cents dernières années, livres, films et bandes dessinées ont multiplié à l’envi l’expression de ce « fantasme ». De la Machine à explorer le temps, de Herbert George Wells, publiée en 1895, au film Retour vers le futur, en passant par le Piège diabolique de Blake et Mortimer, les héros de la célèbre BD – sans compter les séries télévisées -, le retour dans le passé semblait la chasse gardée des spéculations romanesques.

 

Mais la réalité dépasse parfois en imagination la pure fiction. Surtout depuis qu’un dénommé Einstein a offert à la science des équations quelque peu exotiques, grâce auxquelles les lois de la physique, sans le garantir, ne s’opposaient pas à un tel voyage. Aujourd’hui, un nouveau pas est franchi, avec une expérience qui pourrait être le « chaînon manquant » conduisant concrètement à la machine à remonter le temps ! Le no man’s land scientifique où s’épanouissait ce cliché de la science-fiction vient d’être pris d’assaut par la physique, non sans mettre notre bon sens à rude épreuve…

 

Le temps n’est pas une donnée absolue

 

Tout a commencé en 1905, le jour où Einstein a échafaudé une théorie, la relativité restreinte, selon laquelle plus un corps se déplace vite, plus le temps s’écoule pour lui lentement. Ce phénomène est non pas subjectif, mais bel et bien réel. La limite étant la vitesse de la lumière (300.000 km/s), vitesse à laquelle le temps se fige ! Ainsi, si un vaisseau quitte la Terre et atteint une vitesse proche de la vitesse de la lumière, les voyageurs évolueront sur un rythme temporel plus lent que les hommes restés sur notre planète. S’ils communiquent par radio, les hommes restés sur place entendront les voix des voyageurs au ralenti, comme lorsqu’on passait un 45 tours à la vitesse d’un 33 tours. Les occupants du vaisseau observeront le phénomène opposé. La dilatation du temps, ainsi qu’on la nomme, est l’une des caractéristiques de l’Univers.

 

Cette loi fut la première atteinte à la croyance en l’existence d’un temps absolu, s’écoulant toujours au même rythme aux quatre points cardinaux de notre monde. Einstein récidiva en 1916, en énonçant la théorie de la relativité générale, selon laquelle il devenait possible de construire de véritables tunnels vers le passé.

 

En effet, selon cette théorie phare de la science du XXe siècle, plus un corps (une étoile) est dense, plus il courbe l’espace, comme une boule de billard posée sur un drap tendu. Cette courbure « précipite » les objets avoisinants sur le corps massif (les attire, en langage classique) : c’est ainsi que s’exerce la force dite de gravitation. Par exemple, la Terre, qui est plus dense que la Lune, produit une courbure plus accentuée de l’espace qui la contient, donc un champ gravitationnel plus fort, que son satellite naturel.


 

article backtothefuture                        HommeSablier

 

 

 

La densité[1] peut croître, du moins en théorie, au point de provoquer l’écroulement du corps sur lui-même, sous l’effet de sa propre gravité : la boule de billard superdense finit par crever le drap. On est alors en présence d’un trou noir cet objet mythique qui, prévu par la théorie de la relativité générale comme stade ultime d’une étoile massive s’effondrant sui elle-même, n’a pas encore été observé et identifié formellement. (On a cependant détecté des phénomènes cosmiques qui laissent croire que les trous noirs existent, in texte 1996). Autre particularité, un trou noir a une telle densité, une telle force d’attraction que même la lumière ne peut lui échapper quand elle tombe dans son puits. Tout ce qui s’en approche sera d’abord broyé puis définitivement gobé.

 

Toujours d’après la relativité générale, un trou noir peut parfois donner naissance à un « trou de ver », véritable tunnel de l’espace-temps débouchant sur une « fontaine de lumière », ou « fontaine blanche », sorte de frère jumeau ennemi du trou noir. L’entrée du trou de ver, le trou noir, absorbe la matière ; la sortie du trou de ver, la fontaine blanche, la recrache ! Avec les particularités, pour le moins étranges, d’une telle configuration, la science surpasse, et de loin, l’imagination. En effet, s’ils existent, les trous de ver sont des raccourcis de l’espace. Dans les trois dimensions où nous avons l’habitude de nous mouvoir, les raccourcis sont courants : si un train emprunte à 100 km/h un tunnel creusé dans la montagne et si une voiture suit le relief de cette montagne à la même vitesse, c’est le train qui arrivera le plus vite à destination. De même, une particule qui entre dans un trou de ver ressort par la fontaine de lumière, qui peut se trouver à des milliards de kilomètres de là, sans avoir dû parcourir physiquement cette distance. Les trous de ver sont des tunnels creusés non plus dans le flanc d’une montagne, mais dans l’espace à trois dimensions.

 

 

Albert Einstein-v1                    univhist-shigemi-numazawa

 

 

Mais il y a plus étrange encore ! D’après la relativité générale, l’espace et le temps sont intimement liés : ils forment une seule entité appelée espace-temps. La modification des paramètres liés à l’espace (lieu, vitesse, densité…) peut entraîner une altération du temps. En manipulant les équations de la relativité générale, des scientifiques[2] ont montré que les trous de ver pouvaient engendrer des « boucles temporelles », sortes de passages du présent vers le passé. Ils devenaient ainsi de véritables machines à remonter le temps. Si l’entrée du trou de ver (le trou noir) est immobile par rapport à nous et si la sortie (la fontaine blanche) se déplace dans l’espace à une vitesse proche de celle de la lumière, le phénomène de dilatation du temps aura une conséquence étonnante : le temps s’écoulera à des rythmes différents à l’entrée du tunnel temporel et à sa sortie. Supposons que la sortie du trou de ver se meut à 99,99 % de la vitesse de la lumière, lorsque 48 heures auront passé à l’entrée, il ne se sera écoulé que 28 minutes à la sortie ! De ce fait, la maîtrise de la construction des trous de ver permettrait de choisir le moment de sortie dans le passé. Dans l’exemple qui précède, si le voyageur temporel pénètre dans le trou de ver 48 heures après l’avoir créé, il en ressortira seulement 28 minutes après l’instant de la création : il aura donc fait un retour dans le passé de 47 h 32 min.

 

Le voyage dans le temps serait-il un jeu d’enfant ? Certains problèmes fondamentaux se posent. On ignore notamment s’il y a réellement des trous de ver dans l’Univers… Que la théorie les prévoie ne change rien à l’affaire, car celle-ci laisse une large place à la spéculation. Cependant, certains indices tendraient à prouver qu’ils existent dans l’Univers… mais seulement à l’échelle quantique, dans l’infiniment petit. Ils ne mesureraient que 10-43 cm et disparaîtraient au bout de 10-35 seconde[3] pour cause d’instabilité structurelle ! On aurait du mal à faire passer un homme et son vaisseau par cette tête d’épingle spatio-temporelle. Pour voyager dans le temps, il faudrait « construire » un trou de ver à notre échelle. Comment s’y prendre ?

 

L’instabilité des trous de ver est due à leur fâcheuse tendance à s’effondrer sur eux-mêmes. En effet, une simple particule qui s’approche de l’entrée du trou noir sera accélérée et atteindra la vitesse de la lumière au moment de s’y précipiter. En physique relativiste, on constate que la masse de la particule augmente à mesure que sa vitesse se rapproche de celle de la lumière. A cette limite, la masse sera infinie !

 

La particule prisonnière du trou noir

 

L’entrée dans le trou de ver de la particule à masse infinie se fera sans problème, car elle ajoutera sa masse gravitationnelle à celle (déjà énorme) du trou noir : le trou noir grandira. Mais, une fois qu’il aura été franchi, les structures du tunnel s’effondreront sous l’effet gravitationnel de la particule. Celle-ci creusera sa propre tombe : du trou de ver ne subsistera que le trou noir, dans lequel la particule restera prisonnière.

 

La seule manière de consolider le trou de ver serait de le « tapisser » avec un « matériau » capable de s’opposer à l’immense champ gravitationnel développé par la particule. Bref, pour maintenir les structures du tunnel, il faut… un champ gravitationnel, c’est-à-dire à énergie négative. Or, à notre échelle, nous ne connaissons pas un tel champ et nous ne savons pas non plus s’il pourrait exister. Nous revoilà en pleine science-fiction !

 

 

 Trou de ver

 

 

Pourtant, ces échafaudages intellectuels viennent de quitter le domaine de la spéculation pour entrer dans celui de la recherche. On a récemment mis en évidence expérimentalement un drôle de phénomène connu sous le nom « d’effet casimir » (voir la revue américaine Science du 7 juin 1996). En quelques mots, si l’on impose une forte tension électrique entre deux plaques conductrices séparées par du vide, on donne naissance à des électrons. Ce qui revient à extraire de l’énergie du vide. D’après les lois de la mécanique quantique, cette énergie ne peut être que négative ! En d’autres termes, un champ électromagnétique très fort peut engendrer une énergie électromagnétique négative. Si l’on extrapole ce résultat à la gravitation, on peut penser qu’un champ gravitationnel extrêmement fort (comme ceux qui se forment à la surface des trous noirs) donnera naissance à une énergie gravitationnelle négative. C’est exactement ce dont on a besoin pour consolider les trous de ver !

 

Les « plans » de la machine à remonter le temps sont, donc déjà conçus. En supposant qu’on puisse un jour fabriquer des trous de ver macroscopiques, il reste à vérifier que ce bel édifice ne croulera pas sous le poids d’une… « bourde » logique. Car toute réalisation matérielle doit respecter certains principes fondamentaux sous-jacents aux lois physiques, tels que la cohérence logique et le principe de causalité[4]. Sinon, la machine à remonter le temps, une fois construite, risque de ne pas fonctionner… Hors de la logique point de salut, même pour la physique la plus théorique.

 

Nos descendants ne peuvent pas nous envahir !

 

Car, si la machine à remonter le temps met en lumière au moins deux paradoxes fondamentaux, elle se heurte à une redoutable interrogation : si le voyage dans le passé est possible, comment expliquer que nous ne soyons pas envahis par de lointains descendants venus du futur qui auraient maîtrisé cette technique ? La réponse est plus simple qu’il n’y paraît. Il faut imaginer qu’une boucle temporelle est une sorte de tunnel. Il est évident que si l’on perce l’entrée du tunnel mais non sa sortie, il ne servira à rien. Le trou de ver temporel suit le même principe : il faut d’abord le construire pour pouvoir l’utiliser !

 

Ainsi, si un inventeur de génie crée un trou de ver le 1er novembre 1996, « l’entrée » et la « sortie » commenceront leur existence à ce moment-là. L’entrée du trou de ver (le trou noir) évoluera normalement ; sa sortie (la fontaine de lumière) peut rester figée dans le temps si on lui communique la vitesse de la lumière. Ainsi, un an plus tard, si l’inventeur décide d’utiliser son tunnel temporel, il entrera par le trou noir, qui l’a suivi dans le temps, et sortira par la fontaine de lumière, qui se trouve « quelque part » entre le 1er novembre 1996 et le 1er novembre 1997.



Trou de ver-v2              trou-de-ver-v1

 

 

L’inventeur ne pourra pas revenir au-delà de la première date, celle de la création : le temps, à la sortie, a simplement été gelé. Bref, nos descendants ne viendront pas nous saluer tant que nous n’aurons pas construit nous-mêmes notre première boucle temporelle (le trou de ver) ! Et voici le premier paradoxe : il serait fort possible que, le 1er novembre 1996, notre génial inventeur voit arriver par la sortie de son trou de ver, son petit-fils – qui n’est pas encore né. Supposons que ce dernier, redoutable psychopathe, tue son grand-père, l’inventeur, qui n’a pas encore de fils. Mort, l’inventeur ne peut plus engendrer de progéniture, donc son petit-fils ne naîtra jamais. Dès lors, comment ce dernier pourrait-il tuer son aïeul ? Ce « paradoxe du grand-père » interdit en toute logique qu’un quelconque retour dans le passé soit possible, car il nie ce qu’il affirme : il nie l’existence du petit-fils et il affirme que c’est celui-ci qui tue son grand père…

 

Hélas, ce cruel paradoxe n’est pas unique ! Si, au lieu de tuer son grand-père, le voyageur du temps fournit à un jeune homme le livre qui le rendra célèbre dans le futur, on débouche sur un nouveau paradoxe. En effet, le jeune homme, qui n’a encore rien écrit, n’aura qu’à recopier son futur livre pour gagner la célébrité. Bref, cette œuvre n’aura jamais été véritablement créée, elle aura simplement été recopiée ! Ce paradoxe est aussi décisif que le précédent : il semble lui aussi condamner tout retour dans le passé.

 

Devons-nous écarter à jamais ce rêve (ou ce cauchemar) ? Accepter la possibilité d’un tel voyage revient à nier les principes de causalité et de cohérence logique, sur lesquels reposent les théories physiques. Or, comme ces dernières sont en adéquation avec les observations, leurs bases semblent solides. En quelques mots : ou bien la physique élucide les paradoxes, ou bien il faut renoncer aux voyages dans le passé !

 

 

 Trou de ver-v6                t-t sablier

 

 

C’est là qu’intervient la physique quantique, autre révolution scientifique majeure de notre siècle, à côté de la relativité générale. En effet, le monde de la physique quantique est encore plus surprenant que celui de la relativité : il répond à une drôle de logique… Le meilleur exemple en est le fameux paradoxe du « chat de Schrödinger ». Sans entrer dans les détails, pour la physique quantique, une particule peut se trouver simultanément en plusieurs endroits. Mais, lorsqu’on l’observe, la (multi) particule se  « ré-assemble » en une seule, en un lieu déterminé par une certaine probabilité de présence.

 

De nombreuses explications de ce comportement ont été esquissées depuis des décennies. Ces tentatives vont de l’extrême le plus « rationnel » (« la théorie quantique n’est qu’un formalisme mathématique qui ne décrit pas physiquement le comportement réel des particules »), à l’extrême le plus « spéculatif » (« il existe autant d’univers parallèle qu’il y a de possibilités de présence d’une même particule en des lieux distincts »).

 

L’improbable pour expliquer l’incertain

 

Que signifie la possibilité de l’existence d’une multitude d’univers parallèles ? Lorsque la particule est « démultipliée » en plusieurs lieux, il se crée en réalité une superposition d’univers. Dans chacun des univers, la particule occupera un lieu et un seul. Ici, il est question non plus de superposition d’états d’une particule mais de superposition d’univers. Dès qu’on effectue la mesure, on disjoint les univers. Chacun d’eux suivra sa propre évolution, indépendamment des autres, et sera mesuré par des chercheurs « parallèles » dans chaque univers. Si « farfelue » qui puisse paraître une telle interprétation, elle est prise au sérieux par de nombreux physiciens. Car elle est bien la seule à pouvoir résoudre le paradoxe du grand-père et celui de l’écrivain. Ainsi, lorsqu’on crée une boucle temporelle, on construit en même temps un pont entre deux univers parallèles.

 

 

 BigBounce                 Trou de ver-v4

 

 

 

La résolution des paradoxes devient dès lors facile. Le petit-fils de l’inventeur vivait dans son univers. Quand il emprunte le trou de ver, il revient en arrière dans le temps, mais il change aussi d’univers. Il se retrouve alors face à un grand-père qui vit dans un univers qui n’est pas l’univers d’origine de notre voyageur. S’il tue son aïeul, il ne naîtra jamais dans l’univers où il a échoué. Mais il naîtra parfaitement dans l’univers d’où il est parti, car, là, le grand-père n’aura pas été tué (il n’aura même pas rencontré son petit-fils psychopathe venant du futur !). Ainsi, en retournant dans le passé, le voyageur va modifier l’histoire d’un univers auquel il n’appartient pas. Ses actions n’auront aucune conséquence sur son univers d’origine ni donc sur lui-même.

 

Le paradoxe de l’écrivain se résout de la même façon. Un écrivain recevra le livre que son « double » écrira dans le futur de l’autre univers. Le premier copiera le livre, mais celui-ci sera néanmoins créé dans l’autre univers… L’acte de création aura lieu au moins dans un univers. Les paradoxes s’estompent donc au prix – élevé ! – d’une multiplicité d’univers. Il n’en demeure pas moins que les physiciens semblent se servir de l’extrêmement improbable pour expliquer le fortement incertain !

 

Mais la difficulté théorique se complique d’autres écueils, plus « techniques » : comment passer à travers un trou noir sans être broyé et réduit à l’état de particule élémentaire ? La pression gravitationnelle qui s’exerce sur un objet à proximité d’un trou noir est si forte qu’à priori aucun vaisseau, si robuste qu’il soit ne pourrait garder son intégrité physique. Toujours est-il que si, un jour, dans vingt, cinquante ou cent ans, l’homme parvient à voyager dans le temps, les historiens diront que le premier pas de ce périple a été franchi au milieu des années 90.

 

L’effet Casimir : quelque chose à partir de rien

 

Prévu par le physicien allemand H.B.G. Casimir en 1940, mais observé de manière expérimentale seulement depuis 1994, l’effet Casimir met en évidence les fluctuations quantiques du vide.


 

L'effet casimir-v2                 L'effet casimir-v3

 

 

 

En effet, d’après la théorie quantique, le vide est en réalité peuplé de particules « virtuelles » qui naissent et disparaissent si vite qu’on est incapable de les voir. La plupart du temps, le vide reste vide, mais parfois les particules virtuelles (éphémères) deviennent « réelles » (c’est-à-dire qu’elles durent). Or le principe de symétrie, qui régit les lois physiques à l’échelle macroscopique, indique que « rien ne se crée, rien ne se perd, tout se transforme ». Donc, si une particule virtuelle devait perdurer, il faudrait que l’antiparticule qui lui est associé naisse et demeure aussi. Or, l’effet Casimir contrevient à ce principe : on peut par exemple faire naître du vide et des électrons sans produire simultanément les anti-électrons (ou positons) associés. En principe, on dit qu’il y a « rupture de symétrie » du vide. Dans les équations, ce phénomène se traduit par la création d’énergie négative.

 

 

[1] Quantité de matière par unité de volume.

[2] Kurt Gödel, Kip Thorne (physicien au Californian Institute of Technology).

[3] Ces deux valeurs, dites constantes de Planck, marquent la limite en deçà de laquelle les lois physiques nous échappent.

[4] Un effet ne peut se produire avant la cause qui lui donne naissance : l’effet suit la cause et ne la précède pas.

Partager cet article
Repost0
26 février 2010 5 26 /02 /février /2010 11:50

Contexte

 

Si aller voir ce qui se passe au centre de la Terre est l’un des voyages qui, au même titre que marcher sur la Lune, a toujours stimulé l’imagination des hommes, l’entreprise demeure toujours une impossibilité physique. Du coup, les scientifiques ont tourné la difficulté : ils cherchent à « faire venir » le centre de la Terre dans leurs laboratoires, en recréant les conditions de température et de pression qui y règnent. Une invention rendit la chose possible : la cellule à enclumes de diamant, mise au point en 1959 par quatre Américains du National Bureau of Standards, Charles Weir, Ellis Lippincott, Alvin Valkenburg et Elmer Bunting.

 

Géomagnétisme : 2000 tours/minute en ballon

 

 

 

 ib2587,experience-derviche-tourneur-lgit-grenoble-simuler-g

 

 

 

L’origine du champ magnétique terrestre fait toujours débat. Considérations théoriques et simulations numériques suggèrent qu’il est produit par les mouvements de convection qui brassent sans cesse le noyau de fer liquide. On admet que l’écoulement de ce fluide métallique, conducteur d’électricité, à travers un champ magnétique, induit des courants électriques qui, à leur tour, créent un champ magnétique. Bref, le noyau fonctionnerait comme une énorme dynamo qui s’auto-entretiendrait. Mais comment marche-t-elle ? Avec quelle énergie ? Et pourquoi le champ magnétique fluctue-t-il et s’inverse-t-il dans le temps ?

 

Pour répondre à ces questions, les chercheurs du laboratoire de géophysique interne et de tectonophysique de Grenoble ont conçu, sous la houlette de Philippe Cardin et Henri-Claude Nataf, une expérience originale, surnommée le « derviche tourneur sodium ». Inauguré en octobre 2003, le dispositif expérimental devrait faire venir le cœur de la Terre jusqu’aux chercheurs…

 

Une double sphère


La pièce maîtresse est une sphère en inox de 40 cm de diamètre remplie de sodium liquide. Elle dissimule une boule de cuivre de 13 cm de diamètre portant un aimant permanent. La première représente le noyau externe liquide de la Terre, la seconde, sa graine solide. Un premier moteur fait tourner la sphère jusqu’à 2000 tours/minute. Un second entraîne la graine centrale à vitesse variable. Emboîtées, elles ne tournent cependant pas tout à fait en même temps. Résultat : le mouvement différentiel va entraîner le sodium, l’étirer et le mettre en mouvement. Les simulations numériques réalisées en amont donnent une idée de la géométrie de ces mouvements : des tourbillons (cyclones et anticyclones) apparaissent, dont les axes sont parallèles à l’axe de rotation de la sphère. Comme pour la Terre, le mouvement du métal liquide entre les deux sphères va créer le champ magnétique. Il sera alors possible de mesurer de façon continue la vitesse d’écoulement du sodium liquide et l’intensité du champ magnétique induit. Autres paramètres étudiés : le champ de pression (dont la mesure permet aussi de remonter à la vitesse de l’écoulement) et les potentiels électriques en surface qui favorisent la mesure des courants électriques générés par l’écoulement du sodium engendrant le champ magnétique.

 

A cette fin, une batterie d’instruments de mesure a été placée sous la sphère, contrôlée en temps réel par deux ordinateurs. L’un, voué au contrôle et aux commandes, affiche les données en temps réel. L’autre reçoit les mesures scientifiques. Reste que si l’un des intérêts de cette expérience est d’utiliser du sodium liquide, métal dont la viscosité est comparable à celle du noyau terrestre, ce choix n’est pas sans risques : le sodium liquide s’enflamme à l’air. Il réagit aussi très violemment avec l’eau, formant de l’hydrogène qui, en se combinant avec l’oxygène de l’atmosphère, explose. Aussi la salle de 24 m² qui abrite l’expérience est-elle revêtue d’acier en inox et placée sous surveillance 24h sur 24, tandis que son sol est surélevé de 1,20 m pour éviter l’entrée d’eau. Des aménagements qui expliquent le coût de l’opération : 350 000 euros, financés par le ministère de la Recherche et l’Institut national des sciences de l’Univers du CNRS. Il ne reste plus qu’à attendre que l’expérience donne des nouvelles du centre de la Terre.

 

Géocristallographie : de la Terre au noyau

 

La graine, cette boule solide au centre de la Terre, présente une curieuse propriété, connue depuis une dizaine d’années : les ondes sismiques y voyagent légèrement plus vite le long d’un axe nord-sud que dans le plan équatorial. Selon les géologues, elle serait donc « anisotrope », une particularité qui pourrait s’expliquer par une orientation préférentielle des cristaux de fer qui constitueraient la graine. Mais comment tester cette hypothèse ? A défaut d’échantillonner directement les matériaux qui constituent les couches les plus profondes de la Terre, il est possible de recréer en laboratoire les conditions extrêmes qui règnent au cœur de notre planète et d’y soumettre des cristaux de fer pour voir si leurs propriétés sont conformes à celles du « corps » de la graine. C’est l’un de ces voyages virtuels que des chercheurs de l’European Synchroton Radiation Facility de Grenoble et du laboratoire de minéralogie-cristallographie de l’université de Paris VI, ont effectué, voici quelques mois, non pas dans l’ambiance feutrée d’une salle de laboratoire mais dans celle, plus électrique et internationale, du synchroton européen, le fameux accélérateur de particules situé à Grenoble ! Pour la première fois, ils ont pu mesurer la vitesse de propagation des ondes acoustiques (comparables aux ondes sismiques qui circulent à l’intérieur de la Terre) dans des cristaux de fer soumis à des pressions de plus de 110 gigapascals, soit plus de 1 million de fois la pression atmosphérique !

 

Un échange d’énergie

 

La tâche était ardue : les chercheurs ont dû travailler sur des échantillons de fer de quelques dizaines de micromètres. Ils ont donc comprimé des agrégats de cristaux de fer entre deux pointes de diamants, puis les ont soumis à un rayonnement X. Le cristal retenu est de type hexagonal compact, forme sous laquelle le fer pourrait être présent dans la graine. Concrètement, la technique repose sur le principe d’un échange d’énergie entre les photons X et des phonons, c’est-à-dire des ondes acoustiques engendrées par la vibration des atomes de fer à l’intérieur du réseau cristallin. De cet échange, on peut déduire la vitesse de propagation des ondes acoustiques et la comparer avec celle des ondes sismiques. Mais comment vérifier que la vitesse des premières varie suivant leur trajet,  à l’instar de ce qui se passe pour les secondes ? Simple : à l’intérieur de la « cellule à enclumes de diamants », les cristaux de fer s’orientent naturellement sous l’effet de la pression, suivant l’axe de compression de la cellule. En inclinant plus ou moins celle-ci, les chercheurs ont pu mesurer la vitesse de propagation du son dans différentes directions et mettre là aussi en évidence une antisotropie. Et en effet, le son voyage légèrement plus vite suivant l’axe d’allongement des cristaux de fer que dans leur plan équatorial. Conclusion : l’antisotropie s’expliquerait bien par une orientation préférentielle des cristaux de fer à l’intérieur de la graine. Reste que ces expériences de diffusion inélastiques sont longues : il faut 24 heures pour analyser un point à une pression et une orientation de cristaux données ! Ce qui explique que l’expérience a dû se dérouler en deux temps sur 2003 et 2004.

 

Géoneutrinos : 6350 km sous les mers

 

Il y a un siècle, la découverte des rayons X permettait de scruter le corps humain. Bientôt, une particule élémentaire, l’antineutrino, pourrait jouer le même rôle en autorisant les géologues à visualiser la radioactivité interne de la Terre. Une première ! Pour l’instant, le voyage est théorique… L’équipe de l’italien Gianni Florentini, de l’université de Ferrara, a imaginé recourir à un détecteur d’antineutrinos, particules émises par notre planète, pour percer un mystère : l’origine de la chaleur interne du globe. La Terre irradie 40 térawatts (1012 W) de chaleur vers l’espace, soit autant que 100 000 centrales thermiques ! Si cette énergie provient surtout du Soleil, le sous-sol n’est pas en reste : chaque mètre carré émet 80 milliwatts venant des entrailles du globe.

 

 

 barracuda-3d-DCN

 

 

Savoir décrypter

 

Cette énergie a plusieurs sources possibles. « Lors de la formation de la Terre, l’énergie cinétique des roches en accrétion qui s’entrechoquaient s’est transformée en énergie thermique, explique Alessandro Forte, géologue à l’université du Québec, à Montréal. Avec l’effondrement gravitationnel de la matière vers le centre, la plus grande partie de cette chaleur a été piégée dans le noyau ». Autre source potentielle : les éléments radioactifs capturés lors de la formation de la Terre et qui se désintègrent lentement (thorium, potassium, uranium). Reste qu’on ignore quelle est la part de la radioactivité dans la chaleur produite par la Terre, il n’empêche : « Les éléments radioactifs emprisonnés sous terre émettent des neutrinos et des antineutrinos lorsqu’ils se désintègrent, explique Gianni Florentini. Ils parviennent intactes à la surface, où nous pouvons les détecter ». Encore faut-il parvenir à décrypter les messages dont ces espions du monde sous-terrain sont porteurs… Un défi relevé l’été 2002, par les chercheurs du Sudbury Neutrino Observatory, un détecteur installé au Canada. Ils sont parvenus à décrire le changement de nature qui affecte une partie des neutrinos émis et explique que les détecteurs récupèrent moins de particules que prévu. Pour voyager au centre de la Terre, les Italiens proposent donc d’utiliser un détecteur classique : une sphère remplie d’eau lourde, c’est-à-dire enrichie en deutérium (un isotope de l’hydrogène qui réagit avec les neutrinos) et dont l’intérieur est tapissé de milliers de tubes photomultiplicateurs, les yeux du détecteur. Un antineutrino qui pénètre dans le détecteur a toutes les chances de rencontrer un noyau de deutérium. Tous deux réagissent en échangeant une particule chargée, un boson W. Le neutrino se transforme alors en un électron bourré d’énergie éjecté à la vitesse de la lumière. Ce phénomène provoque une onde de choc de lumière, la radiation Cherenkov », détectée par les tubes. On détermine alors la somme des antineutrinos émis au départ, en fonction de celle recueillie par le détecteur. Ainsi, pour la première fois, on pourra estimer la quantité d’éléments radioactifs situés dans les entrailles de la Terre ! Cela étant, la méthode ne permet pas de conclure qu’un antigéoneutrino a été produit dans la croûte, le manteau ou le noyau. Elle ne localise pas précisément la radioactivité souterraine. Conscient de ces limites, Gianni Florentini a imaginé une expérience encore plus ambitieuse : « Le détecteur pourrait être installé dans un sous-marin. En multipliant les expériences en différents lieux bien choisis, les géologues dessineraient une véritable carte de la radioactivité souterraine ». L’idée est lancée, la balle est dans le camp des géologues.


Le sort du vivant est d’ordre magnétique

 

A quoi bon aller au centre de la Terre ? La question ne se pose plus quand on sait que le sort des nombreuses espèces animales, et même celui de l’homme, dépend de l’activité du noyau enfoui sous nos pieds. Sans parler de la prévision des séismes ou de l’élucidation de mystères enveloppant d’autres planètes. Plongée au cœur de préoccupations cruciales.

 

 

 

Aurora-Borealis
 

 

 

D’intrépides voyageuses, telles sont les tortues de mer, qui parcourent des milliers de kilomètres pour se reproduire dans des contrées propices. Après avoir quitté la Floride, ne traversent-elles pas l’Atlantique jusqu’aux Açores, avant de piquer vers le sud ? Or, aux Açores, elles frôlent un courant qui monte vers l’Atlantique Nord. Un courant qui, si elles s’y aventuraient, les entraînerait inéluctablement vers une froideur fatale. Comment font-elles pour ne pas se tromper de route ? On sait depuis peu qu’elles se repèrent grâce au champ magnétique terrestre. Autrement dit, le sort des tortues – mais aussi des oiseaux migrateurs, de bactéries, etc. – est suspendu à l’activité du noyau terrestre enfoui à 6350 km sous leurs nageoires. Et encore plus quand on sait que le champ magnétique ne cesse de varier, comme lors des deux derniers siècles. Sans conséquences, semble-t-il, pour les tortues de mer. Mais en sera-t-il toujours ainsi ? Si tel n’était le cas, que de bouleversements alors sur Terre !

 

Des effets sur la santé

 

Le problème, c’est que pour estimer les variations futures du champ magnétique, il faudrait en connaître l’origine. Une tâche impossible tant que la nature du formidable générateur de champ magnétique niché au centre de la Terre ne sera pas précisément connue. Et voilà bien le premier intérêt d’aller voir de près ce qui se passe au cœur de notre planète. Le noyau externe est-il constitué de fer en fusion agité de turbulences propres à créer un champ magnétique ? Contient-il du potassium 40 alimentant ce champ en énergie ? A moins qu’il ne le génère en se comportant tout entier comme un géoréacteur… Pour l’heure, les spécialistes peinent à trancher entre ces hypothèses. Pourtant, c’est le sort de nombreuses espèces animales qui est en jeu. Et même celui de l’homme ! Car le noyau a des conséquences directes sur sa santé. « La présence du champ magnétique terrestre est importante en ce sens que les lignes de champ protègent des radiations cosmiques », rappelle Annie Souriau, géophysicienne à l’Observatoire Midi-Pyrénées, à Toulouse. De fait, le champ magnétique agit comme un bouclier contre les particules électriquement chargées qui heurtent de plein fouet notre planète. Provenant du Soleil ou de l’espace, ces particules (des protons, des électrons, des noyaux d’hélium ionisés…) sont en partie déviées par les lignes de champ magnétique jusqu’aux pôles où, en ionisant l’atmosphère, elles nappent le ciel d’aurores boréales. Sans le noyau et son champ magnétique, ce bouclier n’existerait pas et notre planète serait bombardée de particules cosmiques. Exposés à une importante radioactivité, les êtres vivants connaîtraient alors mortalité et mutations…

 

Ce n’est pas tout. Car nombre d’équipements sont également concernés. En Amérique du Sud, par exemple, une anomalie de bas champ magnétique cause régulièrement des avaries aux satellites survolant la région. En 2001, elle provoqua même 15 jours durant la panne d’un des instruments du satellite d’observation de la Terre de la Nasa, Terra. Et les dégâts s’accentuent lorsque s’y ajoutent les humeurs du Soleil. Lors de ses maxima d’activités, les bouffées de particules qu’exhale notre astre sont si denses qu’elles perturbent le champ magnétique et déclenchent des orages magnétiques. Orages qui détruisent des satellites en déréglant les puces électroniques embarquées, troublent les communications et les réseaux électriques. En 1989, le Québec fut ainsi plongé dans l’obscurité après qu’une tempête magnétique eut fait disjoncter le réseau électrique.

 

Questions : doit-on alors craindre une diminution générale du champ magnétique et donc un effritement de la protection contre les particules cosmiques ? Une modification du champ magnétique accentuerait-elle les orages magnétiques ? Là encore, seule l’élucidation du moteur du champ magnétique permettrait de répondre.

 

Vers l’inversion des pôles ?

 

Toutefois, les donnés paléomagnétiques fournissent quelques pistes. L’orientation du champ magnétique à diverses époques du passé peut se déduire, en effet, de la disposition de cristaux dans des laves solidifiées. Et ces enregistrements géologiques ont montré que le champ était à son maximum il y a deux mille ans et qu’il n’a, depuis, cessé de diminuer. S’il continue de la sorte, il s’annulera, puis s’inversera (les pôles magnétiques Nord et Sud échangeant leur place) dans les deux prochains millénaires. Une durée compatible avec les travaux de Bradford Clement de l’université internationale de Floride qui, en examinant des roches sédimentaires, a conclu qu’en moyenne lors des quatre dernières inversions (la dernière datant d’il y a 780 000 ans) le champ a basculé en 7000 ans.

 

 

 soleil-terre-bouclemagnetique

 

 

 

Si une inversion est bien en cours, les variations qu’elle entraîne portent sur des durées de l’ordre d’une centaine à un millier d’années. Mais le risque qui pèse sur les satellites n’en est pas pour autant écarté car le champ magnétique se déplace à une vitesse moyenne de 10 km par an. A Paris, par exemple, la direction indiquée par les boussoles a pivoté d’une trentaine de degrés en quatre siècles, signe d’un déplacement du pôle Nord magnétique. Conclusion : une zone placée sous haute protection du champ magnétique peut en quelques années perdre une grosse partie de cette défense. L’évolution du champ magnétique est donc bien une préoccupation à court terme pour l’industrie spatiale.

 

A plus longue échéance, l’intérêt d’étudier le noyau touche cette fois à la prévision des séismes ! A l’origine des tremblements de terre, le déplacement des plaques de la surface terrestre est en effet l’expression superficielle de la dynamique du manteau. « Et nous n’aurons aucune certitude en la matière sans connaissances fondamentales sur le noyau. Car la dynamique du noyau et celle du manteau sont liées », explique Mar Monnereau, directeur-adjoint du laboratoire dynamique terrestre et planétaire à Toulouse. On aurait tort de considérer le manteau terrestre rigide, comme posé sur le noyau liquide, tel un bouchon flottant à la surface de l’eau. Une analogie plus juste serait celle de la casserole d’huile chaude placée sur un feu. Le manteau est mis en mouvement par sa propre chaleur, mais également par celle du noyau. Quiconque veut décrire la dynamique du manteau et la tectonique des plaques doit donc s’intéresser aux phénomènes qui siègent au cœur de la planète. Mais ici, un problème surgit. Celui de l’incertitude régnant sur les sources d’énergie à l’œuvre dans le noyau. Car même si on ne considère que les sources d’énergie classiques (chaleur emmagasinée à la naissance de la Terre, radioactivité naturelle, chaleur latente lors de la solidification de la graine, énergie potentielle des éléments radioactifs et des éléments légers rejetés lors de la cristallisation), les contributions de chacune d’elles sont entachées d’une large marge d’erreur. Avec comme conséquence, reconnaît Marc Monnereau, que « la température de surface du noyau est inconnue à plusieurs milliers de degrés Celsius près : elle varie selon les modèles entre 3000 et 6000 degrés ».

 

En raison de ce flou, les géophysiciens simulent la dynamique du manteau via les modèles « adimensionnés », c’est-à-dire faisant fi de paramètres tels qu’épaisseur du manteau ou température du noyau. Les conclusions qu’ils en tirent sont donc restreintes à des mécanismes généraux. Pour améliorer ces modèles, il paraît donc essentiel de préciser les sources d’énergie siégeant dans le noyau et leurs contributions respectives. Les simulations de la dynamique du manteau progresseront alors, améliorant du même coup la prévision des déplacements des plaques tectoniques. Il faudra certes patienter avant que la sismologie ne bénéficie des retombées de ces recherches, car les séismes et la tectonique des plaques s’effectuent à deux échelles différentes. Un séisme résulte de l’accumulation de tensions locales de l’écorce terrestre, à l’échelle d’une faille qui s’étend du mètre au kilomètre ; tandis que les modèles numériques de la dynamique de la Terre simulent la tectonique des plaques à l’échelle des continents. Mais la précision des modèles grandissant, la sismologie et l’étude de la tectonique des plaques finiront par se rejoindre, et la première profitera des avancées de la seconde.

 

Contrer la dynamo solaire


Et si l’étude du noyau éclaire la dynamique actuelle de la Terre, il en sera a fortiori de même pour plusieurs des zones d’ombre qui émaillent le passé de la planète, telles l’apparition des continents ou la date de formation du noyau. De quoi, au passage, en savoir plus sur les autres planètes du système solaire puisque toutes, sauf Vénus et Mars, possèdent un champ magnétique et, du coup, recèlent leur lot d’énigmes. Uranus, par exemple, indique un champ magnétique incliné de 55° par rapport à l’axe de rotation de la planète, alors que cet angle ne dépasse pas 10° chez les autres planètes. Est-ce circonstanciel, le champ d’Uranus étant sur le point de s’inverser ? Ou bien, cette inclinaison a-t-elle toujours existé ? Pour ces planètes, la Terre pourrait bien servir de système modèle. Tout comme pour le Soleil.

 

 

 mag field1              aurore boreale

  

 

Constitué d’un plasma d’hydrogène et d’hélium ionisés à 90 %, il abrite lui aussi une dynamo. Une dynamo responsable du cycle d’activité solaire de onze ans qui suscite bien des interrogations. Le comportement de notre étoile est pourtant crucial pour les activités humaines car les expulsions violentes de particules qui causent, sur Terre, des orages magnétiques, surviennent lors des épisodes d’intense activité solaire. En étudiant les rouages du moteur terrestre, nous parviendrons peut-être un jour à nous prémunir contre les foudres de la dynamo solaire. Pas de doute, le centre de la Terre est bien au cœur de multiples préoccupations.

 

Entretien avec Marc Monnereau

Du Laboratoire dynamique terrestre et planétaire, Toulouse.

 

En quoi l’étude du noyau de la Terre nous aide-t-elle à mieux connaître les autres planètes du système solaire ?

 

Grâce à l’étude de la dynamo terrestre, nous savons quelles conditions une planète doit respecter pour posséder un champ magnétique. Ce champ doit être entretenu par une source d’énergie interne, la planète doit tourner et son noyau être liquide.

 

Qu’en déduit-on lorsqu’une planète est dépourvue de champ magnétique ?

 

Mars ne possède pas de champ magnétique, mais on pense qu’elle a un noyau. L’absence de champ magnétique découlerait du refroidissement de la planète et de la solidification avancée de son noyau.

 

Pourquoi Vénus, jumelle de la Terre, n’a-t-elle pas de champ magnétique ?

 

Vénus est d’une taille comparable à la Terre, elle devrait donc a priori être dans le même état de refroidissement que notre planète, et donc avoir un noyau liquide et un champ magnétique. Elle ne fait certes qu’un tour sur elle-même en une année, mais les spécialistes disent que cette rotation suffit à produire un champ magnétique. On s’interroge donc sur la vitesse à laquelle Vénus s’est refroidie.

 

 


mars terre coupe

 
 

 

 

 

 

 

Partager cet article
Repost0
26 février 2010 5 26 /02 /février /2010 11:33

Voyage au centre de la Terre

 

Mais que cache le centre de la Terre ?

 

C’est l’ultime « terra incognita » : à 6350 km sous nos pieds, le cœur de notre planète garde jalousement son secret, faute qu’on puisse y aller voir de près. Du coup, les hypothèses rivalisent : s’agit-il d’une dynamo ? D’un réacteur ? D’autre chose ? Pour le savoir, les scientifiques montent d’incroyables explorations… directement dans leurs labos ! Embarquement immédiat pour la plus obscure des destinations, là où se joue aussi l’avenir du vivant…

 

 

 terre creuse coupe

 

 

L’homme a beau allé sur Mars, il ne sait toujours pas ce que cache le centre de la Terre ! Du coup, les hypothèses rivalisent. Dynamo ? Réacteur nucléaire ?... Une récente découverte vient de relancer le débat. Enquête à 6350 km de profondeur.

 

Le 3 juillet 2004, des dizaines de scientifiques venus du monde entier ont fait route vers Garmish-Partenkirchen, la célèbre station de ski bavaroise. Paradoxalement, ils se sont donné rendez-vous dans ce lieu fréquenté et haut perché pour s’entretenir du plus mystérieux et du plus profond endroit du globe terrestre : le centre de la Terre, cette région située à 6350 km sous nos pieds et que personne n’a jamais visitée. Ce symposium SEDI, pour Study of the Earth’s Deep Interior, vise à voir plus clair dans les entrailles du globe. Les travaux de Jeffrey Nguyen et Neil Holmes publiés en avril 2004 y seront abondamment commenté, les géochimistes californiens ayant annoncé que le cœur de notre planète serait fait d’une seule sorte de cristal de fer qu’ils ne sont pas parvenus à identifier. En effet, à ce jour, on en sait beaucoup moins sur cette partie du monde que sur la surface du Soleil ! Un astre situé pourtant 25.000 fois plus loin de nous…

 

Une certitude, cependant : contrairement à une idée bien ancrée dans l’imaginaire populaire, ce cœur n’est en rien une énorme boule de feu. Une confusion entretenue par les coulées de lave venues des profondeurs et qui s’épanchent de la bouche des volcans. Or, la matière minérale en fusion provient de chambres « magnétiques » situées seulement à quelques kilomètres de la surface ! En fait, selon la théorie dominante avancée dès 1936 par la sismologue danoise Inge Lehmann et présenté à tort comme une certitude par les manuels, le centre de la Terre est un gigantesque cœur de 2400 km de diamètre, composé de fer solide et d’éléments à l’état de traces (nickel, soufre, oxygène…). Une sphère à peine plus grosse que la Lune !

 

Un noyau dans une mer de fer

 

Selon ladite théorie, cette « graine » ou « noyau interne » baigne dans un immense océan de fer en fusion, le « noyau externe », et siège à 5100 km de profondeur, sous la « croûte », la couche géologique terrestre la plus superficielle, et sous le « manteau ». La pression qui y règne de 360 gigapascals (GPa), équivaut à plus de 3.600.000 fois celle mesurée en surface. Et la température atteint 6000° C, l’équivalent de la température à la surface du Soleil ! Aucune de ces données n’a été récoltée sur place : il s’agit d’estimations obtenues par des méthodes de sondage indirectes. Quant au précieux champ magnétique terrestre engendré par le noyau, cette force qui nous préserve des vents solaires, dirige les boussoles et guide les oiseaux migrateurs, il fait l’objet de bien des discussions.

 

Une boule d’uranium ?

 

« En fait, le champ magnétique est bien décrit depuis plus de quatre siècles : les mesures directes à la surface du globe ont montré que cette force ressemble au champ d’un aimant dipolaire situé au centre de la Terre et incliné approximativement de 11° par rapport à l’axe de rotation de la planète, explique Philippe Cardin, du laboratoire de géophysique interne et tectonophysique, à Grenoble. Reste qu’en réalité aucune étude scientifique ne corrobore l’existence d’un aimant permanent au centre de la Terre. Aussi, l’origine de ce champ dipolaire est-elle encore très mal comprise ». Et pour tenter de percer ce mystère, plusieurs hypothèses rivalisent avec la thèse précédente du noyau de fer solide, qui recueille les faveurs de la majorité des chercheurs. Selon cette théorie, le champ magnétique serait généré par d’énormes tourbillons au sein du liquide entourant la graine, transformant celle-ci en dynamo. Oui, mais tout s’obscurcit lorsqu’il s’agit de comprendre la cause des changements de direction du champ magnétique terrestre. Car dans le passé, le nord magnétique correspondait tantôt au pôle Sud géographique, comme il y a 780 000 ans, tantôt au pôle Nord, comme aujourd’hui. D’après les partisans de la thèse du cœur de fer, ces inversions seraient dues à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication qui ne fédère pas tous les avis…

 

 

 

 terrelune

 

 

Ainsi Richard Muller, physicien à l’université de Californie avance une hypothèse surprenante : « La plupart des inversions du champ magnétique sont dues à des avalanches spontanées se produisant à la limite du noyau externe et du manteau : se tassant à cette frontière, les sédiments retombent dans le noyau et perturbent les tourbillons à l’origine du champ magnétique ». Une thèse controversée : « Certes, la limite noyau-manteau étant aussi accidentée que les fonds marins, des éboulements similaires à ceux observés dans les océans peuvent s’y produire, commente Stéphane Labrosse, de l’Institut de physique du globe, à Paris, partisan des tourbillons au sein du noyau de fer. Toutefois, aucune coulée, même importante, ne peut modifier la circulation globale de l’eau. Pourquoi donc imaginer qu’une même cause aurait des effets plus importants dans le noyau, au point d’inverser le champ magnétique ? » Réponse de Richard Muller : un choc puissant comme la collision de la Terre avec des astéroïdes pourrait déclencher des avalanches nettement plus conséquentes qu’un éboulement marin. Ce qui est jugé spéculatif par les partisans de la thèse du noyau de fer. Reste que le physicien ne va pas jusqu’à affirmer qu’une structure autre que la boule de fer solide se cache au centre de la Terre. Le géophysicien américain Marvin Herndon si !

 

Il postule en effet que la graine, en son centre, ne renferme pas du fer mais une énorme boule d’uranium radioactif (uranium 235 et 238) de 8 km de diamètre, siège de réactions de fissions en chaîne. Le centre de la Terre ne serait donc pas une dynamo mais un énorme réacteur nucléaire naturel : un « géoréacteur ». Lequel  fournirait une énergie distincte de celle émise par la radioactivité naturelle produite par trois éléments dans la croûte terrestre : le thorium 232, l’uranium 235 et l’uranium 238. Cette thèse repose sur l’observation d’un rapport 3He/4He (deux formes d’hélium, un gaz rare) anormalement élevé dans des roches volcaniques d’Hawaï, l’élément 3He étant un sous-produit de fission nucléaire. Elle explique à sa manière les inversions magnétiques.

 

Autre candidat : le potassium

 

« Pour des raisons qui nous échappent encore, le géoréacteur s’assoupirait avant de redoubler d’intensité, entraînant les inversions du champ magnétique lors de ses reprises d’activité », précise Marvin Herndon. L’idée est séduisante. Sauf que l’existence d’un géoréacteur est vivement critiquée par la communauté scientifique qui, dans son ensemble, soutient la thèse dominante d’un noyau de fer se comportant comme une dynamo. D’autant que cette dernière explique le rapport élevé de 3He/4He dans les basaltes hawaïens par une persistance de l’hélium produit lors de la formation de la Terre. Les travaux de Marvin Herndon ont néanmoins attiré l’attention de chercheurs, néerlandais du Kernfysich Versneller Instituut, un institut de physique nucléaire rattaché à l’université de Groningen. En effet, dans un récent article intitulé « Quest for a nuclear georeactor » (« A la recherche d’un géoréacteur nucléaire »), Robert de Meijer et ses collègues proposent de construire un laboratoire souterrain afin de savoir si nous sommes réellement assis sur un géoréacteur, tandis que les partisans des autres hypothèses ne sont pas en reste et montent leurs propres expériences pour les valider : « L’idée est de développer un détecteur des particules produites lors de la désintégration de l’uranium radioactif : les antineutrinos, précise Robert de Meijer. Un système plus sensible que ceux existant à ce jour, comme celui de Kam-Land, au Japon. On pense le construire sur l’île Curaçao, au large du Venezuela, là où la croûte du globe est mince et loin de toute industrie, afin d’éviter les interférences entre les particules venant du centre de la Terre et celles produites par la croûte terrestre et les centrales nucléaires. »

 

La thèse d’un géoréacteur se rapproche d’une autre théorie, moins extrême, qui elle aussi avance la présence de radioactivité dans le noyau. Attention, il n’est pas question ici d’uranium et de réacteur nucléaire, mais d’un élément moins lourd, qui serait dispersé dans tout le noyau et non concentré en son centre : le potassium 40, noté 40K. A la jonction de la théorie de la géodynamo et de celle du géoréacteur, cette troisième thèse fait du centre de notre planète un noyau de fer et de 40K. Explicitée pour la première fois dans les années 70, notamment par la planétologue américain Mark Bukowinski, cette hypothèse est née d’une question troublante. Si c’est l’énergie générée par le refroidissement de la graine qui alimente le champ magnétique, sachant que celui-ci existe depuis 3,2 milliards d’années et que la graine n’est âgée que d’un ou de deux milliards, d’où provenait l’énergie faisant « tourner » le champ avant la formation de la graine ?

 

Un cœur de fer radioactif : la thèse de la réconciliation ?

 

Réponse des partisans de la théorie du potassium radioactif : du 40K, dont la radioactivité est source d’énergie… Sitôt formulée, cette théorie a fait l’unanimité contre elle. Pour une raison simple : le potassium 40 ne peut avoir coulé au centre de la Terre lors de la formation de cette dernière il y a 4,6 milliards d’années. Il faut savoir, en effet, que selon l’hypothèse dominante expliquant la naissance de notre planète (là encore on en est réduit à des hypothèses), la Terre s’est formée dans le jeune système solaire par accrétion de météorites de plusieurs centaines de kilomètres de diamètre. Elle a ensuite fondu partiellement, principalement sous l’effet de la chaleur libérée par les chocs entre la planète et les météorites. Conséquence : à cause de la gravité, les métaux lourds, comme le fer, ont migré vers le centre en quelques dizaines de millions d’années, formant ainsi le noyau terrestre. Tandis que les éléments plus légers, comme les silicates montaient vers la surface pour former le manteau. D’après cette théorie, en coulant vers le centre de la Terre, le fer n’a pu entraîner avec lui le 40K, un composé qui ne se combine pas avec lui. Or, surprise, en décembre 2003, les Américains Kanani Lee et Raymond Jeanloz, géophysiciens de l’université de Berkeley de Californie, ont réussi à créer un alliage de fer et de 40K. Cette prouesse fut réalisée en portant un échantillon de fer et de potassium purs à hautes pressions (26 gigapascals, soit 250.000 fois la pression en surface) et température (dépassant les 2230° C). Une première internationale assurée de faire date dans les annales de géophysique.

 

 

  

athenoshpere

 

 

 

Car du coup, cet assemblage jamais obtenu jusque-là montre que le 40K a bel et bien pu gagner le centre de la Terre, à ses origines. « En considérant nos données, et en comparant les quantités de 40K présentes dans la croûte et le manteau actuellement et lors de la formation de la Terre, on peut dire que le noyau contient près de 0,1 % de 40K, triomphe Kanani Lee. Cette quantité paraît ridicule, mais elle peut suffire à fournir 25 % de la chaleur dissipée par la Terre, car un peu de 40K dégage beaucoup d’énergie ! ». « L’obtention d’un alliage de fer et de potassium est un résultat très important, commente Guillaume Fiquet, chercheur du laboratoire minéralogie-cristallographie de Paris. Mais pour valider la thèse du 40K, il faudra montrer que cet élément se lie avec le fer en présence de silicates comme c’était le cas lors de la formation de la Terre. Ce qui n’a pas été pris en compte ici. »

 

Quoi qu’il en soit, l’avancée réalisée par les deux chercheurs de Berkeley brouille encore davantage les pistes menant à la vraie nature du centre terrestre. Dynamo en fer ? Géoréacteur ? Cœur de fer couplé à de la radioactivité ? Ou, qui sait, autre chose ? A ce jour, rien ne permet de trancher. Mais les scientifiques travaillent d’arrache-pied pour extirper son secret à notre planète. Un peu partout dans le monde, des équipes mettent au point des outils d’étude plus précis, plus élaborés, plus fiables, afin de sonder les entrailles de la Terre. « En progressant à tâtons, nous avons atteint un degré de raffinement sans précédent dans notre réflexion, nos concepts et nos outils d’étude du noyau terrestre », explique Denis Andrault du laboratoire des géomatériaux. De quoi espérer en savoir plus sur le champ magnétique. Mais aussi répondre à une multitude d’autres questions relatives au centre de la Terre, toutes aussi importantes et nées des derniers résultats de la géophysique et de la géochimie. Ce qui n’est pas pour demain : le chemin est encore long pour les chercheurs rassemblés à Garnisch-Partenkirchen afin de déterminer ce qui se cache et se trame aux tréfonds de notre planète.

 

Chronologie

 

1914

 

Découverte du noyau de la Terre par le sismologue germano-américain Beno Gutenberg.

 

1936

 

En étudiant la propagation des ondes générées par les séismes à l’intérieur de la Terre, la sismologue danoise Inge Lehmann détecte la présence d’une « graine » de fer solide au centre de la planète.

 

2003

 

Le géophysicien américain Marvin Herndon postule la présence d’un géoréacteur dans le cœur de la Terre.

 

Décembre 2003

 

D’autres géophysiciens américains, Kanani Lee et Raymond JeanLoz, obtiennent en laboratoire un alliage de fer et de potassium radioactif plaidant pour la présence de radioactivité au centre de la Terre.

 

La thèse de la dynamo

 

Selon la thèse dominante, la Terre est formée d’une croûte, d’un manteau et d’un noyau. Ce dernier est une « graine » de fer nichée dans un océan de fer en fusion. Dans celui-ci, des courants de convection produisent le champ magnétique. A l’origine, le champ est dipolaire, puis ses pôles se confondent, avant d’échanger leur place. Selon la thèse de la dynamo, ceci serait dû à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication contestée.

 

 

 dynamoEarth                    geomag

 

 

Jargon

 

Aimant dipolaire : aimant de la forme d’un cylindre ou d’un barreau présentant des pôles nord et sud à ses extrémités.

 

Cristal : solide formé d’atomes, d’ions ou de molécules, arrangés selon un patron géométrique régulier et répétitif.

 

Fission : réaction nucléaire au cours de laquelle un noyau atomique lourd se scinde en deux noyaux de masses inférieures et ceci en produisant de l’énergie, un rayonnement gamma et des neutrons/

 

Silicate : minéral constitué de silice et d’oxygène et formant 95 % de la couche la plus superficielle de la planète, la croûte terrestre.

 

Le centre tourne-t-il plus vite que la surface ?

 

En 1996, Xiaodong Song, de l’université de l’Illinois, faisait sensation en annonçant que le centre de la Terre tourne plus vite que sa surface. En analysant les ondes des séismes, il avait en effet calculé que le noyau terrestre tourne avec une vitesse de 1,1° de plus par an, au point d’accomplir, tous les 400 ans, un tour de plus que la Terre ! « Ces résultats s’expliquent par le fait que la graine est nichée dans un environnement liquide de faible viscosité lui permettant de se désolidariser du reste de la planète, explique Raphaël Garcia, de l’Institut de physique du globe de Paris. Cependant, de nouveaux travaux ont remis en cause la différence de rotation du noyau, et d’autres publiés récemment, l’estiment insignifiante (0,2° par an). « La question reste donc, à ce jour en suspens. Or, une réponse n’est possible que si l’on comprend pourquoi les ondes sismiques se comportent si bizarrement au centre de la Terre : les enregistrements des stations sismiques ont montré que ces ondes cheminent plus rapidement le long de l’axe nord-sud que dans le plan équatorial. Plus de quinze ans après sa mise en évidence par l’américain Adam Dziewonski, de l’université d’Harvard, cet étrange phénomène, appelé « anisotropie », intrigue encore les chercheurs. « Il est peut-être lié à une orientation préférentielle des cristaux de fer dans le noyau, qui seraient tous alignés sur l’axe nord-sud. La vitesse des ondes traversant le centre de la Terre dépendrait donc de cette orientation. Mais ceci reste à démontrer ». Ce qui n’est pas gagné, la structure cristalline du fer restant elle aussi un mystère.

 

Une multitude de mystères persistent

 

L’hypothèse communément admise est la suivante : soumis à des pressions et à des températures extrêmes, le fer lové au cœur de notre planète adopterait, à l’image du diamant, une structure en cristal. Mais quelle forme prend-il ? Trois structures cristallines sont théoriquement possibles : « la cubique centrée », « l’hexagonale compacte », et une forme intermédiaire. Or, si en avril 2004, les Californiens Jeffrey Nguyen et Neil Holmes ont annoncé qu’il existait qu’une seule sorte de cristal au sein du noyau, ils ne sont pas parvenus à identifier la nature précise de celle-ci.

 

Par ailleurs, un autre mystère demeure non résolu : la quantité d’énergie disponible sous nos pieds. Une information capitale puisque de l’énergie stockée dans le noyau lors de la formation de la Terre dépend le maintien du champ magnétique terrestre. « Pour le savoir, on doit au préalable définir la température de cristallisation (solidification) du fer du noyau sous haute pression », explique Stéphane Labrosse, géophysicien à Paris. Mais cette nécessité se heurte à un problème de taille puisque cette fameuse température n’est toujours pas connue ! Et les chercheurs n’ont aucune chance de l’évaluer sans posséder la composition exacte du noyau en éléments légers, comme l’oxygène ou le souffre. Or, cette composition reste, elle aussi, mystérieuse…

 

A l’assaut du centre de la Terre

 

Inaccessible, les entrailles de notre planète ? Plus maintenant ! Car pour explorer les profondeurs, les scientifiques ont mis au point des ruses technologiques. Embarquement immédiat.

 

 

 

 terre-dynamo

 

 

 

Jules Verne eut beau imaginer une expédition parvenant après moult péripéties jusqu’au centre de la Terre, la réalité est moins romanesque : le cœur de notre planète demeure inaccessible à l’observation directe. Inutile de creuser une vertigineuse cheminée : avec ses 12 kilomètres, le forage le plus profond, situé sur la presqu’île russe de Kola, ne fait qu’écorcher la pellicule superficielle du globe ; et même s’il était possible de plonger jusqu’à son centre, à 6350 km de profondeur, comme l’a récemment proposé le géophysicien néo-zélandais David Stevenson, nous ne pourrions résister aux températures et pressions colossales qui y règnent : quelque 6000° C et 360 gigapascals ! Inaccessible donc, mais pas tout à fait impénétrable. Car il est aujourd’hui possible de voyager au centre de la Terre… de façon virtuelle !

 

Première à entreprendre le voyage, la sismologie a permis de sonder les profondeurs. De fait, les ondes émises lors des séismes se propagent dans toutes les directions et parviennent à la surface après avoir traversé des milieux aux propriétés physiques et chimiques variées. Elles sont parfois réfléchies ou réfractées aux interfaces de ces milieux. Autant de déviations qui rallongent leur périple. C’est en analysant les dizaines de milliers de temps parcours des ondes captées par les sismographes du monde entier qu’on a pu identifier les grandes structures de la Terre, en particulier le noyau externe liquide et la graine centrale solide. Et déterminer leur composition chimique.

 

Des voyages par procuration

 

Au début des années 50, le géophysicien américain Francis Birch a en effet découvert que la vitesse de ces ondes dépend de la densité du milieu traversé. Et donc que tout changement de vitesse peut s’interpréter au niveau chimique. Il en a déduit que le noyau externe et la graine étaient surtout constitués de fer, confirmant une hypothèse datant de 1936 et qui est aujourd’hui encore la théorie dominante. Depuis vingt ans, la cartographie des anomalies locales de vitesse des ondes (ou « tomographie sismique ») ainsi que l’identification d’anomalies de densité, c’est-à-dire d’hétérogénéités de matière, ont permis de visualiser des détails plus intimes encore. Lors d’un de ces grands voyages… par procuration, les sismologues ont ainsi constaté que les ondes sismiques qui traversent le centre de la Terre filent plus vite sur un axe nord-sud. L’anomalie, en apparence anodine, pourrait trahir un des secrets les mieux conservés du noyau : l’orientation préférentielle de ses cristaux.

 

Mais il existe d’autres moyens de déambuler dans les profondeurs de la Terre sans quitter son laboratoire. Les géophysiciens ont ainsi eu l’idée de soumettre la matière aux conditions de pression et de température énormes qui règnent dans le noyau et la graine. Une entreprise rendue possible, notamment, par la cellule à enclumes de diamant. Un nom assez explicite pour désigner un instrument qui révèle in situ le comportement de minéraux artificiellement descendus dans les profondeurs terrestres. Comprimé entre deux diamants et chauffé par un faisceau laser ou un four résistif, l’échantillon étudié est exposé aux conditions existant au centre de la Terre. Il dévoile alors les propriétés qui seraient les siennes : structures cristallographiques et électronique, élasticité, vitesse de déplacement d’ondes, diffraction de rayons X… Un dispositif qui permet de tester les minéraux candidats à la composition des couches profondes.

 

 

 

 terre-coupe-big                        image001

 

 

 

Les mouvements de nutation du globe, c’est-à-dire les petites oscillations de son axe de rotation au cours du temps, mais aussi les variations de l’accélération de la pesanteur ou du champ magnétique terrestre sont d’autres moyens de plonger dans les tréfonds de notre planète. Tous ces phénomènes livrent, en effet, un lot d’informations sur la dynamique de la Terre profonde et, notamment, sur les mouvements de convection qui brassent l’océan de fer liquide entourant la graine. Par exemple, les mesures réalisées en surface dans des observatoires depuis plus de quatre siècles, ou depuis des satellites comme l’appareil danois Oersted, l’attestent : le champ magnétique se déplace lentement à l’échelle de quelques décennies, voire de quelques siècles. Cette intrigante observation pourrait impliquer que le maelström en fusion est agité de mouvements rapides, de l’ordre de 1 à 10 kilomètres par an (contre seulement quelques centimètres par an au-dessus, dans le manteau terrestre). Encore une piste à suivre…

 

Enfin, théoriciens et expérimentateurs ne sont pas les explorateurs les moins intrépides lorsqu’ils modélisent et simulent la géométrie des cellules de convection, construisent des « géodynamos » théoriques susceptibles de produire un champ magnétique ou conçoivent des expériences toujours plus complexes et spectaculaires. Car l’homme ne manque finalement pas de ressources pour explorer malgré tout cette ultime terra incognita qui lui résiste. Embarquement immédiat pour trois de ces voyages virtuels qui n’ont rien à envier à celui que l’imagination féconde de Jules Verne inventa il y a plus d’un siècle…

.../...

Partager cet article
Repost0
25 février 2010 4 25 /02 /février /2010 19:23
Ordinateur quantique

 

L’incroyable révolution

 

 

L’informatique classique vit-elle ses dernières années ? Le XXIe siècle devrait consacrer l’ordinateur quantique, issu des principes les plus stupéfiants de la physique fondamentale. Il fournira en un éclair des résultats qui demanderaient aujourd’hui des années à la machine la plus performante.

 

 super-ordinateur CM5-2

 

 

Et si, dans quelques années, l’ordinateur était supplanté par une nouvelle machine ? Cette question semble illégitime dans un monde où croit de jour en jour la capacité des ordinateurs, au point de rendre obsolète celui qui, six mois auparavant, semblait du « dernier cri » ! Mais cette course frénétique technologique a fait oublier que le concept d’ordinateur, déjà quinquagénaire, n’a pas évolué d’un pouce depuis ces origines.

 

En revanche, la recherche de nouveaux concepts, elle, n’a jamais autant fourmillé d’idées. Cette recherche de pointe a aujourd’hui atteint son apogée avec l’invention d’une nouvelle classe de machine, l’ordinateur quantique, qui – et là réside la nouveauté – utilise les principes de la physique quantique, dont les lois défient le sens commun !

 

Cette machine, qui existe déjà au stade théorique, allie les conceptions les plus modernes de la physique de l’infiniment petit – la physique quantique – et les exigences de la logique mathématique. Pourtant, le mariage de la logique et du quantique n’était pas conclu d’avance. Comment imaginer que des calculs puissent être correctement menés dans un monde où règnent l’ubiquité – un objet peut se trouver au même moment en des lieux différents -, la dualité – une particule est aussi une onde – et d’autres phénomènes étranges ? L’informatique, discipline rigoureuse entre toutes, est désormais entrée dans l’ère magique du quantique.

 

C’est le symposium sur les fondements de l’informatique, à Los Alamitos (Californie), en octobre 1994, qui a marqué le grand tournant : Peter W. Shor, chercheur en informatique théorique aux laboratoires AT&T Bell, présente son travail et crée la sensation. Voilà pourtant plus de dix ans que le concept d’ordinateur quantique se précise dans l’esprit des scientifiques…

 

Dès 1982, le prix Nobel de physique Richard Feynman esquisse l’idée d’un ordinateur fonctionnant sur les principes de la physique quantique. Drôle d’idée, quand on songe que cette physique, qui décrit le comportement des particules dans l’infiniment petit, va à l’encontre de l’intuition et du sens commun. Mais une donnée manque pour lancer véritablement la recherche sur l’ordinateur quantique : la démonstration que celui-ci peut faire ce dont un ordinateur classique est incapable.

 

Un enjeu militaire et économique

 

C’est seulement douze ans plus tard, en 1994, que Peter Shor explique comment un ordinateur quantique résout rapidement un problème que les meilleurs ordinateurs d’aujourd’hui mettraient des années, voire des siècles, à résoudre. Il s’agit du problème de la « factorisation en nombres premiers de très grands nombres ». Or ce casse-tête de mathématique pure est intimement lié à celui de la sécurité des systèmes d’information. L’ordinateur quantique devient dès lors un enjeu militaire et économique ! Le premier pays qui réussirait à construire un tel ordinateur deviendrait le maître du monde en matière de cryptage-décryptage, pour véhiculer des informations aussi bien militaires que commerciales.

 

A l’heure où les réseaux numériques, tel Internet, envahissent notre quotidien, il n’en faut pas plus pour que des laboratoires et des industries du monde entier se lancent dans la course à la conception de cette machine quantique.

 

 

 

Etat quantique                          Simulation quantique

 

 

 

Mais, au-delà de son intérêt stratégique, l’ordinateur quantique marque une révolution dans la science du traitement de l’information et dans l’utilisation de la logique à des fins de calcul. Pour comprendre ce bouleversement, il faut pénétrer au cœur de la mécanique quantique, qui, sous son apparence rugueuse, cache un parfum d’exotisme. Rappelons d’abord que les mathématiciens savent depuis longtemps qu’on peut effectuer toutes les opérations logiques et mathématiques en manipulant uniquement des suites de 0 et 1. Chaque nombre peut s’écrire sous une forme binaire : 1 s’écrit 1, 2 s’écrit 10, 3 s’écrit 11, 4 s’écrit 100, etc.

 

Si l’on ajoute trois « opérateurs » logiques : ET, NON et COPIE, on obtient un système mathématique capable d’additionner, de soustraire, de multiplier, etc, capable même de faire des choix logiques du type : « Si le nombre A est inférieur au nombre B additionner A et B ; sinon, multiplier A par B ». Les ordinateurs classiques fonctionnent selon ce principe. Car le langage binaire, pure entité mathématique, a des équivalents physiques.

 

Ainsi, lorsqu’on allume ou qu’on éteint une lampe à l’aide d’un interrupteur, on manipule le langage binaire : 0 correspond à l’interrupteur ouvert (pas de lumière), 1 à l’interrupteur fermé (lumière). En associant d’une certaine façon des milliers, voire des millions, d’interrupteurs, on disposerait d’un véritable ordinateur. C’est d’ailleurs ainsi que furent construits les premiers calculateurs à la fin des années 30. Depuis, on a simplement remplacé les interrupteurs par des lampes, ensuite par des transistors, puis réduit leur taille en les faisant tenir dans des microprocesseurs.

 

La particule est aussi une onde

 

Or, si à notre échelle un interrupteur est ouvert ou fermé, en physique quantique, il peut être simultanément ouvert et fermé ! L’expérience quotidienne nous a habitués à considérer qu’un courant électrique passe ou ne passe pas – il n’y a pas de demi-mesure. Mais, dans le monde de l’infiniment petit, le « flou artistique » est de mise. Prenons un interrupteur « quantique », constitué d’une particule dans un puits à deux poches ou « puits bistable ». Supposons que, quand la particule est à gauche, l’interrupteur est fermé et que, quand elle est à droite, l’interrupteur est ouvert.

 

Pour faire passer la particule d’un côté à l’autre – pour ouvrir ou fermer l’interrupteur -, il faut lui fournir de l’énergie, sous forme par exemple de lumière, grâce à un laser. Jusque-là, rien d’anormal. Mais, lorsqu’on commence à irradier la particule avec le laser, l’affaire se corse. Car la particule est aussi une onde : on nomme cette « ambivalence » : dualité onde-corpuscule. Cette onde peut être considérée, très approximativement, comme la probabilité que la particule se trouve à tel endroit. Au départ, l’onde est à gauche. Lorsqu’on l’irradie avec le laser, elle décroît, tandis qu’une onde naît à droite et croît. Au bout d’un certain temps, l’onde de gauche aura disparu et celle de droite aura atteint son maximum : la particule est passée à droite, l’interrupteur est indiscutablement ouvert.

 

 

 ordinateur quantiquet-v2                  ordinateur quantique-v3

 

 

Mais que se passe-t-il si l’on coupe le laser lorsque l’onde de gauche (qui décroît) et l’onde de droite (qui croît) sont de même taille ? La particule sera en même temps à droite et à gauche : l’interrupteur est à la fois ouvert et fermé ! En mécanique quantique, on dit qu’il y a superposition de l’état « interrupteur ouvert » et de l’état « interrupteur fermé ». Puisque l’état d’un interrupteur est donné par une onde et que, telles les vagues dans la mer, les ondes peuvent se chevaucher, par une autre bizarrerie du microcosme quantique il se crée une superposition de plusieurs interrupteurs. Les « interrupteurs-ondes » perdent leur individualité pour devenir tous ensemble un seul et grand interrupteur-onde.

 

L’existence d’états superposés laissait supposer qu’on allait pouvoir mener des calculs « en parallèle ». Avec un ordinateur classique doté d’un bon programme de comptabilité, on peut gérer son compte en banque et connaître, en appuyant sur une touche du clavier, son solde. Si l’on dispose de plusieurs comptes, l’ordinateur donnera tous les soldes. A l’échelle du microprocesseur, les calculs se font en série : le programme calculera le solde du premier compte, puis celui du deuxième et ainsi de suite. Le temps de calcul de tous les soldes sera donc proportionnel au nombre de compte.

 

Grâce au principe de superposition d’états, il est possible de créer un seul état contenant les données de tous les comptes. Cet état serait traité comme une seule donnée par le logiciel, qui aboutirait à un seul résultat « superposé », contenant tous les soldes. Ainsi, dans le temps qu’il faut à un ordinateur classique pour calculer un seul solde, l’ordinateur quantique les calculera tous.

 

Condamnés à ne jamais « voir » l’infiniment petit

 

Mais il y a un hic : à l’échelle quantique, lorsque l’expérimentateur mesure une grandeur physique, il l’altère. En d’autres termes, si l’on cherche à déterminer la vitesse d’une particule, le dispositif de mesure agit sur la particule et en modifie la vitesse. C’est à ce paradoxe que sont confrontés les inspecteurs de l’Education nationale. Lorsqu’ils se rendent dans une classe pour noter l’aptitude à enseigner d’un jeune professeur, leur présence perturbe le comportement des élèves et celui du professeur.

 

Bref, nous sommes condamnés à ne jamais « voir » une certaine réalité physique de l’infiniment petit, car, en voulant la découvrir, nous l’altérons. Cette limitation est, hélas, inévitable en physique quantique. Ainsi, l’existence d’états superposés – « la particule est à gauche et la particule est à droite » - peut être supputée mais non observée directement. Dès que l’expérimentateur y plonge le nez, la superposition d’états disparaît, et la particule se retrouve soit à gauche, soit à droite. On dit qu’il y a eu « réduction du paquet d’ondes ».

 

Pour en revenir à l’exemple des comptes en banque, au moment de puiser dans l’ordinateur le « résultat » - superposition de tous les soldes bancaires – le paquet d’ondes se réduira, et l’on se retrouvera avec le solde d’un seul des comptes ou avec un résultat mélangé inexploitable. Bref, au mieux, on n’aura rien obtenu de plus qu’avec un ordinateur classique !

 

Bien que des scientifiques aient récemment réussi à observer une superposition d’états pendant une fraction de seconde, l’espoir d’obtenir le résultat superposé de tous les soldes bancaires semble être une chimère. Ce constat a failli vouer à l’oubli l’ordinateur quantique… jusqu’à la communication de Peter Shor, en 1994.

 

 

 

 superordinateur

 

 

Si la mesure détruit la superposition d’états, comment savoir si elle existe « réellement » ? Et surtout comment exploiter cette particularité de la physique quantique pour gagner du temps de calcul ? En fait, la mise en évidence expérimentale de la superposition d’états quantiques se fait par des mesures indirectes. Ce sont ces mesures indirectes. Ce sont ces mesures qui feront toute la différence entre l’ordinateur quantique et l’ordinateur classique.

 

On l’a vu, les états quantiques prennent la forme d’ondes, qui peuvent interférer comme les vagues : parfois, elles se chevauchent, engendrant une vague deux fois plus grande ; parfois, elles s’annulent. Ainsi, deux rayons lumineux peuvent interférer – négativement – et créer de l’obscurité. Pour mettre en évidence la superposition d’états, on utilise ce phénomène d’interférence. Revenons à notre particule dans son puits bistable. La superposition d’états – elle est à la fois à gauche et à droite – est prouvée par l’existence d’une onde à gauche et d’une onde à droite.

 

Que se passe-t-il si on les fait interférer ? Comme pour la lumière, on obtiendra un « dessin » caractéristique de cette interférence. C’est là qu’intervient l’algorithme de Peter Shor, qui exploite le « dessin » résultat de l’interférence de tous les états superposés, ce qu’un ordinateur classique ne peut évidemment pas faire. Ce « dessin » fournit immédiatement des renseignements sur une propriété commune à toutes les données superposées (par exemple leur plus grand diviseur commun…). Pour faire ressortir cette propriété commune à toutes les données, l’ordinateur quantique n’a eu aucun calcul à effectuer, alors que l’ordinateur classique aurait besoin de plusieurs années de calcul pour obtenir le résultat.

 

Depuis la communication de Shor, le nombre de publications sur l’ordinateur quantique dans des revues prestigieuses telles que Nature ou Science croît « exponentiellement » : le monde de la recherche est en ébullition. Les surprises se multiplient. Ainsi l’Américain Seth Lloyd, grand nom de la physique théorique, a-t-il récemment démontré la conjecture de Feynman de 1982 – qui a initié la recherche dans ce domaine - : un ordinateur quantique pourrait simuler le comportement d’un « système » quantique en utilisant des programmes simples et rapides, tâche qui, encore une fois, demanderait des années à un ordinateur classique. Démonstration déterminante, car elle offre aux scientifiques la perspective d’un nouvel outil de recherche fondamentale en mécanique quantique, domaine où, depuis des décennies, d’énormes lacunes freinent le progrès des connaissances.

 

La question est maintenant de savoir si l’on pourra un jour construire un ordinateur quantique ou s’il existe une limite non pas technologique mais physique à sa réalisation. La communauté des spécialistes est divisée. « L’optimisme gagne du terrain », affirme Jean-Paul Delahaye, chercheur au Laboratoire d’informatique fondamentale de Lille. « Si aucune limite physique en vient empêcher le fonctionnement des ordinateurs quantiques[1], on verra apparaître dans dix ans des ordinateurs hybrides – des machines classiques contenant quelques microprocesseurs quantiques -, et dans cinquante ans ce sera fantastique ! » Selon d’autres spécialistes, la technologie ne permettra jamais de construire ces prodigieuses machines.

 

En attendant, certains scientifiques étudient déjà de nouvelles méthodes de cryptage pour parer le danger de l’écroulement de la sécurité informatique mondiale. L’une d’entre elles, qui semble inviolable, se fonde notamment sur… la physique quantique.

 

 

 

 


[1] Il se pourrait, en effet, que des phénomènes d’instabilité quantique interdisent de manipuler et de conserver pendant le temps du calcul une superposition d’états.


  

Partager cet article
Repost0
25 février 2010 4 25 /02 /février /2010 18:45

II – La vie est possible ailleurs dans l’Univers

 

Des expériences viennent de le montrer : les acides aminés, ces précurseurs de la vie, se forment facilement dans le cosmos. Mieux : ils sont capables de survivre à des conditions extrêmes et d’atterrir sur une planète pour la fertiliser. De quoi rêver à la découverte de traces de vie extraterrestre.

 

 

 exoplanete-v1

 

 

Orsay, Institut d’astrophysique spatiale, mars 2003. Les cadrans du cryostat indiquent une pression dix milliards de fois plus faible que la pression atmosphérique, une température à 193° C en dessous de zéro… Après deux jours de préparation, Michel Nuevo, jeune doctorat de l’équipe d’astrochimie expérimentale de Louis d’Hendecourt, est enfin prêt pour réaliser son expérience : recréer, en laboratoire, un morceau d’Univers ! Mais pas n’importe lequel : il s’agit de reproduire un bout de nuage moléculaire, ceux constitués de gaz et de poussières denses et froids qui, flottant dans le vide cosmique, abritent de nombreuses molécules et sont, de ce fait, le lieu de formation privilégié des étoiles et des planètes dans l’Univers.

 

18 acides aminés détectés !

 

Objectif : observer les molécules « prébiotiques », les briques de base de la vie telle que nous la connaissons, dont on suppose qu’elles se forment dans la glace entourant les grains de poussière interstellaire. Pendant deux jours, un mélange gazeux d’eau, de méthanol, d’ammoniaque, de monoxyde et de dioxyde de carbone (H2O, CH3, CH2OH, NH2, CO, CO2), les molécules les plus communes dans les glaces interstellaires, va se condenser dans le cryostat. La fine couche de glace ainsi formée, irradiée par une lampe à plasma chargée de reproduire la lumière ultraviolette qui se propage dans le Cosmos, va s’épaissir. Une fois réchauffée, elle laissera un résidu jaunâtre soigneusement collecté et envoyé pour analyse à l’université de Brême, en Allemagne. Verdict ? Il est tombé trois semaine plus tard, confirmant superbement les résultats obtenus par l’équipe de Guillermo Munoz Caro, à Leiden, aux Pays-Bas, et publiés dans la célèbre revue Nature en mars 2002 : ce simple petit bout de nuage moléculaire reconstitué contient plusieurs composés organiques, et parmi eux, pas moins de 18 acides aminés, dont certains sont identiques à ceux qu’utilisent nos propre protéines ! Autant de briques de base de la vie qui se formeraient donc aisément dans l’espace… Et si c’est bien le cas, alors notre petit coin d’Univers n’est probablement pas le seul à avoir vu apparaître la vie.

 

Une luxuriance inattendue

 

Pour le chimiste Uwe Meierhenrich qui a réalisé les analyses des échantillons de Michel Nuevo à Brême, le constat ne fait aucun doute : la formation des acides aminés dans les glaces interstellaires n’est pas dépendantes de conditions physico-chimiques particulières et semble bel et bien être un processus général : « Nous avons modifié les conditions de l’expérience, jusqu’à ne plus considérer qu’un simple mélange à base d’ammoniaque et de monoxyde de carbone… et à chaque fois, nous avons retrouvé les mêmes acides aminés. » Max Bernstein, chercheur au SETI Institute de la Nasa, le célèbre institut américain pour la recherche d’intelligence extraterrestre, est tout aussi positif : « Nous avons réalisé le même type d’expériences, certes avec une approche et des conditions différentes, mais nous trouvons aussi des acides aminés. »

 

 

 

 124-00595-01high

 

 

Spectaculaires, ces résultats annoncent peut-être des découvertes que feront bientôt les astronomes, cette fois-ci non plus dans les laboratoires, mais dans le ciel. En effet, depuis plusieurs dizaines d’années déjà, les observations astronomiques mettent en évidence la grande richesse du milieu interstellaire. Plus de 140 molécules différentes y ont été répertoriées à ce jour, la plus petite étant celle du di-hydrogène (H2) et la plus grande un dérivé de l’acide cyandrique (HCN) doté de pas moins de 13 atomes : HC11N. Et en août 2003, la glycine (NH2-CH2-COOH), qui n’est autre que l’acide aminé le plus simple, y a même fait son entrée ! La démonstration est faite que le milieu interstellaire, qu’il soit observé dans le ciel ou reproduit en laboratoire, est beaucoup plus luxuriant qu’on ne le pensait il y a encore quelques années.

 

Des obstacles de taille !

 

Reste alors une question centrale : comment ces molécules organiques peuvent-elles parvenir jusqu’à une planète et s’y fixer, de sorte que la vie à proprement parler puisse s’y développer ? Car nombreux sont les obstacles qui se dressent sur leur chemin. Tout d’abord, il leur faut passer le cap de la formation stellaire, qui les met sérieusement à mal. En effet, lors de la création d’un système planétaire, le cœur du nuage s’effondre et s’échauffe jusqu’à atteindre plusieurs millions de degrés, température à laquelle l’étoile centrale s’allume. Celle-ci va ensuite irradier et balayer son nuage parent de vents violents, ne laissant sur place que des petits corps qui donneront naissance aux planètes. Peu de molécules survivraient dans ces conditions extrêmes… Exceptées celles fixées sur des grains de poussière à la périphérie du nouveau système planétaire, où ces grains conservent leur manteau de glace. Ceux-ci s’agglomèrent alors, pour former comètes et astéroïdes qui, à leur tour, viennent bombarder les planètes nouvellement formées. La Terre a, par exemple, connu une période d’intenses bombardements au début de son existence, il y a environ 4 milliards d’années, pendant laquelle elle a peut-être été ensemencée par des molécules organiques, base de départ de la vie… C’est la théorie bien connue de la « panspermie ».

 

 

 Exoplanet-Artiste-v1

 

 

Ainsi, les acides aminés, des glaces interstellaires auraient-ils « fertilisé » n’importe quelle planète en y déposant les premières graines de la vie. A condition toutefois d’être arrivés en bon état ! Mais sur ce point, les chercheurs sont plutôt optimistes : « Les acides aminés ne voyagent pas sous forme simple, explique Uwe Meierhenrich. Ils sont stockés dans des polymères, des molécules plus complexes qui ressemblent un peu à des protéines. Ces précurseurs d’acides aminés – ils les libèrent une fois dans l’eau – résistent bien mieux aux rayons UV que les acides aminés seuls. »

 

De plus, il semble que la couche de glace qui les entoure pendant une partie du voyage les protège efficacement des agressions extérieures. C’est en tout cas l’avis de Michel Nuevo : « D’après nos expériences en laboratoire, le rayonnement solaire UV n’y pénètre pas à plus de 0,1 micron de profondeur. » Pour en avoir le cœur net, des expériences ont été réalisées en orbite terrestre, à bord de l’ancienne station spatiale russe MIR et sur des fusées russes Foton. Plusieurs équipes y ont étudié la stabilité des acides aminés dans les conditions spatiales. A chaque fois, les mêmes conclusions apparaissent : nus, les acides aminés ne survivent pas plus de quelques heures ; mais leurs précurseurs résistent mieux au rayonnement UV et aux rayons cosmiques. Une couche de 5 microns de roche météoritique suffit même à assurer une protection efficace !

 

Forcer l’atmosphère : un défi

 

Après le voyage dans l’espace, reste encore à traverser l’atmosphère d’une planète sans trop d’encombre. Là encore, l’épreuve ne semble pas rédhibitoire, même si la température due aux frottements avec l’atmosphère peut atteindre les 2000° C. Pour s’en assurer, on a inséré trois échantillons de roches dans le bouclier thermique d’un satellite russe Foton. Le premier était un basalte, typique d’une surface planétaire, les deux autres des roches sédimentaires : une dolomite et un sol martien reconstitué.

 

Reste à atterrir sans dégâts

 

Certains chercheurs pensent en effet que la vie aurait pu se développer sur Mars et arriver ensuite sur Terre via une météorite de la Planète rouge. Une hypothèse parmi d’autres, qui ne résout pas la question de l’apparition même de la vie. Lancé le 9 septembre 1999, le satellite Foton a passé deux semaines en orbite, avant de traverser l’atmosphère terrestre pour se poser au Kazakhstan. Verdict : l’échantillon de basalte a été perdu et il ne restait plus grand-chose du sol martien reconstitué, mais la dolomite avait conservé plus de 30% de sa matière ! D’après le responsable de la mission, qui n’était autre que l’exobiologiste français André Brack : « Ces résultats sont encourageants car ils prouvent que le passage de l’atmosphère est loin d’être un obstacle insurmontable. » Reste à savoir si des acides aminés, d’origine martienne ou non, pourraient survivre. Réponse dans quelques mois, avec le lancement d’un nouveau Foton.

 

 

 008-00200-02high

 

 

 

Il demeure encore un ultime point d’interrogation : contrairement aux satellites artificiels, les bolides qui traversent l’atmosphère n’ont pas de parachute ni de rétrofusées pour se poser en douceur. Des molécules organiques complexes peuvent-elles alors résister à l’impact entre une planète et le corps qui les transportent ? Pour simuler cette collision, rien de tel qu’un canon surpuissant, comme celui de l’Institut de l’espace et des sciences astronautiques à Yokohama, au Japon. Les acides aminés y subissent des chocs à des vitesses comprises entre 2,5 et 7 km/s, soit plus de 25.000 km/h ! Les résultats obtenus sont surprenants : non seulement les acides aminés survivent, mais ils forment même des polymères ! Quant aux précurseurs des acides aminés, comme ceux fabriqués à Orsay, ils sont encore plus stables… Cela ne fait donc plus guère de doute aujourd’hui : des molécules complexes, précurseurs de la vie, peuvent assez facilement être fabriquées dans le milieu interstellaire, survivre au voyage les amenant dans l’orbite d’une planète, ainsi qu’à la rentrée atmosphérique et à l’impact qui s’ensuit.

 

On s’y attendait cependant un peu. En effet, en mesurant la teneur en hydrogène des océans et des comètes, on sait maintenant qu’entre 10 et 50 % de l’eau terrestre est d’origine cométaire… Or, si les comètes ont apporté de l’eau sur Terre, sûrement y-ont-elles aussi déposé des molécules plus complexes, car leur noyau contiendrait 30 % de composés organiques. Les météorites ne sont pas en reste non plus. Il en tombe environ 10t sur Terre chaque année, et ce chiffre devait être entre 100 et 10.000 fois plus grand au début de la formation du système solaire, où les collisions de corps célestes étaient incessantes.

 

Une des météorites les plus célèbres est celle tombée en 1969 près de Murchison, en Australie. Après analyse, on y a trouvé environ 500 molécules organiques, dont 70 acides aminés différents. Or, plusieurs sont utilisés par le vivant. Certains acides détectés en mai 2004 par Uwe Meierhenrich et Guillermo Munoz Caro pourraient même être à l’origine d’une molécule proche de l’ADN !

 

L’échéance de 2014

 

L’affaire est-elle réglée ? Reste pourtant une bizarrerie : les acides aminés obtenus en laboratoire sont présents sous deux configurations différentes, « L » et « D », images l’une de l’autre dans un miroir ; or, une particularité essentielle des 20 acides aminés du vivant est d’exister exclusivement sous la forme « L ». Ici, la question n’est pas de savoir pourquoi la vie a choisi les acides aminés « L » plutôt que « D », mais où, quand et comment cette discrimination a eu lieu.

 

 

 

 Osirisplanet                        roaster-medres

 

 

Pour le savoir, des météorites comme celle de Murchison ont été ré-analysées plus finement : certains acides aminés présentent un excès de composés « L » de 10% ! Le choix se serait-il fait dans l’espace ? Certaines expériences de laboratoire, comme celle d’Orsay, cherchent désormais à le prouver. La réponse sera sûrement plus nette en 2014, lorsque la sonde européenne Rosetta se posera sur la comète Churyumov-Gerasimenko. L’un de ses instruments analysera d’éventuels acides aminés, et déterminera quel composé y est majoritaire. Un résultat primordial, car si les composés « L » sont prépondérants, on aura quasi la preuve que la vie est d’origine extraterrestre. Et donc qu’elle a parfaitement pu se développer sur d’autres planètes.

 

Interview d’André Brack

 

A 66 ans, André Brack est celui qui, en France, a donné ses lettres de noblesse à l’exobiologie, soit l’étude des origines de la vie terrestre, son évolution et sa distribution éventuelle dans l’Univers.

 

 

 andre-brack                    2003-19-a-web

 

 

Science & Vie : L’eau liquide est-elle indispensable à l’apparition de la vie ?

 

André Brack : Tous les êtres vivants que nous connaissons, des plus primitifs aux plus évolués, ont besoin d’eau pour vivre. Nous aurons donc du mal à détecter et même à imaginer une quelconque forme de vie « ailleurs » qui pourrait s’en passer. De plus, l’eau liquide oriente les réactions chimiques des molécules organiques contenant carbone, hydrogène, oxygène et azote – les briques du vivant – dans des directions particulières. C’est pour cela que rechercher de la vie ailleurs passe par une recherche d’eau liquide sur les exoplanètes.

 

S&V : Sur quels critères chercher une autre forme de vie ?

 

A.B. : La recherche de la vie ailleurs pose la question de la définition de la vie. Je considère, et je ne suis pas le seul, qu’un ensemble de molécules est « en vie » à partir du moment où il présente les deux qualités suivantes : l’autoreproduction et l’évolution. Il faut que le système en question soit en mesure de faire « plus de lui-même par lui-même ». C’est-à-dire qu’il doit pouvoir se dupliquer à partir d’éléments chimiques tout en étant capable de devenir de plus en plus efficace pour se reproduire. Le problème, c’est que le seul exemple de la vie que nous connaissions se trouve sur Terre, et nous ne savons pas exactement comment elle a démarré ici.

 

S&V : Les chances sont-elles plus grandes que la vie existe ailleurs ?

 

A.B. : Toute la question tient à la complexité minimale des premiers êtres vivants. S’il faut peu de pièces détachées pour fabriquer une entité capable de se reproduire et d’évoluer, alors la vie a des chances d’apparaître chaque fois que les conditions sont réunies. Au contraire, si des milliers de pièces détachées sont requises, l’apparition de la vie devient très aléatoire, et même avec des millions de planètes dans l’Univers nous sommes peut-être seuls…

 

 

 universe-v1254

 

 

 

Partager cet article
Repost0
25 février 2010 4 25 /02 /février /2010 18:32

On a découvert une autre Terre

 

A 50 années-lumière de nous, elle abrite peut-être la vie

 

Depuis le temps qu’on l’espérait ! Repéré en août dans la constellation de l’Autel, un astre situé hors de notre système solaire réunit pour la première fois les conditions pour être une planète… solide. Comme la Terre ! De quoi en faire une candidate à la vie extraterrestre. Surtout que de récentes expériences le montrent : la vie est possible ailleurs dans l’Univers.

 

 La petite exoplanete

 

 

I – Voici peut-être la première « super Terre »

 

C’est la 123e exoplanète détectée à ce jour. Identité ? Mu Arae c. Signe particulier ? Elle est la première qui pourrait être solide ! Comme la Terre. De là à imaginer que l’eau, donc la vie, y soit aussi présente… L’hypothèse n’a rien de fantaisiste.

 

Le jeudi 26 août 2004 fera date. A marquer d’une pierre blanche dans la recherche d’une vie ailleurs que sur Terre. Pour la première fois, en effet, une planète située dans un autre système solaire que le nôtre pourrait réunir les conditions pour que la vie puisse y avoir émergé ! Masse, proximité avec son étoile… les indices sont favorables. Cela faisait 122 tentatives que les astronomes en rêvaient.

 

Sous les 15 masses terrestres !

 

Car l’exoplanète découverte ce jeudi 26 août est bel et bien la 123e repéré à ce jour. Et comme si l’histoire ne pouvait s’empêcher de bien faire les choses, cette première « super Terre » a été découverte par Michel Mayor, celui-là même qui, en 1995, repéra la première exoplanète. Là encore, l’astronome suisse de l’Observatoire de Genève a réalisé l’exploit. Et ce n’est pas avec le Very Large Telescope (VLT), le grand télescope européen et ses miroirs de plus de 8 m qu’il a mis le doigt sur la perle, mais via un « modeste » miroir de 3,60 m installé sur un autre télescope européen, basé lui aussi au Chili, à La Silla. Une prouesse qui suscite d’ores et déjà l’émotion dans la communauté scientifique. Même si, pour l’heure, la prudence reste de mise. Il n’empêche ! Les premiers calculs des astronomes sont particulièrement excitants. Car avec une masse estimée à seulement 14 fois celle de la Terre, cette planète a toutes les chances d’être « solide ». Littéralement, elle apparaît comme la première super Terre détectée. La première qui pourrait être dotée d’un noyau, d’un manteau, d’une croûte, comme notre petite planète bleue. La première où l’on est en droit d’imaginer une surface, de la roche, des montagnes, peut-être, un paysage…

 

 

 008-00150-07bhigh                      ib1878,premiere-image-une-exoplanete-prise-vlt-avec-systeme

 

 

La première où il pourrait même y avoir… de l’eau. Et voilà bien l’extraordinaire ! Car sur Terre, l’équation est simple : partout où se trouve le précieux liquide, la vie s’est développée, abandonnant, même dans des conditions extrêmes. Jusqu’à présent, toutes les planètes repérées autour d’autres étoiles que notre Soleil étaient trop grosses pour qu’une telle éventualité se présente : vu leur masse, elles étaient forcément composées de gaz et ressemblaient plus ou moins à Jupiter, sans surface solide sur laquelle poser le pied, sans eau pour que la vie émerge. Non que ces géantes gazeuses soient plus nombreuses dans l’Univers que les petites planètes comme la Terre, mais jusqu’ici, les techniques de détection ne permettaient pas de repérer des planètes plus petites. Pour toutes les planètes déjà découvertes, la question de la vie ne se posait donc pas. Cette fois, la question se pose et, en soi, c’est déjà un événement.

 

Qui est la candidate ? Mu Arae c. Comme son nom l’indique, elle a été découverte autour d’une étoile nommée « Mu Arae », située à 50 années-lumière de la Terre, dans la constellation de l’Autel. Détail émouvant : on peut voir Mu Arae… à l’œil nu, hélas pour nous, dans l’hémisphère sud seulement. On sait aussi qu’elle est distante de 0,1 UA de son étoile, soit dix fois plus proche de son soleil que la Terre du sien, et qu’elle en exécute le tour complet en 9,5 jours. Deux autres astres accompagneraient cette éventuelle petite sœur dans son ballet perpétuel. Une grosse boule de gaz, d’abord, ressemblant par sa masse à Jupiter. Elle tourne autour de Mu Arae en 640 jours, à 1,5 UA. Vient ensuite un astre (géante gazeuse ou naine brune) plus lourd et plus éloigné.

 

Pour dénicher ce nouveau monde, l’équipe de Michel Mayor a appliqué la même recette qu’en 1995. Elle a fait appel au spectrographe HARPS, un bijou de haute technologie, installé au foyer du télescope de l’ESO depuis 2003 qui enregistre le spectre lumineux des étoiles. Pas d’images, donc, pour l’instant, de la nouvelle planète. Mais des courbes qui contiennent  une myriade d’informations sur l’entourage de Mu Arae. « En fait, explique Michel Mayor, les étoiles sont si brillantes qu’avec les instruments actuels, nous ne pouvons pas voir les planètes qui leur tournent autour. Nous utilisons donc une technique indirecte qui permet de repérer des corps en orbite, pourvu qu’ils aient au moins 7 masses terrestres. En dessous, nos instruments ne le détectent pas. » Et jusqu’à ce jeudi 26 août, toutes les planètes découvertes atteignaient au maximum la bagatelle de 3200 terres et, au minimum, 35. Avec de telles proportions, impossible d’avoir autre chose que du gaz. Pour comprendre, il faut savoir que les planètes se forment à partir du gaz et des poussières contenus dans la nébuleuse protoplanètaire qui entoure l’étoile. Les grains de matière s’agglutinent, se collent et se choquent pendant plusieurs millions d’années jusqu’à former des grumeaux de plusieurs milliers de kilomètres.

 

Une atmosphère suffocante

 

« Or, si l’embryon de planète atteint une masse critique, autour de 15 terres, le cycle s’emballe, souligne Michel Mayor. Il se produit un effet boule de neige : de plus en plus massif, l’astre attire à lui de plus en plus de gaz environnant. En quelques millions d’années, naît une planète du type de Saturne ou Jupiter (de 220 à 318 masses terrestres). Composées de gaz, elles n’ont pas de surface solide où l’eau pourrait se maintenir à l’état liquide. En revanche, si le corps en formation s’arrête en dessous de 15 masses terrestres, la planète peut être composée essentiellement de roches, de fer et de silicates, et donc, comme la Terre, avoir une surface solide. » On comprend mieux  l’émotion des scientifiques d’avoir enfin mis la main sur une exoplanète de 14 masses terrestres. Reste maintenant à lever le voile sur elle. Or, avec 123 exoplanètes découvertes (à l’heure où nous écrivons ces lignes), les astronomes ont aujourd’hui des données variées sur les masses, l’inclinaison des orbites et les périodes de rotation de ces nouveaux mondes.

  

 ib1435 dessin-artiste-exoplanete

 

 

Des données si variées que pour expliquer ce qu’ils observent, ils ont échafaudé des modèles de planètes bien différentes de celles de notre système solaire. L’objectif de ces modèles concoctés par les planétologues « théoriciens » : comprendre comment se sont formés ces nouveaux mondes. Et c’est justement le modèle le plus couramment admis qui laisse espérer que la planète en orbite autour de Mu Arae soit la première représentante des super Terre. Avec 14 masses terrestres, à condition toutefois que sa densité soit la même que celle de la Terre, elle devrait avoir un rayon 2,5 fois plus grand. Sa forte gravité – 14 fois supérieure, donc, à celle que nous connaissons -, fait supposer un relief relativement plat et « lisse ». Pas de hautes montagnes ici, mais plutôt des collines… « S’il s’agit bien d’une planète tellurique, autrement dit d’une planète avec une surface solide, qui s’est formée à partir de fer, et de silicates comme la Terre, et si elle a eu un volcanisme actif, alors son atmosphère doit être suffocante, poursuit François Bouchy, du laboratoire d’astrophysique de Marseille. Elle devrait contenir des composés chimiques comme du CO², du méthane, peut-être des hydrocarbures et des composés soufrés. Elle pourrait ressembler à Vénus, la jumelle de la Terre.

 

 

 008-00100-06high

 

 

Quant à l’eau, compte tenu de la proximité à l’étoile, cela paraît difficile de l’avoir à l’état liquide, car les températures doivent être proches de 700° C… Sauf si la pression est élevée, ce qui pourrait être le cas si l’atmosphère est très dense ou dans des profondeurs de la planète. » Par ailleurs, à 0,1 UA de l’étoile, la planète doit, comme la Lune et la Terre, être en rotation synchrone et présenter à son étoile toujours la même face… « Du coup, reprend Michel Mayor, on peut imaginer une face de la planète très chaude, aux alentours de 700° C, et l’autre plus froide de quelques centaines de degrés. De sorte que les températures moyennes soient un peu plus clémentes. Mais dans tous les cas, elles devraient difficilement être compatibles avec de l’eau liquide. » Un sérieux bémol à la présence d’une quelconque forme de vie ? Pas sûr. Car la réponse à cette interrogation se trouve peut-être du côté des astronomes de l’Institut d’astrophysique spatial d’Orsay (IAS), qui ont été sollicités pour travailler aux futures missions de recherche de planètes extra-solaires, notamment sur le projet de satellite européen Darwin, dont l’objectif est de repérer des planètes de type terrestre à partir de 2014. Ils ont ainsi été amenés à imaginer le type d’astres que Darwin pourra détecter. Et pour ce, construit des modèles de formation de planètes à partir des données de notre système solaire, mais aussi de celles de toutes les exoplanètes déjà découvertes.

 

Or, leur conclusion est étonnante : une planète totalement recouverte d’eau pourrait exister tout en étant proche de son étoile ! En effet, ils ont établi des modèles de « planètes océans » qui pourraient être bien plus grosses que la Terre. La planète de Mu Arae en fait-elle partie ? Pour le vérifier, il faudra attendre que soient disponibles des données plus précises sur la composition de son atmosphère, lorsque les futures missions seront en activité. « Mais nos simulations montrent qu’une telle situation est envisageable dans un cas extrême, explique Marc Ollivier, astronome à l’IAS. Il suffit pour cela que la planète se forme loin, après 5 UA, et qu’elle migre petit à petit vers son étoile. Il faut aussi qu’elle soit composée pour 50 % de roches de glaces d’eau, de dioxyde de carbone et d’ammoniac, composés chimiques abondants dans les disques protoplanétaires. Si, lors de sa formation, elle atteint la valeur théorique de 14 masses terrestres, elle fera composée de roches ainsi que du fer, des silicates et des glaces de la nébuleuse primordiale. Elle ne sera donc pas composée de gaz. »

 

Un océan profond… de 100 km

 

Schématiquement, cette planète posséderait un noyau semblable à celui de la Terre, composé de fer et de silicates et entouré d’un manteau de même composition, lui-même enveloppé d’une épaisse croûte de glace d’eau, de dioxyde de carbone, et d’ammoniac. Et le tout pourrait être recouvert d’un océan d’eau liquide d’une centaine de kilomètres d’épaisseur. Une fine couche comparée au diamètre de la planète, mais gigantesque en regard des plus grandes fosses océaniques terrestres qui ne mesurent « que » 10 km de profondeur… Ici, pas de dorsales, pas de tectoniques des plaques, pas de lave ni de roches affleurant au fond des océans : c’est de la glace qui tapisse les abysses… Paradoxal vu la proximité à l’étoile ? « Il ne s’agit pas d’une glace « classique », précise Marc Ollivier. A 100 km de profondeur par exemple, la pression qui s’exercerait devrait être de l’ordre du gigapascal, soit plusieurs milliers de fois supérieure à celle que nous ressentons sur notre planète. Dans ces conditions, les glaces d’eau, de dioxyde de carbone et d’ammoniac seraient plus denses que l’eau et n’auraient aucune chance de remonter à la surface. Pas d’icebergs en vue donc sur cet océan… Et la planète découverte par l’équipe de Michel Mayor est juste à l’extrême limite théorique de pouvoir être une telle ‘planète océan’, tant du point de vue de la masse que de celle de la distance à l’étoile… »

 

 

 5

 

 

Une super Terre ? Une planète océan ? Il existe toutefois une autre possibilité pour l’astre découvert autour de Mu Arae : celle d’être de la catégorie des planètes géantes de la famille de Jupiter arrivées trop proche de leur étoile après leur processus de migration. « Nous avons montré que, dans certaines conditions, les planètes géantes peuvent ‘s’évaporer’, explique Alain Lecavelier des Etangs, astronome à l’Institut d’astrophysique de Paris (IAP), si elles s’approchent trop de leur étoile. En principe, elles se forment loin après 5 UA. Mais si le disque de poussières qui entoure l’étoile est suffisamment dense, il se pourrait que la planète du type Jupiter ou Saturne, pesant quelques centaines de masses terrestres, perde progressivement sa lourde enveloppe de gaz en se rapprochant de l’étoile. Au bout de quelques millions d’années, il ne resterait alors plus qu’un noyau de 10 à 15 masses terrestres, composé de roches, de silicates et de fer, le tout en fusion. »

 

Dans ce cas, la planète Mu Arae pourrait ressembler à une planète de lave : en constante activité volcanique, elle serait recouverte d’une couche de magma qui se renouvellerait sans cesse. « Nous avons appelé planètes ‘chtloniennes’ ce type d’astres, du nom des divinités du centre de la Terre qui ont donné le mot ‘autochtones’, poursuit le chercheur. A cause de leur proximité avec l’étoile, théoriquement, environ 0,05 UA, la température à la surface est élevée, peut-être 900° C. Si bien qu’il est difficile d’imaginer de l’eau liquide, et encore moins de la vie… » La planète découverte par Michel Mayor est-elle alors bien solide, mais sans eau ? Selon les modèles, elle apparaît pourtant trop éloignée de son étoile pour être considérée comme une planète chtlonnienne à proprement parler. Trop éloignée, peut-être moins chaude… En fait, elle est encore une fois juste à la limite pour que l’eau, dans des conditions de température et de pression très spécifiques, reste à l’état liquide. « Et on peut d’ailleurs tout imaginer, poursuit le chercheur, car sur Terre, la vie existe aussi dans des conditions extrêmes… »

 

En attendant « Darwin »

 

Reste une ultime possibilité : la Vénus de Mu Arae pourrait malgré tout être une simple géante de gaz, une « petite géante »… Mais à ce moment-là, il faudrait revoir les modèles de formation des géantes. Dans tous les cas, les théoriciens de la formation des planètes sont sur le pied de guerre. Ils sont déjà en train de faire tourner des modèles pour tenter de comprendre ce nouvel astre, tant il est difficile de savoir comment il a pu se former, et à quoi il pourrait bien ressembler. Des éléments de réponse viendront peut-être du télescope spatial Hubble censé tourner ses miroirs vers le nouvel astre dans les mois qui viennent. En attendant, une chose est sûre : même s’il ne s’agit pas de l’eldorado tant espéré, la planète de Mu Arae ouvre d’ores et déjà une nouvelle ère dans l’histoire de la détection de monde potentiellement habités et nul doute que les candidates à la vie vont probablement se bousculer dans les mois à venir. Surtout qu’en 2006, le satellite Corot, conçu en grande partie par des scientifiques français, devrait découvrir une foule de petites planètes solides en surprenant leur passage devant leur étoile. Pour repérer des traces d’une forme de vie extraterrestre, il faudra toutefois s’armer de patience et attendre 2014 avec le lancement prévu du satellite européen Darwin. Son objectif : chercher dans les atmosphères des exoplanètes la triple signature ozone, eau, et dioxyde de carbone qui prouve inéluctablement la présence du vivant...


.../...

Partager cet article
Repost0