Overblog Suivre ce blog
Administration Créer mon blog
26 février 2010 5 26 /02 /février /2010 11:50

Contexte

 

Si aller voir ce qui se passe au centre de la Terre est l’un des voyages qui, au même titre que marcher sur la Lune, a toujours stimulé l’imagination des hommes, l’entreprise demeure toujours une impossibilité physique. Du coup, les scientifiques ont tourné la difficulté : ils cherchent à « faire venir » le centre de la Terre dans leurs laboratoires, en recréant les conditions de température et de pression qui y règnent. Une invention rendit la chose possible : la cellule à enclumes de diamant, mise au point en 1959 par quatre Américains du National Bureau of Standards, Charles Weir, Ellis Lippincott, Alvin Valkenburg et Elmer Bunting.

 

Géomagnétisme : 2000 tours/minute en ballon

 

 

 

 ib2587,experience-derviche-tourneur-lgit-grenoble-simuler-g

 

 

 

L’origine du champ magnétique terrestre fait toujours débat. Considérations théoriques et simulations numériques suggèrent qu’il est produit par les mouvements de convection qui brassent sans cesse le noyau de fer liquide. On admet que l’écoulement de ce fluide métallique, conducteur d’électricité, à travers un champ magnétique, induit des courants électriques qui, à leur tour, créent un champ magnétique. Bref, le noyau fonctionnerait comme une énorme dynamo qui s’auto-entretiendrait. Mais comment marche-t-elle ? Avec quelle énergie ? Et pourquoi le champ magnétique fluctue-t-il et s’inverse-t-il dans le temps ?

 

Pour répondre à ces questions, les chercheurs du laboratoire de géophysique interne et de tectonophysique de Grenoble ont conçu, sous la houlette de Philippe Cardin et Henri-Claude Nataf, une expérience originale, surnommée le « derviche tourneur sodium ». Inauguré en octobre 2003, le dispositif expérimental devrait faire venir le cœur de la Terre jusqu’aux chercheurs…

 

Une double sphère


La pièce maîtresse est une sphère en inox de 40 cm de diamètre remplie de sodium liquide. Elle dissimule une boule de cuivre de 13 cm de diamètre portant un aimant permanent. La première représente le noyau externe liquide de la Terre, la seconde, sa graine solide. Un premier moteur fait tourner la sphère jusqu’à 2000 tours/minute. Un second entraîne la graine centrale à vitesse variable. Emboîtées, elles ne tournent cependant pas tout à fait en même temps. Résultat : le mouvement différentiel va entraîner le sodium, l’étirer et le mettre en mouvement. Les simulations numériques réalisées en amont donnent une idée de la géométrie de ces mouvements : des tourbillons (cyclones et anticyclones) apparaissent, dont les axes sont parallèles à l’axe de rotation de la sphère. Comme pour la Terre, le mouvement du métal liquide entre les deux sphères va créer le champ magnétique. Il sera alors possible de mesurer de façon continue la vitesse d’écoulement du sodium liquide et l’intensité du champ magnétique induit. Autres paramètres étudiés : le champ de pression (dont la mesure permet aussi de remonter à la vitesse de l’écoulement) et les potentiels électriques en surface qui favorisent la mesure des courants électriques générés par l’écoulement du sodium engendrant le champ magnétique.

 

A cette fin, une batterie d’instruments de mesure a été placée sous la sphère, contrôlée en temps réel par deux ordinateurs. L’un, voué au contrôle et aux commandes, affiche les données en temps réel. L’autre reçoit les mesures scientifiques. Reste que si l’un des intérêts de cette expérience est d’utiliser du sodium liquide, métal dont la viscosité est comparable à celle du noyau terrestre, ce choix n’est pas sans risques : le sodium liquide s’enflamme à l’air. Il réagit aussi très violemment avec l’eau, formant de l’hydrogène qui, en se combinant avec l’oxygène de l’atmosphère, explose. Aussi la salle de 24 m² qui abrite l’expérience est-elle revêtue d’acier en inox et placée sous surveillance 24h sur 24, tandis que son sol est surélevé de 1,20 m pour éviter l’entrée d’eau. Des aménagements qui expliquent le coût de l’opération : 350 000 euros, financés par le ministère de la Recherche et l’Institut national des sciences de l’Univers du CNRS. Il ne reste plus qu’à attendre que l’expérience donne des nouvelles du centre de la Terre.

 

Géocristallographie : de la Terre au noyau

 

La graine, cette boule solide au centre de la Terre, présente une curieuse propriété, connue depuis une dizaine d’années : les ondes sismiques y voyagent légèrement plus vite le long d’un axe nord-sud que dans le plan équatorial. Selon les géologues, elle serait donc « anisotrope », une particularité qui pourrait s’expliquer par une orientation préférentielle des cristaux de fer qui constitueraient la graine. Mais comment tester cette hypothèse ? A défaut d’échantillonner directement les matériaux qui constituent les couches les plus profondes de la Terre, il est possible de recréer en laboratoire les conditions extrêmes qui règnent au cœur de notre planète et d’y soumettre des cristaux de fer pour voir si leurs propriétés sont conformes à celles du « corps » de la graine. C’est l’un de ces voyages virtuels que des chercheurs de l’European Synchroton Radiation Facility de Grenoble et du laboratoire de minéralogie-cristallographie de l’université de Paris VI, ont effectué, voici quelques mois, non pas dans l’ambiance feutrée d’une salle de laboratoire mais dans celle, plus électrique et internationale, du synchroton européen, le fameux accélérateur de particules situé à Grenoble ! Pour la première fois, ils ont pu mesurer la vitesse de propagation des ondes acoustiques (comparables aux ondes sismiques qui circulent à l’intérieur de la Terre) dans des cristaux de fer soumis à des pressions de plus de 110 gigapascals, soit plus de 1 million de fois la pression atmosphérique !

 

Un échange d’énergie

 

La tâche était ardue : les chercheurs ont dû travailler sur des échantillons de fer de quelques dizaines de micromètres. Ils ont donc comprimé des agrégats de cristaux de fer entre deux pointes de diamants, puis les ont soumis à un rayonnement X. Le cristal retenu est de type hexagonal compact, forme sous laquelle le fer pourrait être présent dans la graine. Concrètement, la technique repose sur le principe d’un échange d’énergie entre les photons X et des phonons, c’est-à-dire des ondes acoustiques engendrées par la vibration des atomes de fer à l’intérieur du réseau cristallin. De cet échange, on peut déduire la vitesse de propagation des ondes acoustiques et la comparer avec celle des ondes sismiques. Mais comment vérifier que la vitesse des premières varie suivant leur trajet,  à l’instar de ce qui se passe pour les secondes ? Simple : à l’intérieur de la « cellule à enclumes de diamants », les cristaux de fer s’orientent naturellement sous l’effet de la pression, suivant l’axe de compression de la cellule. En inclinant plus ou moins celle-ci, les chercheurs ont pu mesurer la vitesse de propagation du son dans différentes directions et mettre là aussi en évidence une antisotropie. Et en effet, le son voyage légèrement plus vite suivant l’axe d’allongement des cristaux de fer que dans leur plan équatorial. Conclusion : l’antisotropie s’expliquerait bien par une orientation préférentielle des cristaux de fer à l’intérieur de la graine. Reste que ces expériences de diffusion inélastiques sont longues : il faut 24 heures pour analyser un point à une pression et une orientation de cristaux données ! Ce qui explique que l’expérience a dû se dérouler en deux temps sur 2003 et 2004.

 

Géoneutrinos : 6350 km sous les mers

 

Il y a un siècle, la découverte des rayons X permettait de scruter le corps humain. Bientôt, une particule élémentaire, l’antineutrino, pourrait jouer le même rôle en autorisant les géologues à visualiser la radioactivité interne de la Terre. Une première ! Pour l’instant, le voyage est théorique… L’équipe de l’italien Gianni Florentini, de l’université de Ferrara, a imaginé recourir à un détecteur d’antineutrinos, particules émises par notre planète, pour percer un mystère : l’origine de la chaleur interne du globe. La Terre irradie 40 térawatts (1012 W) de chaleur vers l’espace, soit autant que 100 000 centrales thermiques ! Si cette énergie provient surtout du Soleil, le sous-sol n’est pas en reste : chaque mètre carré émet 80 milliwatts venant des entrailles du globe.

 

 

 barracuda-3d-DCN

 

 

Savoir décrypter

 

Cette énergie a plusieurs sources possibles. « Lors de la formation de la Terre, l’énergie cinétique des roches en accrétion qui s’entrechoquaient s’est transformée en énergie thermique, explique Alessandro Forte, géologue à l’université du Québec, à Montréal. Avec l’effondrement gravitationnel de la matière vers le centre, la plus grande partie de cette chaleur a été piégée dans le noyau ». Autre source potentielle : les éléments radioactifs capturés lors de la formation de la Terre et qui se désintègrent lentement (thorium, potassium, uranium). Reste qu’on ignore quelle est la part de la radioactivité dans la chaleur produite par la Terre, il n’empêche : « Les éléments radioactifs emprisonnés sous terre émettent des neutrinos et des antineutrinos lorsqu’ils se désintègrent, explique Gianni Florentini. Ils parviennent intactes à la surface, où nous pouvons les détecter ». Encore faut-il parvenir à décrypter les messages dont ces espions du monde sous-terrain sont porteurs… Un défi relevé l’été 2002, par les chercheurs du Sudbury Neutrino Observatory, un détecteur installé au Canada. Ils sont parvenus à décrire le changement de nature qui affecte une partie des neutrinos émis et explique que les détecteurs récupèrent moins de particules que prévu. Pour voyager au centre de la Terre, les Italiens proposent donc d’utiliser un détecteur classique : une sphère remplie d’eau lourde, c’est-à-dire enrichie en deutérium (un isotope de l’hydrogène qui réagit avec les neutrinos) et dont l’intérieur est tapissé de milliers de tubes photomultiplicateurs, les yeux du détecteur. Un antineutrino qui pénètre dans le détecteur a toutes les chances de rencontrer un noyau de deutérium. Tous deux réagissent en échangeant une particule chargée, un boson W. Le neutrino se transforme alors en un électron bourré d’énergie éjecté à la vitesse de la lumière. Ce phénomène provoque une onde de choc de lumière, la radiation Cherenkov », détectée par les tubes. On détermine alors la somme des antineutrinos émis au départ, en fonction de celle recueillie par le détecteur. Ainsi, pour la première fois, on pourra estimer la quantité d’éléments radioactifs situés dans les entrailles de la Terre ! Cela étant, la méthode ne permet pas de conclure qu’un antigéoneutrino a été produit dans la croûte, le manteau ou le noyau. Elle ne localise pas précisément la radioactivité souterraine. Conscient de ces limites, Gianni Florentini a imaginé une expérience encore plus ambitieuse : « Le détecteur pourrait être installé dans un sous-marin. En multipliant les expériences en différents lieux bien choisis, les géologues dessineraient une véritable carte de la radioactivité souterraine ». L’idée est lancée, la balle est dans le camp des géologues.


Le sort du vivant est d’ordre magnétique

 

A quoi bon aller au centre de la Terre ? La question ne se pose plus quand on sait que le sort des nombreuses espèces animales, et même celui de l’homme, dépend de l’activité du noyau enfoui sous nos pieds. Sans parler de la prévision des séismes ou de l’élucidation de mystères enveloppant d’autres planètes. Plongée au cœur de préoccupations cruciales.

 

 

 

Aurora-Borealis
 

 

 

D’intrépides voyageuses, telles sont les tortues de mer, qui parcourent des milliers de kilomètres pour se reproduire dans des contrées propices. Après avoir quitté la Floride, ne traversent-elles pas l’Atlantique jusqu’aux Açores, avant de piquer vers le sud ? Or, aux Açores, elles frôlent un courant qui monte vers l’Atlantique Nord. Un courant qui, si elles s’y aventuraient, les entraînerait inéluctablement vers une froideur fatale. Comment font-elles pour ne pas se tromper de route ? On sait depuis peu qu’elles se repèrent grâce au champ magnétique terrestre. Autrement dit, le sort des tortues – mais aussi des oiseaux migrateurs, de bactéries, etc. – est suspendu à l’activité du noyau terrestre enfoui à 6350 km sous leurs nageoires. Et encore plus quand on sait que le champ magnétique ne cesse de varier, comme lors des deux derniers siècles. Sans conséquences, semble-t-il, pour les tortues de mer. Mais en sera-t-il toujours ainsi ? Si tel n’était le cas, que de bouleversements alors sur Terre !

 

Des effets sur la santé

 

Le problème, c’est que pour estimer les variations futures du champ magnétique, il faudrait en connaître l’origine. Une tâche impossible tant que la nature du formidable générateur de champ magnétique niché au centre de la Terre ne sera pas précisément connue. Et voilà bien le premier intérêt d’aller voir de près ce qui se passe au cœur de notre planète. Le noyau externe est-il constitué de fer en fusion agité de turbulences propres à créer un champ magnétique ? Contient-il du potassium 40 alimentant ce champ en énergie ? A moins qu’il ne le génère en se comportant tout entier comme un géoréacteur… Pour l’heure, les spécialistes peinent à trancher entre ces hypothèses. Pourtant, c’est le sort de nombreuses espèces animales qui est en jeu. Et même celui de l’homme ! Car le noyau a des conséquences directes sur sa santé. « La présence du champ magnétique terrestre est importante en ce sens que les lignes de champ protègent des radiations cosmiques », rappelle Annie Souriau, géophysicienne à l’Observatoire Midi-Pyrénées, à Toulouse. De fait, le champ magnétique agit comme un bouclier contre les particules électriquement chargées qui heurtent de plein fouet notre planète. Provenant du Soleil ou de l’espace, ces particules (des protons, des électrons, des noyaux d’hélium ionisés…) sont en partie déviées par les lignes de champ magnétique jusqu’aux pôles où, en ionisant l’atmosphère, elles nappent le ciel d’aurores boréales. Sans le noyau et son champ magnétique, ce bouclier n’existerait pas et notre planète serait bombardée de particules cosmiques. Exposés à une importante radioactivité, les êtres vivants connaîtraient alors mortalité et mutations…

 

Ce n’est pas tout. Car nombre d’équipements sont également concernés. En Amérique du Sud, par exemple, une anomalie de bas champ magnétique cause régulièrement des avaries aux satellites survolant la région. En 2001, elle provoqua même 15 jours durant la panne d’un des instruments du satellite d’observation de la Terre de la Nasa, Terra. Et les dégâts s’accentuent lorsque s’y ajoutent les humeurs du Soleil. Lors de ses maxima d’activités, les bouffées de particules qu’exhale notre astre sont si denses qu’elles perturbent le champ magnétique et déclenchent des orages magnétiques. Orages qui détruisent des satellites en déréglant les puces électroniques embarquées, troublent les communications et les réseaux électriques. En 1989, le Québec fut ainsi plongé dans l’obscurité après qu’une tempête magnétique eut fait disjoncter le réseau électrique.

 

Questions : doit-on alors craindre une diminution générale du champ magnétique et donc un effritement de la protection contre les particules cosmiques ? Une modification du champ magnétique accentuerait-elle les orages magnétiques ? Là encore, seule l’élucidation du moteur du champ magnétique permettrait de répondre.

 

Vers l’inversion des pôles ?

 

Toutefois, les donnés paléomagnétiques fournissent quelques pistes. L’orientation du champ magnétique à diverses époques du passé peut se déduire, en effet, de la disposition de cristaux dans des laves solidifiées. Et ces enregistrements géologiques ont montré que le champ était à son maximum il y a deux mille ans et qu’il n’a, depuis, cessé de diminuer. S’il continue de la sorte, il s’annulera, puis s’inversera (les pôles magnétiques Nord et Sud échangeant leur place) dans les deux prochains millénaires. Une durée compatible avec les travaux de Bradford Clement de l’université internationale de Floride qui, en examinant des roches sédimentaires, a conclu qu’en moyenne lors des quatre dernières inversions (la dernière datant d’il y a 780 000 ans) le champ a basculé en 7000 ans.

 

 

 soleil-terre-bouclemagnetique

 

 

 

Si une inversion est bien en cours, les variations qu’elle entraîne portent sur des durées de l’ordre d’une centaine à un millier d’années. Mais le risque qui pèse sur les satellites n’en est pas pour autant écarté car le champ magnétique se déplace à une vitesse moyenne de 10 km par an. A Paris, par exemple, la direction indiquée par les boussoles a pivoté d’une trentaine de degrés en quatre siècles, signe d’un déplacement du pôle Nord magnétique. Conclusion : une zone placée sous haute protection du champ magnétique peut en quelques années perdre une grosse partie de cette défense. L’évolution du champ magnétique est donc bien une préoccupation à court terme pour l’industrie spatiale.

 

A plus longue échéance, l’intérêt d’étudier le noyau touche cette fois à la prévision des séismes ! A l’origine des tremblements de terre, le déplacement des plaques de la surface terrestre est en effet l’expression superficielle de la dynamique du manteau. « Et nous n’aurons aucune certitude en la matière sans connaissances fondamentales sur le noyau. Car la dynamique du noyau et celle du manteau sont liées », explique Mar Monnereau, directeur-adjoint du laboratoire dynamique terrestre et planétaire à Toulouse. On aurait tort de considérer le manteau terrestre rigide, comme posé sur le noyau liquide, tel un bouchon flottant à la surface de l’eau. Une analogie plus juste serait celle de la casserole d’huile chaude placée sur un feu. Le manteau est mis en mouvement par sa propre chaleur, mais également par celle du noyau. Quiconque veut décrire la dynamique du manteau et la tectonique des plaques doit donc s’intéresser aux phénomènes qui siègent au cœur de la planète. Mais ici, un problème surgit. Celui de l’incertitude régnant sur les sources d’énergie à l’œuvre dans le noyau. Car même si on ne considère que les sources d’énergie classiques (chaleur emmagasinée à la naissance de la Terre, radioactivité naturelle, chaleur latente lors de la solidification de la graine, énergie potentielle des éléments radioactifs et des éléments légers rejetés lors de la cristallisation), les contributions de chacune d’elles sont entachées d’une large marge d’erreur. Avec comme conséquence, reconnaît Marc Monnereau, que « la température de surface du noyau est inconnue à plusieurs milliers de degrés Celsius près : elle varie selon les modèles entre 3000 et 6000 degrés ».

 

En raison de ce flou, les géophysiciens simulent la dynamique du manteau via les modèles « adimensionnés », c’est-à-dire faisant fi de paramètres tels qu’épaisseur du manteau ou température du noyau. Les conclusions qu’ils en tirent sont donc restreintes à des mécanismes généraux. Pour améliorer ces modèles, il paraît donc essentiel de préciser les sources d’énergie siégeant dans le noyau et leurs contributions respectives. Les simulations de la dynamique du manteau progresseront alors, améliorant du même coup la prévision des déplacements des plaques tectoniques. Il faudra certes patienter avant que la sismologie ne bénéficie des retombées de ces recherches, car les séismes et la tectonique des plaques s’effectuent à deux échelles différentes. Un séisme résulte de l’accumulation de tensions locales de l’écorce terrestre, à l’échelle d’une faille qui s’étend du mètre au kilomètre ; tandis que les modèles numériques de la dynamique de la Terre simulent la tectonique des plaques à l’échelle des continents. Mais la précision des modèles grandissant, la sismologie et l’étude de la tectonique des plaques finiront par se rejoindre, et la première profitera des avancées de la seconde.

 

Contrer la dynamo solaire


Et si l’étude du noyau éclaire la dynamique actuelle de la Terre, il en sera a fortiori de même pour plusieurs des zones d’ombre qui émaillent le passé de la planète, telles l’apparition des continents ou la date de formation du noyau. De quoi, au passage, en savoir plus sur les autres planètes du système solaire puisque toutes, sauf Vénus et Mars, possèdent un champ magnétique et, du coup, recèlent leur lot d’énigmes. Uranus, par exemple, indique un champ magnétique incliné de 55° par rapport à l’axe de rotation de la planète, alors que cet angle ne dépasse pas 10° chez les autres planètes. Est-ce circonstanciel, le champ d’Uranus étant sur le point de s’inverser ? Ou bien, cette inclinaison a-t-elle toujours existé ? Pour ces planètes, la Terre pourrait bien servir de système modèle. Tout comme pour le Soleil.

 

 

 mag field1              aurore boreale

  

 

Constitué d’un plasma d’hydrogène et d’hélium ionisés à 90 %, il abrite lui aussi une dynamo. Une dynamo responsable du cycle d’activité solaire de onze ans qui suscite bien des interrogations. Le comportement de notre étoile est pourtant crucial pour les activités humaines car les expulsions violentes de particules qui causent, sur Terre, des orages magnétiques, surviennent lors des épisodes d’intense activité solaire. En étudiant les rouages du moteur terrestre, nous parviendrons peut-être un jour à nous prémunir contre les foudres de la dynamo solaire. Pas de doute, le centre de la Terre est bien au cœur de multiples préoccupations.

 

Entretien avec Marc Monnereau

Du Laboratoire dynamique terrestre et planétaire, Toulouse.

 

En quoi l’étude du noyau de la Terre nous aide-t-elle à mieux connaître les autres planètes du système solaire ?

 

Grâce à l’étude de la dynamo terrestre, nous savons quelles conditions une planète doit respecter pour posséder un champ magnétique. Ce champ doit être entretenu par une source d’énergie interne, la planète doit tourner et son noyau être liquide.

 

Qu’en déduit-on lorsqu’une planète est dépourvue de champ magnétique ?

 

Mars ne possède pas de champ magnétique, mais on pense qu’elle a un noyau. L’absence de champ magnétique découlerait du refroidissement de la planète et de la solidification avancée de son noyau.

 

Pourquoi Vénus, jumelle de la Terre, n’a-t-elle pas de champ magnétique ?

 

Vénus est d’une taille comparable à la Terre, elle devrait donc a priori être dans le même état de refroidissement que notre planète, et donc avoir un noyau liquide et un champ magnétique. Elle ne fait certes qu’un tour sur elle-même en une année, mais les spécialistes disent que cette rotation suffit à produire un champ magnétique. On s’interroge donc sur la vitesse à laquelle Vénus s’est refroidie.

 

 


mars terre coupe

 
 

 

 

 

 

 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 11:33

Voyage au centre de la Terre

 

Mais que cache le centre de la Terre ?

 

C’est l’ultime « terra incognita » : à 6350 km sous nos pieds, le cœur de notre planète garde jalousement son secret, faute qu’on puisse y aller voir de près. Du coup, les hypothèses rivalisent : s’agit-il d’une dynamo ? D’un réacteur ? D’autre chose ? Pour le savoir, les scientifiques montent d’incroyables explorations… directement dans leurs labos ! Embarquement immédiat pour la plus obscure des destinations, là où se joue aussi l’avenir du vivant…

 

 

 terre creuse coupe

 

 

L’homme a beau allé sur Mars, il ne sait toujours pas ce que cache le centre de la Terre ! Du coup, les hypothèses rivalisent. Dynamo ? Réacteur nucléaire ?... Une récente découverte vient de relancer le débat. Enquête à 6350 km de profondeur.

 

Le 3 juillet 2004, des dizaines de scientifiques venus du monde entier ont fait route vers Garmish-Partenkirchen, la célèbre station de ski bavaroise. Paradoxalement, ils se sont donné rendez-vous dans ce lieu fréquenté et haut perché pour s’entretenir du plus mystérieux et du plus profond endroit du globe terrestre : le centre de la Terre, cette région située à 6350 km sous nos pieds et que personne n’a jamais visitée. Ce symposium SEDI, pour Study of the Earth’s Deep Interior, vise à voir plus clair dans les entrailles du globe. Les travaux de Jeffrey Nguyen et Neil Holmes publiés en avril 2004 y seront abondamment commenté, les géochimistes californiens ayant annoncé que le cœur de notre planète serait fait d’une seule sorte de cristal de fer qu’ils ne sont pas parvenus à identifier. En effet, à ce jour, on en sait beaucoup moins sur cette partie du monde que sur la surface du Soleil ! Un astre situé pourtant 25.000 fois plus loin de nous…

 

Une certitude, cependant : contrairement à une idée bien ancrée dans l’imaginaire populaire, ce cœur n’est en rien une énorme boule de feu. Une confusion entretenue par les coulées de lave venues des profondeurs et qui s’épanchent de la bouche des volcans. Or, la matière minérale en fusion provient de chambres « magnétiques » situées seulement à quelques kilomètres de la surface ! En fait, selon la théorie dominante avancée dès 1936 par la sismologue danoise Inge Lehmann et présenté à tort comme une certitude par les manuels, le centre de la Terre est un gigantesque cœur de 2400 km de diamètre, composé de fer solide et d’éléments à l’état de traces (nickel, soufre, oxygène…). Une sphère à peine plus grosse que la Lune !

 

Un noyau dans une mer de fer

 

Selon ladite théorie, cette « graine » ou « noyau interne » baigne dans un immense océan de fer en fusion, le « noyau externe », et siège à 5100 km de profondeur, sous la « croûte », la couche géologique terrestre la plus superficielle, et sous le « manteau ». La pression qui y règne de 360 gigapascals (GPa), équivaut à plus de 3.600.000 fois celle mesurée en surface. Et la température atteint 6000° C, l’équivalent de la température à la surface du Soleil ! Aucune de ces données n’a été récoltée sur place : il s’agit d’estimations obtenues par des méthodes de sondage indirectes. Quant au précieux champ magnétique terrestre engendré par le noyau, cette force qui nous préserve des vents solaires, dirige les boussoles et guide les oiseaux migrateurs, il fait l’objet de bien des discussions.

 

Une boule d’uranium ?

 

« En fait, le champ magnétique est bien décrit depuis plus de quatre siècles : les mesures directes à la surface du globe ont montré que cette force ressemble au champ d’un aimant dipolaire situé au centre de la Terre et incliné approximativement de 11° par rapport à l’axe de rotation de la planète, explique Philippe Cardin, du laboratoire de géophysique interne et tectonophysique, à Grenoble. Reste qu’en réalité aucune étude scientifique ne corrobore l’existence d’un aimant permanent au centre de la Terre. Aussi, l’origine de ce champ dipolaire est-elle encore très mal comprise ». Et pour tenter de percer ce mystère, plusieurs hypothèses rivalisent avec la thèse précédente du noyau de fer solide, qui recueille les faveurs de la majorité des chercheurs. Selon cette théorie, le champ magnétique serait généré par d’énormes tourbillons au sein du liquide entourant la graine, transformant celle-ci en dynamo. Oui, mais tout s’obscurcit lorsqu’il s’agit de comprendre la cause des changements de direction du champ magnétique terrestre. Car dans le passé, le nord magnétique correspondait tantôt au pôle Sud géographique, comme il y a 780 000 ans, tantôt au pôle Nord, comme aujourd’hui. D’après les partisans de la thèse du cœur de fer, ces inversions seraient dues à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication qui ne fédère pas tous les avis…

 

 

 

 terrelune

 

 

Ainsi Richard Muller, physicien à l’université de Californie avance une hypothèse surprenante : « La plupart des inversions du champ magnétique sont dues à des avalanches spontanées se produisant à la limite du noyau externe et du manteau : se tassant à cette frontière, les sédiments retombent dans le noyau et perturbent les tourbillons à l’origine du champ magnétique ». Une thèse controversée : « Certes, la limite noyau-manteau étant aussi accidentée que les fonds marins, des éboulements similaires à ceux observés dans les océans peuvent s’y produire, commente Stéphane Labrosse, de l’Institut de physique du globe, à Paris, partisan des tourbillons au sein du noyau de fer. Toutefois, aucune coulée, même importante, ne peut modifier la circulation globale de l’eau. Pourquoi donc imaginer qu’une même cause aurait des effets plus importants dans le noyau, au point d’inverser le champ magnétique ? » Réponse de Richard Muller : un choc puissant comme la collision de la Terre avec des astéroïdes pourrait déclencher des avalanches nettement plus conséquentes qu’un éboulement marin. Ce qui est jugé spéculatif par les partisans de la thèse du noyau de fer. Reste que le physicien ne va pas jusqu’à affirmer qu’une structure autre que la boule de fer solide se cache au centre de la Terre. Le géophysicien américain Marvin Herndon si !

 

Il postule en effet que la graine, en son centre, ne renferme pas du fer mais une énorme boule d’uranium radioactif (uranium 235 et 238) de 8 km de diamètre, siège de réactions de fissions en chaîne. Le centre de la Terre ne serait donc pas une dynamo mais un énorme réacteur nucléaire naturel : un « géoréacteur ». Lequel  fournirait une énergie distincte de celle émise par la radioactivité naturelle produite par trois éléments dans la croûte terrestre : le thorium 232, l’uranium 235 et l’uranium 238. Cette thèse repose sur l’observation d’un rapport 3He/4He (deux formes d’hélium, un gaz rare) anormalement élevé dans des roches volcaniques d’Hawaï, l’élément 3He étant un sous-produit de fission nucléaire. Elle explique à sa manière les inversions magnétiques.

 

Autre candidat : le potassium

 

« Pour des raisons qui nous échappent encore, le géoréacteur s’assoupirait avant de redoubler d’intensité, entraînant les inversions du champ magnétique lors de ses reprises d’activité », précise Marvin Herndon. L’idée est séduisante. Sauf que l’existence d’un géoréacteur est vivement critiquée par la communauté scientifique qui, dans son ensemble, soutient la thèse dominante d’un noyau de fer se comportant comme une dynamo. D’autant que cette dernière explique le rapport élevé de 3He/4He dans les basaltes hawaïens par une persistance de l’hélium produit lors de la formation de la Terre. Les travaux de Marvin Herndon ont néanmoins attiré l’attention de chercheurs, néerlandais du Kernfysich Versneller Instituut, un institut de physique nucléaire rattaché à l’université de Groningen. En effet, dans un récent article intitulé « Quest for a nuclear georeactor » (« A la recherche d’un géoréacteur nucléaire »), Robert de Meijer et ses collègues proposent de construire un laboratoire souterrain afin de savoir si nous sommes réellement assis sur un géoréacteur, tandis que les partisans des autres hypothèses ne sont pas en reste et montent leurs propres expériences pour les valider : « L’idée est de développer un détecteur des particules produites lors de la désintégration de l’uranium radioactif : les antineutrinos, précise Robert de Meijer. Un système plus sensible que ceux existant à ce jour, comme celui de Kam-Land, au Japon. On pense le construire sur l’île Curaçao, au large du Venezuela, là où la croûte du globe est mince et loin de toute industrie, afin d’éviter les interférences entre les particules venant du centre de la Terre et celles produites par la croûte terrestre et les centrales nucléaires. »

 

La thèse d’un géoréacteur se rapproche d’une autre théorie, moins extrême, qui elle aussi avance la présence de radioactivité dans le noyau. Attention, il n’est pas question ici d’uranium et de réacteur nucléaire, mais d’un élément moins lourd, qui serait dispersé dans tout le noyau et non concentré en son centre : le potassium 40, noté 40K. A la jonction de la théorie de la géodynamo et de celle du géoréacteur, cette troisième thèse fait du centre de notre planète un noyau de fer et de 40K. Explicitée pour la première fois dans les années 70, notamment par la planétologue américain Mark Bukowinski, cette hypothèse est née d’une question troublante. Si c’est l’énergie générée par le refroidissement de la graine qui alimente le champ magnétique, sachant que celui-ci existe depuis 3,2 milliards d’années et que la graine n’est âgée que d’un ou de deux milliards, d’où provenait l’énergie faisant « tourner » le champ avant la formation de la graine ?

 

Un cœur de fer radioactif : la thèse de la réconciliation ?

 

Réponse des partisans de la théorie du potassium radioactif : du 40K, dont la radioactivité est source d’énergie… Sitôt formulée, cette théorie a fait l’unanimité contre elle. Pour une raison simple : le potassium 40 ne peut avoir coulé au centre de la Terre lors de la formation de cette dernière il y a 4,6 milliards d’années. Il faut savoir, en effet, que selon l’hypothèse dominante expliquant la naissance de notre planète (là encore on en est réduit à des hypothèses), la Terre s’est formée dans le jeune système solaire par accrétion de météorites de plusieurs centaines de kilomètres de diamètre. Elle a ensuite fondu partiellement, principalement sous l’effet de la chaleur libérée par les chocs entre la planète et les météorites. Conséquence : à cause de la gravité, les métaux lourds, comme le fer, ont migré vers le centre en quelques dizaines de millions d’années, formant ainsi le noyau terrestre. Tandis que les éléments plus légers, comme les silicates montaient vers la surface pour former le manteau. D’après cette théorie, en coulant vers le centre de la Terre, le fer n’a pu entraîner avec lui le 40K, un composé qui ne se combine pas avec lui. Or, surprise, en décembre 2003, les Américains Kanani Lee et Raymond Jeanloz, géophysiciens de l’université de Berkeley de Californie, ont réussi à créer un alliage de fer et de 40K. Cette prouesse fut réalisée en portant un échantillon de fer et de potassium purs à hautes pressions (26 gigapascals, soit 250.000 fois la pression en surface) et température (dépassant les 2230° C). Une première internationale assurée de faire date dans les annales de géophysique.

 

 

  

athenoshpere

 

 

 

Car du coup, cet assemblage jamais obtenu jusque-là montre que le 40K a bel et bien pu gagner le centre de la Terre, à ses origines. « En considérant nos données, et en comparant les quantités de 40K présentes dans la croûte et le manteau actuellement et lors de la formation de la Terre, on peut dire que le noyau contient près de 0,1 % de 40K, triomphe Kanani Lee. Cette quantité paraît ridicule, mais elle peut suffire à fournir 25 % de la chaleur dissipée par la Terre, car un peu de 40K dégage beaucoup d’énergie ! ». « L’obtention d’un alliage de fer et de potassium est un résultat très important, commente Guillaume Fiquet, chercheur du laboratoire minéralogie-cristallographie de Paris. Mais pour valider la thèse du 40K, il faudra montrer que cet élément se lie avec le fer en présence de silicates comme c’était le cas lors de la formation de la Terre. Ce qui n’a pas été pris en compte ici. »

 

Quoi qu’il en soit, l’avancée réalisée par les deux chercheurs de Berkeley brouille encore davantage les pistes menant à la vraie nature du centre terrestre. Dynamo en fer ? Géoréacteur ? Cœur de fer couplé à de la radioactivité ? Ou, qui sait, autre chose ? A ce jour, rien ne permet de trancher. Mais les scientifiques travaillent d’arrache-pied pour extirper son secret à notre planète. Un peu partout dans le monde, des équipes mettent au point des outils d’étude plus précis, plus élaborés, plus fiables, afin de sonder les entrailles de la Terre. « En progressant à tâtons, nous avons atteint un degré de raffinement sans précédent dans notre réflexion, nos concepts et nos outils d’étude du noyau terrestre », explique Denis Andrault du laboratoire des géomatériaux. De quoi espérer en savoir plus sur le champ magnétique. Mais aussi répondre à une multitude d’autres questions relatives au centre de la Terre, toutes aussi importantes et nées des derniers résultats de la géophysique et de la géochimie. Ce qui n’est pas pour demain : le chemin est encore long pour les chercheurs rassemblés à Garnisch-Partenkirchen afin de déterminer ce qui se cache et se trame aux tréfonds de notre planète.

 

Chronologie

 

1914

 

Découverte du noyau de la Terre par le sismologue germano-américain Beno Gutenberg.

 

1936

 

En étudiant la propagation des ondes générées par les séismes à l’intérieur de la Terre, la sismologue danoise Inge Lehmann détecte la présence d’une « graine » de fer solide au centre de la planète.

 

2003

 

Le géophysicien américain Marvin Herndon postule la présence d’un géoréacteur dans le cœur de la Terre.

 

Décembre 2003

 

D’autres géophysiciens américains, Kanani Lee et Raymond JeanLoz, obtiennent en laboratoire un alliage de fer et de potassium radioactif plaidant pour la présence de radioactivité au centre de la Terre.

 

La thèse de la dynamo

 

Selon la thèse dominante, la Terre est formée d’une croûte, d’un manteau et d’un noyau. Ce dernier est une « graine » de fer nichée dans un océan de fer en fusion. Dans celui-ci, des courants de convection produisent le champ magnétique. A l’origine, le champ est dipolaire, puis ses pôles se confondent, avant d’échanger leur place. Selon la thèse de la dynamo, ceci serait dû à une instabilité de la géométrie des tourbillons dans le noyau externe. Une explication contestée.

 

 

 dynamoEarth                    geomag

 

 

Jargon

 

Aimant dipolaire : aimant de la forme d’un cylindre ou d’un barreau présentant des pôles nord et sud à ses extrémités.

 

Cristal : solide formé d’atomes, d’ions ou de molécules, arrangés selon un patron géométrique régulier et répétitif.

 

Fission : réaction nucléaire au cours de laquelle un noyau atomique lourd se scinde en deux noyaux de masses inférieures et ceci en produisant de l’énergie, un rayonnement gamma et des neutrons/

 

Silicate : minéral constitué de silice et d’oxygène et formant 95 % de la couche la plus superficielle de la planète, la croûte terrestre.

 

Le centre tourne-t-il plus vite que la surface ?

 

En 1996, Xiaodong Song, de l’université de l’Illinois, faisait sensation en annonçant que le centre de la Terre tourne plus vite que sa surface. En analysant les ondes des séismes, il avait en effet calculé que le noyau terrestre tourne avec une vitesse de 1,1° de plus par an, au point d’accomplir, tous les 400 ans, un tour de plus que la Terre ! « Ces résultats s’expliquent par le fait que la graine est nichée dans un environnement liquide de faible viscosité lui permettant de se désolidariser du reste de la planète, explique Raphaël Garcia, de l’Institut de physique du globe de Paris. Cependant, de nouveaux travaux ont remis en cause la différence de rotation du noyau, et d’autres publiés récemment, l’estiment insignifiante (0,2° par an). « La question reste donc, à ce jour en suspens. Or, une réponse n’est possible que si l’on comprend pourquoi les ondes sismiques se comportent si bizarrement au centre de la Terre : les enregistrements des stations sismiques ont montré que ces ondes cheminent plus rapidement le long de l’axe nord-sud que dans le plan équatorial. Plus de quinze ans après sa mise en évidence par l’américain Adam Dziewonski, de l’université d’Harvard, cet étrange phénomène, appelé « anisotropie », intrigue encore les chercheurs. « Il est peut-être lié à une orientation préférentielle des cristaux de fer dans le noyau, qui seraient tous alignés sur l’axe nord-sud. La vitesse des ondes traversant le centre de la Terre dépendrait donc de cette orientation. Mais ceci reste à démontrer ». Ce qui n’est pas gagné, la structure cristalline du fer restant elle aussi un mystère.

 

Une multitude de mystères persistent

 

L’hypothèse communément admise est la suivante : soumis à des pressions et à des températures extrêmes, le fer lové au cœur de notre planète adopterait, à l’image du diamant, une structure en cristal. Mais quelle forme prend-il ? Trois structures cristallines sont théoriquement possibles : « la cubique centrée », « l’hexagonale compacte », et une forme intermédiaire. Or, si en avril 2004, les Californiens Jeffrey Nguyen et Neil Holmes ont annoncé qu’il existait qu’une seule sorte de cristal au sein du noyau, ils ne sont pas parvenus à identifier la nature précise de celle-ci.

 

Par ailleurs, un autre mystère demeure non résolu : la quantité d’énergie disponible sous nos pieds. Une information capitale puisque de l’énergie stockée dans le noyau lors de la formation de la Terre dépend le maintien du champ magnétique terrestre. « Pour le savoir, on doit au préalable définir la température de cristallisation (solidification) du fer du noyau sous haute pression », explique Stéphane Labrosse, géophysicien à Paris. Mais cette nécessité se heurte à un problème de taille puisque cette fameuse température n’est toujours pas connue ! Et les chercheurs n’ont aucune chance de l’évaluer sans posséder la composition exacte du noyau en éléments légers, comme l’oxygène ou le souffre. Or, cette composition reste, elle aussi, mystérieuse…

 

A l’assaut du centre de la Terre

 

Inaccessible, les entrailles de notre planète ? Plus maintenant ! Car pour explorer les profondeurs, les scientifiques ont mis au point des ruses technologiques. Embarquement immédiat.

 

 

 

 terre-dynamo

 

 

 

Jules Verne eut beau imaginer une expédition parvenant après moult péripéties jusqu’au centre de la Terre, la réalité est moins romanesque : le cœur de notre planète demeure inaccessible à l’observation directe. Inutile de creuser une vertigineuse cheminée : avec ses 12 kilomètres, le forage le plus profond, situé sur la presqu’île russe de Kola, ne fait qu’écorcher la pellicule superficielle du globe ; et même s’il était possible de plonger jusqu’à son centre, à 6350 km de profondeur, comme l’a récemment proposé le géophysicien néo-zélandais David Stevenson, nous ne pourrions résister aux températures et pressions colossales qui y règnent : quelque 6000° C et 360 gigapascals ! Inaccessible donc, mais pas tout à fait impénétrable. Car il est aujourd’hui possible de voyager au centre de la Terre… de façon virtuelle !

 

Première à entreprendre le voyage, la sismologie a permis de sonder les profondeurs. De fait, les ondes émises lors des séismes se propagent dans toutes les directions et parviennent à la surface après avoir traversé des milieux aux propriétés physiques et chimiques variées. Elles sont parfois réfléchies ou réfractées aux interfaces de ces milieux. Autant de déviations qui rallongent leur périple. C’est en analysant les dizaines de milliers de temps parcours des ondes captées par les sismographes du monde entier qu’on a pu identifier les grandes structures de la Terre, en particulier le noyau externe liquide et la graine centrale solide. Et déterminer leur composition chimique.

 

Des voyages par procuration

 

Au début des années 50, le géophysicien américain Francis Birch a en effet découvert que la vitesse de ces ondes dépend de la densité du milieu traversé. Et donc que tout changement de vitesse peut s’interpréter au niveau chimique. Il en a déduit que le noyau externe et la graine étaient surtout constitués de fer, confirmant une hypothèse datant de 1936 et qui est aujourd’hui encore la théorie dominante. Depuis vingt ans, la cartographie des anomalies locales de vitesse des ondes (ou « tomographie sismique ») ainsi que l’identification d’anomalies de densité, c’est-à-dire d’hétérogénéités de matière, ont permis de visualiser des détails plus intimes encore. Lors d’un de ces grands voyages… par procuration, les sismologues ont ainsi constaté que les ondes sismiques qui traversent le centre de la Terre filent plus vite sur un axe nord-sud. L’anomalie, en apparence anodine, pourrait trahir un des secrets les mieux conservés du noyau : l’orientation préférentielle de ses cristaux.

 

Mais il existe d’autres moyens de déambuler dans les profondeurs de la Terre sans quitter son laboratoire. Les géophysiciens ont ainsi eu l’idée de soumettre la matière aux conditions de pression et de température énormes qui règnent dans le noyau et la graine. Une entreprise rendue possible, notamment, par la cellule à enclumes de diamant. Un nom assez explicite pour désigner un instrument qui révèle in situ le comportement de minéraux artificiellement descendus dans les profondeurs terrestres. Comprimé entre deux diamants et chauffé par un faisceau laser ou un four résistif, l’échantillon étudié est exposé aux conditions existant au centre de la Terre. Il dévoile alors les propriétés qui seraient les siennes : structures cristallographiques et électronique, élasticité, vitesse de déplacement d’ondes, diffraction de rayons X… Un dispositif qui permet de tester les minéraux candidats à la composition des couches profondes.

 

 

 

 terre-coupe-big                        image001

 

 

 

Les mouvements de nutation du globe, c’est-à-dire les petites oscillations de son axe de rotation au cours du temps, mais aussi les variations de l’accélération de la pesanteur ou du champ magnétique terrestre sont d’autres moyens de plonger dans les tréfonds de notre planète. Tous ces phénomènes livrent, en effet, un lot d’informations sur la dynamique de la Terre profonde et, notamment, sur les mouvements de convection qui brassent l’océan de fer liquide entourant la graine. Par exemple, les mesures réalisées en surface dans des observatoires depuis plus de quatre siècles, ou depuis des satellites comme l’appareil danois Oersted, l’attestent : le champ magnétique se déplace lentement à l’échelle de quelques décennies, voire de quelques siècles. Cette intrigante observation pourrait impliquer que le maelström en fusion est agité de mouvements rapides, de l’ordre de 1 à 10 kilomètres par an (contre seulement quelques centimètres par an au-dessus, dans le manteau terrestre). Encore une piste à suivre…

 

Enfin, théoriciens et expérimentateurs ne sont pas les explorateurs les moins intrépides lorsqu’ils modélisent et simulent la géométrie des cellules de convection, construisent des « géodynamos » théoriques susceptibles de produire un champ magnétique ou conçoivent des expériences toujours plus complexes et spectaculaires. Car l’homme ne manque finalement pas de ressources pour explorer malgré tout cette ultime terra incognita qui lui résiste. Embarquement immédiat pour trois de ces voyages virtuels qui n’ont rien à envier à celui que l’imagination féconde de Jules Verne inventa il y a plus d’un siècle…

.../...

Repost 0
Orphée - dans Sciences
25 février 2010 4 25 /02 /février /2010 19:23

Ordinateur quantique

 

L’incroyable révolution

 

 

L’informatique classique vit-elle ses dernières années ? Le XXIe siècle devrait consacrer l’ordinateur quantique, issu des principes les plus stupéfiants de la physique fondamentale. Il fournira en un éclair des résultats qui demanderaient aujourd’hui des années à la machine la plus performante.

 

 super-ordinateur CM5-2

 

 

Et si, dans quelques années, l’ordinateur était supplanté par une nouvelle machine ? Cette question semble illégitime dans un monde où croit de jour en jour la capacité des ordinateurs, au point de rendre obsolète celui qui, six mois auparavant, semblait du « dernier cri » ! Mais cette course frénétique technologique a fait oublier que le concept d’ordinateur, déjà quinquagénaire, n’a pas évolué d’un pouce depuis ces origines.

 

En revanche, la recherche de nouveaux concepts, elle, n’a jamais autant fourmillé d’idées. Cette recherche de pointe a aujourd’hui atteint son apogée avec l’invention d’une nouvelle classe de machine, l’ordinateur quantique, qui – et là réside la nouveauté – utilise les principes de la physique quantique, dont les lois défient le sens commun !

 

Cette machine, qui existe déjà au stade théorique, allie les conceptions les plus modernes de la physique de l’infiniment petit – la physique quantique – et les exigences de la logique mathématique. Pourtant, le mariage de la logique et du quantique n’était pas conclu d’avance. Comment imaginer que des calculs puissent être correctement menés dans un monde où règnent l’ubiquité – un objet peut se trouver au même moment en des lieux différents -, la dualité – une particule est aussi une onde – et d’autres phénomènes étranges ? L’informatique, discipline rigoureuse entre toutes, est désormais entrée dans l’ère magique du quantique.

 

C’est le symposium sur les fondements de l’informatique, à Los Alamitos (Californie), en octobre 1994, qui a marqué le grand tournant : Peter W. Shor, chercheur en informatique théorique aux laboratoires AT&T Bell, présente son travail et crée la sensation. Voilà pourtant plus de dix ans que le concept d’ordinateur quantique se précise dans l’esprit des scientifiques…

 

Dès 1982, le prix Nobel de physique Richard Feynman esquisse l’idée d’un ordinateur fonctionnant sur les principes de la physique quantique. Drôle d’idée, quand on songe que cette physique, qui décrit le comportement des particules dans l’infiniment petit, va à l’encontre de l’intuition et du sens commun. Mais une donnée manque pour lancer véritablement la recherche sur l’ordinateur quantique : la démonstration que celui-ci peut faire ce dont un ordinateur classique est incapable.

 

Un enjeu militaire et économique

 

C’est seulement douze ans plus tard, en 1994, que Peter Shor explique comment un ordinateur quantique résout rapidement un problème que les meilleurs ordinateurs d’aujourd’hui mettraient des années, voire des siècles, à résoudre. Il s’agit du problème de la « factorisation en nombres premiers de très grands nombres ». Or ce casse-tête de mathématique pure est intimement lié à celui de la sécurité des systèmes d’information. L’ordinateur quantique devient dès lors un enjeu militaire et économique ! Le premier pays qui réussirait à construire un tel ordinateur deviendrait le maître du monde en matière de cryptage-décryptage, pour véhiculer des informations aussi bien militaires que commerciales.

 

A l’heure où les réseaux numériques, tel Internet, envahissent notre quotidien, il n’en faut pas plus pour que des laboratoires et des industries du monde entier se lancent dans la course à la conception de cette machine quantique.

 

 

 

Etat quantique                          Simulation quantique

 

 

 

Mais, au-delà de son intérêt stratégique, l’ordinateur quantique marque une révolution dans la science du traitement de l’information et dans l’utilisation de la logique à des fins de calcul. Pour comprendre ce bouleversement, il faut pénétrer au cœur de la mécanique quantique, qui, sous son apparence rugueuse, cache un parfum d’exotisme. Rappelons d’abord que les mathématiciens savent depuis longtemps qu’on peut effectuer toutes les opérations logiques et mathématiques en manipulant uniquement des suites de 0 et 1. Chaque nombre peut s’écrire sous une forme binaire : 1 s’écrit 1, 2 s’écrit 10, 3 s’écrit 11, 4 s’écrit 100, etc.

 

Si l’on ajoute trois « opérateurs » logiques : ET, NON et COPIE, on obtient un système mathématique capable d’additionner, de soustraire, de multiplier, etc, capable même de faire des choix logiques du type : « Si le nombre A est inférieur au nombre B additionner A et B ; sinon, multiplier A par B ». Les ordinateurs classiques fonctionnent selon ce principe. Car le langage binaire, pure entité mathématique, a des équivalents physiques.

 

Ainsi, lorsqu’on allume ou qu’on éteint une lampe à l’aide d’un interrupteur, on manipule le langage binaire : 0 correspond à l’interrupteur ouvert (pas de lumière), 1 à l’interrupteur fermé (lumière). En associant d’une certaine façon des milliers, voire des millions, d’interrupteurs, on disposerait d’un véritable ordinateur. C’est d’ailleurs ainsi que furent construits les premiers calculateurs à la fin des années 30. Depuis, on a simplement remplacé les interrupteurs par des lampes, ensuite par des transistors, puis réduit leur taille en les faisant tenir dans des microprocesseurs.

 

La particule est aussi une onde

 

Or, si à notre échelle un interrupteur est ouvert ou fermé, en physique quantique, il peut être simultanément ouvert et fermé ! L’expérience quotidienne nous a habitués à considérer qu’un courant électrique passe ou ne passe pas – il n’y a pas de demi-mesure. Mais, dans le monde de l’infiniment petit, le « flou artistique » est de mise. Prenons un interrupteur « quantique », constitué d’une particule dans un puits à deux poches ou « puits bistable ». Supposons que, quand la particule est à gauche, l’interrupteur est fermé et que, quand elle est à droite, l’interrupteur est ouvert.

 

Pour faire passer la particule d’un côté à l’autre – pour ouvrir ou fermer l’interrupteur -, il faut lui fournir de l’énergie, sous forme par exemple de lumière, grâce à un laser. Jusque-là, rien d’anormal. Mais, lorsqu’on commence à irradier la particule avec le laser, l’affaire se corse. Car la particule est aussi une onde : on nomme cette « ambivalence » : dualité onde-corpuscule. Cette onde peut être considérée, très approximativement, comme la probabilité que la particule se trouve à tel endroit. Au départ, l’onde est à gauche. Lorsqu’on l’irradie avec le laser, elle décroît, tandis qu’une onde naît à droite et croît. Au bout d’un certain temps, l’onde de gauche aura disparu et celle de droite aura atteint son maximum : la particule est passée à droite, l’interrupteur est indiscutablement ouvert.

 

 

 ordinateur quantiquet-v2                  ordinateur quantique-v3

 

 

Mais que se passe-t-il si l’on coupe le laser lorsque l’onde de gauche (qui décroît) et l’onde de droite (qui croît) sont de même taille ? La particule sera en même temps à droite et à gauche : l’interrupteur est à la fois ouvert et fermé ! En mécanique quantique, on dit qu’il y a superposition de l’état « interrupteur ouvert » et de l’état « interrupteur fermé ». Puisque l’état d’un interrupteur est donné par une onde et que, telles les vagues dans la mer, les ondes peuvent se chevaucher, par une autre bizarrerie du microcosme quantique il se crée une superposition de plusieurs interrupteurs. Les « interrupteurs-ondes » perdent leur individualité pour devenir tous ensemble un seul et grand interrupteur-onde.

 

L’existence d’états superposés laissait supposer qu’on allait pouvoir mener des calculs « en parallèle ». Avec un ordinateur classique doté d’un bon programme de comptabilité, on peut gérer son compte en banque et connaître, en appuyant sur une touche du clavier, son solde. Si l’on dispose de plusieurs comptes, l’ordinateur donnera tous les soldes. A l’échelle du microprocesseur, les calculs se font en série : le programme calculera le solde du premier compte, puis celui du deuxième et ainsi de suite. Le temps de calcul de tous les soldes sera donc proportionnel au nombre de compte.

 

Grâce au principe de superposition d’états, il est possible de créer un seul état contenant les données de tous les comptes. Cet état serait traité comme une seule donnée par le logiciel, qui aboutirait à un seul résultat « superposé », contenant tous les soldes. Ainsi, dans le temps qu’il faut à un ordinateur classique pour calculer un seul solde, l’ordinateur quantique les calculera tous.

 

Condamnés à ne jamais « voir » l’infiniment petit

 

Mais il y a un hic : à l’échelle quantique, lorsque l’expérimentateur mesure une grandeur physique, il l’altère. En d’autres termes, si l’on cherche à déterminer la vitesse d’une particule, le dispositif de mesure agit sur la particule et en modifie la vitesse. C’est à ce paradoxe que sont confrontés les inspecteurs de l’Education nationale. Lorsqu’ils se rendent dans une classe pour noter l’aptitude à enseigner d’un jeune professeur, leur présence perturbe le comportement des élèves et celui du professeur.

 

Bref, nous sommes condamnés à ne jamais « voir » une certaine réalité physique de l’infiniment petit, car, en voulant la découvrir, nous l’altérons. Cette limitation est, hélas, inévitable en physique quantique. Ainsi, l’existence d’états superposés – « la particule est à gauche et la particule est à droite » - peut être supputée mais non observée directement. Dès que l’expérimentateur y plonge le nez, la superposition d’états disparaît, et la particule se retrouve soit à gauche, soit à droite. On dit qu’il y a eu « réduction du paquet d’ondes ».

 

Pour en revenir à l’exemple des comptes en banque, au moment de puiser dans l’ordinateur le « résultat » - superposition de tous les soldes bancaires – le paquet d’ondes se réduira, et l’on se retrouvera avec le solde d’un seul des comptes ou avec un résultat mélangé inexploitable. Bref, au mieux, on n’aura rien obtenu de plus qu’avec un ordinateur classique !

 

Bien que des scientifiques aient récemment réussi à observer une superposition d’états pendant une fraction de seconde, l’espoir d’obtenir le résultat superposé de tous les soldes bancaires semble être une chimère. Ce constat a failli vouer à l’oubli l’ordinateur quantique… jusqu’à la communication de Peter Shor, en 1994.

 

 

 

 superordinateur

 

 

Si la mesure détruit la superposition d’états, comment savoir si elle existe « réellement » ? Et surtout comment exploiter cette particularité de la physique quantique pour gagner du temps de calcul ? En fait, la mise en évidence expérimentale de la superposition d’états quantiques se fait par des mesures indirectes. Ce sont ces mesures indirectes. Ce sont ces mesures qui feront toute la différence entre l’ordinateur quantique et l’ordinateur classique.

 

On l’a vu, les états quantiques prennent la forme d’ondes, qui peuvent interférer comme les vagues : parfois, elles se chevauchent, engendrant une vague deux fois plus grande ; parfois, elles s’annulent. Ainsi, deux rayons lumineux peuvent interférer – négativement – et créer de l’obscurité. Pour mettre en évidence la superposition d’états, on utilise ce phénomène d’interférence. Revenons à notre particule dans son puits bistable. La superposition d’états – elle est à la fois à gauche et à droite – est prouvée par l’existence d’une onde à gauche et d’une onde à droite.

 

Que se passe-t-il si on les fait interférer ? Comme pour la lumière, on obtiendra un « dessin » caractéristique de cette interférence. C’est là qu’intervient l’algorithme de Peter Shor, qui exploite le « dessin » résultat de l’interférence de tous les états superposés, ce qu’un ordinateur classique ne peut évidemment pas faire. Ce « dessin » fournit immédiatement des renseignements sur une propriété commune à toutes les données superposées (par exemple leur plus grand diviseur commun…). Pour faire ressortir cette propriété commune à toutes les données, l’ordinateur quantique n’a eu aucun calcul à effectuer, alors que l’ordinateur classique aurait besoin de plusieurs années de calcul pour obtenir le résultat.

 

Depuis la communication de Shor, le nombre de publications sur l’ordinateur quantique dans des revues prestigieuses telles que Nature ou Science croît « exponentiellement » : le monde de la recherche est en ébullition. Les surprises se multiplient. Ainsi l’Américain Seth Lloyd, grand nom de la physique théorique, a-t-il récemment démontré la conjecture de Feynman de 1982 – qui a initié la recherche dans ce domaine - : un ordinateur quantique pourrait simuler le comportement d’un « système » quantique en utilisant des programmes simples et rapides, tâche qui, encore une fois, demanderait des années à un ordinateur classique. Démonstration déterminante, car elle offre aux scientifiques la perspective d’un nouvel outil de recherche fondamentale en mécanique quantique, domaine où, depuis des décennies, d’énormes lacunes freinent le progrès des connaissances.

 

La question est maintenant de savoir si l’on pourra un jour construire un ordinateur quantique ou s’il existe une limite non pas technologique mais physique à sa réalisation. La communauté des spécialistes est divisée. « L’optimisme gagne du terrain », affirme Jean-Paul Delahaye, chercheur au Laboratoire d’informatique fondamentale de Lille. « Si aucune limite physique en vient empêcher le fonctionnement des ordinateurs quantiques[1], on verra apparaître dans dix ans des ordinateurs hybrides – des machines classiques contenant quelques microprocesseurs quantiques -, et dans cinquante ans ce sera fantastique ! » Selon d’autres spécialistes, la technologie ne permettra jamais de construire ces prodigieuses machines.

 

En attendant, certains scientifiques étudient déjà de nouvelles méthodes de cryptage pour parer le danger de l’écroulement de la sécurité informatique mondiale. L’une d’entre elles, qui semble inviolable, se fonde notamment sur… la physique quantique.

 

 




 





 

 

 

 


[1] Il se pourrait, en effet, que des phénomènes d’instabilité quantique interdisent de manipuler et de conserver pendant le temps du calcul une superposition d’états.


 
 

Repost 0
Orphée - dans Sciences
25 février 2010 4 25 /02 /février /2010 18:45

II – La vie est possible ailleurs dans l’Univers

 

Des expériences viennent de le montrer : les acides aminés, ces précurseurs de la vie, se forment facilement dans le cosmos. Mieux : ils sont capables de survivre à des conditions extrêmes et d’atterrir sur une planète pour la fertiliser. De quoi rêver à la découverte de traces de vie extraterrestre.

 

 

 exoplanete-v1

 

 

Orsay, Institut d’astrophysique spatiale, mars 2003. Les cadrans du cryostat indiquent une pression dix milliards de fois plus faible que la pression atmosphérique, une température à 193° C en dessous de zéro… Après deux jours de préparation, Michel Nuevo, jeune doctorat de l’équipe d’astrochimie expérimentale de Louis d’Hendecourt, est enfin prêt pour réaliser son expérience : recréer, en laboratoire, un morceau d’Univers ! Mais pas n’importe lequel : il s’agit de reproduire un bout de nuage moléculaire, ceux constitués de gaz et de poussières denses et froids qui, flottant dans le vide cosmique, abritent de nombreuses molécules et sont, de ce fait, le lieu de formation privilégié des étoiles et des planètes dans l’Univers.

 

18 acides aminés détectés !

 

Objectif : observer les molécules « prébiotiques », les briques de base de la vie telle que nous la connaissons, dont on suppose qu’elles se forment dans la glace entourant les grains de poussière interstellaire. Pendant deux jours, un mélange gazeux d’eau, de méthanol, d’ammoniaque, de monoxyde et de dioxyde de carbone (H2O, CH3, CH2OH, NH2, CO, CO2), les molécules les plus communes dans les glaces interstellaires, va se condenser dans le cryostat. La fine couche de glace ainsi formée, irradiée par une lampe à plasma chargée de reproduire la lumière ultraviolette qui se propage dans le Cosmos, va s’épaissir. Une fois réchauffée, elle laissera un résidu jaunâtre soigneusement collecté et envoyé pour analyse à l’université de Brême, en Allemagne. Verdict ? Il est tombé trois semaine plus tard, confirmant superbement les résultats obtenus par l’équipe de Guillermo Munoz Caro, à Leiden, aux Pays-Bas, et publiés dans la célèbre revue Nature en mars 2002 : ce simple petit bout de nuage moléculaire reconstitué contient plusieurs composés organiques, et parmi eux, pas moins de 18 acides aminés, dont certains sont identiques à ceux qu’utilisent nos propre protéines ! Autant de briques de base de la vie qui se formeraient donc aisément dans l’espace… Et si c’est bien le cas, alors notre petit coin d’Univers n’est probablement pas le seul à avoir vu apparaître la vie.

 

Une luxuriance inattendue

 

Pour le chimiste Uwe Meierhenrich qui a réalisé les analyses des échantillons de Michel Nuevo à Brême, le constat ne fait aucun doute : la formation des acides aminés dans les glaces interstellaires n’est pas dépendantes de conditions physico-chimiques particulières et semble bel et bien être un processus général : « Nous avons modifié les conditions de l’expérience, jusqu’à ne plus considérer qu’un simple mélange à base d’ammoniaque et de monoxyde de carbone… et à chaque fois, nous avons retrouvé les mêmes acides aminés. » Max Bernstein, chercheur au SETI Institute de la Nasa, le célèbre institut américain pour la recherche d’intelligence extraterrestre, est tout aussi positif : « Nous avons réalisé le même type d’expériences, certes avec une approche et des conditions différentes, mais nous trouvons aussi des acides aminés. »

 

 

 

 124-00595-01high

 

 

Spectaculaires, ces résultats annoncent peut-être des découvertes que feront bientôt les astronomes, cette fois-ci non plus dans les laboratoires, mais dans le ciel. En effet, depuis plusieurs dizaines d’années déjà, les observations astronomiques mettent en évidence la grande richesse du milieu interstellaire. Plus de 140 molécules différentes y ont été répertoriées à ce jour, la plus petite étant celle du di-hydrogène (H2) et la plus grande un dérivé de l’acide cyandrique (HCN) doté de pas moins de 13 atomes : HC11N. Et en août 2003, la glycine (NH2-CH2-COOH), qui n’est autre que l’acide aminé le plus simple, y a même fait son entrée ! La démonstration est faite que le milieu interstellaire, qu’il soit observé dans le ciel ou reproduit en laboratoire, est beaucoup plus luxuriant qu’on ne le pensait il y a encore quelques années.

 

Des obstacles de taille !

 

Reste alors une question centrale : comment ces molécules organiques peuvent-elles parvenir jusqu’à une planète et s’y fixer, de sorte que la vie à proprement parler puisse s’y développer ? Car nombreux sont les obstacles qui se dressent sur leur chemin. Tout d’abord, il leur faut passer le cap de la formation stellaire, qui les met sérieusement à mal. En effet, lors de la création d’un système planétaire, le cœur du nuage s’effondre et s’échauffe jusqu’à atteindre plusieurs millions de degrés, température à laquelle l’étoile centrale s’allume. Celle-ci va ensuite irradier et balayer son nuage parent de vents violents, ne laissant sur place que des petits corps qui donneront naissance aux planètes. Peu de molécules survivraient dans ces conditions extrêmes… Exceptées celles fixées sur des grains de poussière à la périphérie du nouveau système planétaire, où ces grains conservent leur manteau de glace. Ceux-ci s’agglomèrent alors, pour former comètes et astéroïdes qui, à leur tour, viennent bombarder les planètes nouvellement formées. La Terre a, par exemple, connu une période d’intenses bombardements au début de son existence, il y a environ 4 milliards d’années, pendant laquelle elle a peut-être été ensemencée par des molécules organiques, base de départ de la vie… C’est la théorie bien connue de la « panspermie ».

 

 

 Exoplanet-Artiste-v1

 

 

Ainsi, les acides aminés, des glaces interstellaires auraient-ils « fertilisé » n’importe quelle planète en y déposant les premières graines de la vie. A condition toutefois d’être arrivés en bon état ! Mais sur ce point, les chercheurs sont plutôt optimistes : « Les acides aminés ne voyagent pas sous forme simple, explique Uwe Meierhenrich. Ils sont stockés dans des polymères, des molécules plus complexes qui ressemblent un peu à des protéines. Ces précurseurs d’acides aminés – ils les libèrent une fois dans l’eau – résistent bien mieux aux rayons UV que les acides aminés seuls. »

 

De plus, il semble que la couche de glace qui les entoure pendant une partie du voyage les protège efficacement des agressions extérieures. C’est en tout cas l’avis de Michel Nuevo : « D’après nos expériences en laboratoire, le rayonnement solaire UV n’y pénètre pas à plus de 0,1 micron de profondeur. » Pour en avoir le cœur net, des expériences ont été réalisées en orbite terrestre, à bord de l’ancienne station spatiale russe MIR et sur des fusées russes Foton. Plusieurs équipes y ont étudié la stabilité des acides aminés dans les conditions spatiales. A chaque fois, les mêmes conclusions apparaissent : nus, les acides aminés ne survivent pas plus de quelques heures ; mais leurs précurseurs résistent mieux au rayonnement UV et aux rayons cosmiques. Une couche de 5 microns de roche météoritique suffit même à assurer une protection efficace !

 

Forcer l’atmosphère : un défi

 

Après le voyage dans l’espace, reste encore à traverser l’atmosphère d’une planète sans trop d’encombre. Là encore, l’épreuve ne semble pas rédhibitoire, même si la température due aux frottements avec l’atmosphère peut atteindre les 2000° C. Pour s’en assurer, on a inséré trois échantillons de roches dans le bouclier thermique d’un satellite russe Foton. Le premier était un basalte, typique d’une surface planétaire, les deux autres des roches sédimentaires : une dolomite et un sol martien reconstitué.

 

Reste à atterrir sans dégâts

 

Certains chercheurs pensent en effet que la vie aurait pu se développer sur Mars et arriver ensuite sur Terre via une météorite de la Planète rouge. Une hypothèse parmi d’autres, qui ne résout pas la question de l’apparition même de la vie. Lancé le 9 septembre 1999, le satellite Foton a passé deux semaines en orbite, avant de traverser l’atmosphère terrestre pour se poser au Kazakhstan. Verdict : l’échantillon de basalte a été perdu et il ne restait plus grand-chose du sol martien reconstitué, mais la dolomite avait conservé plus de 30% de sa matière ! D’après le responsable de la mission, qui n’était autre que l’exobiologiste français André Brack : « Ces résultats sont encourageants car ils prouvent que le passage de l’atmosphère est loin d’être un obstacle insurmontable. » Reste à savoir si des acides aminés, d’origine martienne ou non, pourraient survivre. Réponse dans quelques mois, avec le lancement d’un nouveau Foton.

 

 

 008-00200-02high

 

 

 

 

 

Il demeure encore un ultime point d’interrogation : contrairement aux satellites artificiels, les bolides qui traversent l’atmosphère n’ont pas de parachute ni de rétrofusées pour se poser en douceur. Des molécules organiques complexes peuvent-elles alors résister à l’impact entre une planète et le corps qui les transportent ? Pour simuler cette collision, rien de tel qu’un canon surpuissant, comme celui de l’Institut de l’espace et des sciences astronautiques à Yokohama, au Japon. Les acides aminés y subissent des chocs à des vitesses comprises entre 2,5 et 7 km/s, soit plus de 25.000 km/h ! Les résultats obtenus sont surprenants : non seulement les acides aminés survivent, mais ils forment même des polymères ! Quant aux précurseurs des acides aminés, comme ceux fabriqués à Orsay, ils sont encore plus stables… Cela ne fait donc plus guère de doute aujourd’hui : des molécules complexes, précurseurs de la vie, peuvent assez facilement être fabriquées dans le milieu interstellaire, survivre au voyage les amenant dans l’orbite d’une planète, ainsi qu’à la rentrée atmosphérique et à l’impact qui s’ensuit.

 

On s’y attendait cependant un peu. En effet, en mesurant la teneur en hydrogène des océans et des comètes, on sait maintenant qu’entre 10 et 50 % de l’eau terrestre est d’origine cométaire… Or, si les comètes ont apporté de l’eau sur Terre, sûrement y-ont-elles aussi déposé des molécules plus complexes, car leur noyau contiendrait 30 % de composés organiques. Les météorites ne sont pas en reste non plus. Il en tombe environ 10t sur Terre chaque année, et ce chiffre devait être entre 100 et 10.000 fois plus grand au début de la formation du système solaire, où les collisions de corps célestes étaient incessantes.

 

Une des météorites les plus célèbres est celle tombée en 1969 près de Murchison, en Australie. Après analyse, on y a trouvé environ 500 molécules organiques, dont 70 acides aminés différents. Or, plusieurs sont utilisés par le vivant. Certains acides détectés en mai 2004 par Uwe Meierhenrich et Guillermo Munoz Caro pourraient même être à l’origine d’une molécule proche de l’ADN !

 

L’échéance de 2014

 

L’affaire est-elle réglée ? Reste pourtant une bizarrerie : les acides aminés obtenus en laboratoire sont présents sous deux configurations différentes, « L » et « D », images l’une de l’autre dans un miroir ; or, une particularité essentielle des 20 acides aminés du vivant est d’exister exclusivement sous la forme « L ». Ici, la question n’est pas de savoir pourquoi la vie a choisi les acides aminés « L » plutôt que « D », mais où, quand et comment cette discrimination a eu lieu.

 

 

 

 Osirisplanet                        roaster-medres

 

 

Pour le savoir, des météorites comme celle de Murchison ont été ré-analysées plus finement : certains acides aminés présentent un excès de composés « L » de 10% ! Le choix se serait-il fait dans l’espace ? Certaines expériences de laboratoire, comme celle d’Orsay, cherchent désormais à le prouver. La réponse sera sûrement plus nette en 2014, lorsque la sonde européenne Rosetta se posera sur la comète Churyumov-Gerasimenko. L’un de ses instruments analysera d’éventuels acides aminés, et déterminera quel composé y est majoritaire. Un résultat primordial, car si les composés « L » sont prépondérants, on aura quasi la preuve que la vie est d’origine extraterrestre. Et donc qu’elle a parfaitement pu se développer sur d’autres planètes.

 

Interview d’André Brack

 

A 66 ans, André Brack est celui qui, en France, a donné ses lettres de noblesse à l’exobiologie, soit l’étude des origines de la vie terrestre, son évolution et sa distribution éventuelle dans l’Univers.

 

 

 andre-brack                    2003-19-a-web

 

 

Science & Vie : L’eau liquide est-elle indispensable à l’apparition de la vie ?

 

André Brack : Tous les êtres vivants que nous connaissons, des plus primitifs aux plus évolués, ont besoin d’eau pour vivre. Nous aurons donc du mal à détecter et même à imaginer une quelconque forme de vie « ailleurs » qui pourrait s’en passer. De plus, l’eau liquide oriente les réactions chimiques des molécules organiques contenant carbone, hydrogène, oxygène et azote – les briques du vivant – dans des directions particulières. C’est pour cela que rechercher de la vie ailleurs passe par une recherche d’eau liquide sur les exoplanètes.

 

S&V : Sur quels critères chercher une autre forme de vie ?

 

A.B. : La recherche de la vie ailleurs pose la question de la définition de la vie. Je considère, et je ne suis pas le seul, qu’un ensemble de molécules est « en vie » à partir du moment où il présente les deux qualités suivantes : l’autoreproduction et l’évolution. Il faut que le système en question soit en mesure de faire « plus de lui-même par lui-même ». C’est-à-dire qu’il doit pouvoir se dupliquer à partir d’éléments chimiques tout en étant capable de devenir de plus en plus efficace pour se reproduire. Le problème, c’est que le seul exemple de la vie que nous connaissions se trouve sur Terre, et nous ne savons pas exactement comment elle a démarré ici.

 

S&V : Les chances sont-elles plus grandes que la vie existe ailleurs ?

 

A.B. : Toute la question tient à la complexité minimale des premiers êtres vivants. S’il faut peu de pièces détachées pour fabriquer une entité capable de se reproduire et d’évoluer, alors la vie a des chances d’apparaître chaque fois que les conditions sont réunies. Au contraire, si des milliers de pièces détachées sont requises, l’apparition de la vie devient très aléatoire, et même avec des millions de planètes dans l’Univers nous sommes peut-être seuls…

 

 universe-v1254

 

 

 

 



 
 

Repost 0
Orphée - dans Sciences
25 février 2010 4 25 /02 /février /2010 18:32

On a découvert une autre Terre

 

A 50 années-lumière de nous, elle abrite peut-être la vie

 

Depuis le temps qu’on l’espérait ! Repéré en août dans la constellation de l’Autel, un astre situé hors de notre système solaire réunit pour la première fois les conditions pour être une planète… solide. Comme la Terre ! De quoi en faire une candidate à la vie extraterrestre. Surtout que de récentes expériences le montrent : la vie est possible ailleurs dans l’Univers.

 

 La petite exoplanete

 

 

I – Voici peut-être la première « super Terre »

 

C’est la 123e exoplanète détectée à ce jour. Identité ? Mu Arae c. Signe particulier ? Elle est la première qui pourrait être solide ! Comme la Terre. De là à imaginer que l’eau, donc la vie, y soit aussi présente… L’hypothèse n’a rien de fantaisiste.

 

Le jeudi 26 août 2004 fera date. A marquer d’une pierre blanche dans la recherche d’une vie ailleurs que sur Terre. Pour la première fois, en effet, une planète située dans un autre système solaire que le nôtre pourrait réunir les conditions pour que la vie puisse y avoir émergé ! Masse, proximité avec son étoile… les indices sont favorables. Cela faisait 122 tentatives que les astronomes en rêvaient.

 

Sous les 15 masses terrestres !

 

Car l’exoplanète découverte ce jeudi 26 août est bel et bien la 123e repéré à ce jour. Et comme si l’histoire ne pouvait s’empêcher de bien faire les choses, cette première « super Terre » a été découverte par Michel Mayor, celui-là même qui, en 1995, repéra la première exoplanète. Là encore, l’astronome suisse de l’Observatoire de Genève a réalisé l’exploit. Et ce n’est pas avec le Very Large Telescope (VLT), le grand télescope européen et ses miroirs de plus de 8 m qu’il a mis le doigt sur la perle, mais via un « modeste » miroir de 3,60 m installé sur un autre télescope européen, basé lui aussi au Chili, à La Silla. Une prouesse qui suscite d’ores et déjà l’émotion dans la communauté scientifique. Même si, pour l’heure, la prudence reste de mise. Il n’empêche ! Les premiers calculs des astronomes sont particulièrement excitants. Car avec une masse estimée à seulement 14 fois celle de la Terre, cette planète a toutes les chances d’être « solide ». Littéralement, elle apparaît comme la première super Terre détectée. La première qui pourrait être dotée d’un noyau, d’un manteau, d’une croûte, comme notre petite planète bleue. La première où l’on est en droit d’imaginer une surface, de la roche, des montagnes, peut-être, un paysage…

 

 

 008-00150-07bhigh                      ib1878,premiere-image-une-exoplanete-prise-vlt-avec-systeme

 

 

La première où il pourrait même y avoir… de l’eau. Et voilà bien l’extraordinaire ! Car sur Terre, l’équation est simple : partout où se trouve le précieux liquide, la vie s’est développée, abandonnant, même dans des conditions extrêmes. Jusqu’à présent, toutes les planètes repérées autour d’autres étoiles que notre Soleil étaient trop grosses pour qu’une telle éventualité se présente : vu leur masse, elles étaient forcément composées de gaz et ressemblaient plus ou moins à Jupiter, sans surface solide sur laquelle poser le pied, sans eau pour que la vie émerge. Non que ces géantes gazeuses soient plus nombreuses dans l’Univers que les petites planètes comme la Terre, mais jusqu’ici, les techniques de détection ne permettaient pas de repérer des planètes plus petites. Pour toutes les planètes déjà découvertes, la question de la vie ne se posait donc pas. Cette fois, la question se pose et, en soi, c’est déjà un événement.

 

Qui est la candidate ? Mu Arae c. Comme son nom l’indique, elle a été découverte autour d’une étoile nommée « Mu Arae », située à 50 années-lumière de la Terre, dans la constellation de l’Autel. Détail émouvant : on peut voir Mu Arae… à l’œil nu, hélas pour nous, dans l’hémisphère sud seulement. On sait aussi qu’elle est distante de 0,1 UA de son étoile, soit dix fois plus proche de son soleil que la Terre du sien, et qu’elle en exécute le tour complet en 9,5 jours. Deux autres astres accompagneraient cette éventuelle petite sœur dans son ballet perpétuel. Une grosse boule de gaz, d’abord, ressemblant par sa masse à Jupiter. Elle tourne autour de Mu Arae en 640 jours, à 1,5 UA. Vient ensuite un astre (géante gazeuse ou naine brune) plus lourd et plus éloigné.

 

Pour dénicher ce nouveau monde, l’équipe de Michel Mayor a appliqué la même recette qu’en 1995. Elle a fait appel au spectrographe HARPS, un bijou de haute technologie, installé au foyer du télescope de l’ESO depuis 2003 qui enregistre le spectre lumineux des étoiles. Pas d’images, donc, pour l’instant, de la nouvelle planète. Mais des courbes qui contiennent  une myriade d’informations sur l’entourage de Mu Arae. « En fait, explique Michel Mayor, les étoiles sont si brillantes qu’avec les instruments actuels, nous ne pouvons pas voir les planètes qui leur tournent autour. Nous utilisons donc une technique indirecte qui permet de repérer des corps en orbite, pourvu qu’ils aient au moins 7 masses terrestres. En dessous, nos instruments ne le détectent pas. » Et jusqu’à ce jeudi 26 août, toutes les planètes découvertes atteignaient au maximum la bagatelle de 3200 terres et, au minimum, 35. Avec de telles proportions, impossible d’avoir autre chose que du gaz. Pour comprendre, il faut savoir que les planètes se forment à partir du gaz et des poussières contenus dans la nébuleuse protoplanètaire qui entoure l’étoile. Les grains de matière s’agglutinent, se collent et se choquent pendant plusieurs millions d’années jusqu’à former des grumeaux de plusieurs milliers de kilomètres.

 

Une atmosphère suffocante

 

« Or, si l’embryon de planète atteint une masse critique, autour de 15 terres, le cycle s’emballe, souligne Michel Mayor. Il se produit un effet boule de neige : de plus en plus massif, l’astre attire à lui de plus en plus de gaz environnant. En quelques millions d’années, naît une planète du type de Saturne ou Jupiter (de 220 à 318 masses terrestres). Composées de gaz, elles n’ont pas de surface solide où l’eau pourrait se maintenir à l’état liquide. En revanche, si le corps en formation s’arrête en dessous de 15 masses terrestres, la planète peut être composée essentiellement de roches, de fer et de silicates, et donc, comme la Terre, avoir une surface solide. » On comprend mieux  l’émotion des scientifiques d’avoir enfin mis la main sur une exoplanète de 14 masses terrestres. Reste maintenant à lever le voile sur elle. Or, avec 123 exoplanètes découvertes (à l’heure où nous écrivons ces lignes), les astronomes ont aujourd’hui des données variées sur les masses, l’inclinaison des orbites et les périodes de rotation de ces nouveaux mondes.

  

 ib1435 dessin-artiste-exoplanete

 

 

Des données si variées que pour expliquer ce qu’ils observent, ils ont échafaudé des modèles de planètes bien différentes de celles de notre système solaire. L’objectif de ces modèles concoctés par les planétologues « théoriciens » : comprendre comment se sont formés ces nouveaux mondes. Et c’est justement le modèle le plus couramment admis qui laisse espérer que la planète en orbite autour de Mu Arae soit la première représentante des super Terre. Avec 14 masses terrestres, à condition toutefois que sa densité soit la même que celle de la Terre, elle devrait avoir un rayon 2,5 fois plus grand. Sa forte gravité – 14 fois supérieure, donc, à celle que nous connaissons -, fait supposer un relief relativement plat et « lisse ». Pas de hautes montagnes ici, mais plutôt des collines… « S’il s’agit bien d’une planète tellurique, autrement dit d’une planète avec une surface solide, qui s’est formée à partir de fer, et de silicates comme la Terre, et si elle a eu un volcanisme actif, alors son atmosphère doit être suffocante, poursuit François Bouchy, du laboratoire d’astrophysique de Marseille. Elle devrait contenir des composés chimiques comme du CO², du méthane, peut-être des hydrocarbures et des composés soufrés. Elle pourrait ressembler à Vénus, la jumelle de la Terre.

 

 

 008-00100-06high

 

 

Quant à l’eau, compte tenu de la proximité à l’étoile, cela paraît difficile de l’avoir à l’état liquide, car les températures doivent être proches de 700° C… Sauf si la pression est élevée, ce qui pourrait être le cas si l’atmosphère est très dense ou dans des profondeurs de la planète. » Par ailleurs, à 0,1 UA de l’étoile, la planète doit, comme la Lune et la Terre, être en rotation synchrone et présenter à son étoile toujours la même face… « Du coup, reprend Michel Mayor, on peut imaginer une face de la planète très chaude, aux alentours de 700° C, et l’autre plus froide de quelques centaines de degrés. De sorte que les températures moyennes soient un peu plus clémentes. Mais dans tous les cas, elles devraient difficilement être compatibles avec de l’eau liquide. » Un sérieux bémol à la présence d’une quelconque forme de vie ? Pas sûr. Car la réponse à cette interrogation se trouve peut-être du côté des astronomes de l’Institut d’astrophysique spatial d’Orsay (IAS), qui ont été sollicités pour travailler aux futures missions de recherche de planètes extra-solaires, notamment sur le projet de satellite européen Darwin, dont l’objectif est de repérer des planètes de type terrestre à partir de 2014. Ils ont ainsi été amenés à imaginer le type d’astres que Darwin pourra détecter. Et pour ce, construit des modèles de formation de planètes à partir des données de notre système solaire, mais aussi de celles de toutes les exoplanètes déjà découvertes.

 

Or, leur conclusion est étonnante : une planète totalement recouverte d’eau pourrait exister tout en étant proche de son étoile ! En effet, ils ont établi des modèles de « planètes océans » qui pourraient être bien plus grosses que la Terre. La planète de Mu Arae en fait-elle partie ? Pour le vérifier, il faudra attendre que soient disponibles des données plus précises sur la composition de son atmosphère, lorsque les futures missions seront en activité. « Mais nos simulations montrent qu’une telle situation est envisageable dans un cas extrême, explique Marc Ollivier, astronome à l’IAS. Il suffit pour cela que la planète se forme loin, après 5 UA, et qu’elle migre petit à petit vers son étoile. Il faut aussi qu’elle soit composée pour 50 % de roches de glaces d’eau, de dioxyde de carbone et d’ammoniac, composés chimiques abondants dans les disques protoplanétaires. Si, lors de sa formation, elle atteint la valeur théorique de 14 masses terrestres, elle fera composée de roches ainsi que du fer, des silicates et des glaces de la nébuleuse primordiale. Elle ne sera donc pas composée de gaz. »

 

Un océan profond… de 100 km

 

Schématiquement, cette planète posséderait un noyau semblable à celui de la Terre, composé de fer et de silicates et entouré d’un manteau de même composition, lui-même enveloppé d’une épaisse croûte de glace d’eau, de dioxyde de carbone, et d’ammoniac. Et le tout pourrait être recouvert d’un océan d’eau liquide d’une centaine de kilomètres d’épaisseur. Une fine couche comparée au diamètre de la planète, mais gigantesque en regard des plus grandes fosses océaniques terrestres qui ne mesurent « que » 10 km de profondeur… Ici, pas de dorsales, pas de tectoniques des plaques, pas de lave ni de roches affleurant au fond des océans : c’est de la glace qui tapisse les abysses… Paradoxal vu la proximité à l’étoile ? « Il ne s’agit pas d’une glace « classique », précise Marc Ollivier. A 100 km de profondeur par exemple, la pression qui s’exercerait devrait être de l’ordre du gigapascal, soit plusieurs milliers de fois supérieure à celle que nous ressentons sur notre planète. Dans ces conditions, les glaces d’eau, de dioxyde de carbone et d’ammoniac seraient plus denses que l’eau et n’auraient aucune chance de remonter à la surface. Pas d’icebergs en vue donc sur cet océan… Et la planète découverte par l’équipe de Michel Mayor est juste à l’extrême limite théorique de pouvoir être une telle ‘planète océan’, tant du point de vue de la masse que de celle de la distance à l’étoile… »

 

 

 5

 

 

Une super Terre ? Une planète océan ? Il existe toutefois une autre possibilité pour l’astre découvert autour de Mu Arae : celle d’être de la catégorie des planètes géantes de la famille de Jupiter arrivées trop proche de leur étoile après leur processus de migration. « Nous avons montré que, dans certaines conditions, les planètes géantes peuvent ‘s’évaporer’, explique Alain Lecavelier des Etangs, astronome à l’Institut d’astrophysique de Paris (IAP), si elles s’approchent trop de leur étoile. En principe, elles se forment loin après 5 UA. Mais si le disque de poussières qui entoure l’étoile est suffisamment dense, il se pourrait que la planète du type Jupiter ou Saturne, pesant quelques centaines de masses terrestres, perde progressivement sa lourde enveloppe de gaz en se rapprochant de l’étoile. Au bout de quelques millions d’années, il ne resterait alors plus qu’un noyau de 10 à 15 masses terrestres, composé de roches, de silicates et de fer, le tout en fusion. »

 

Dans ce cas, la planète Mu Arae pourrait ressembler à une planète de lave : en constante activité volcanique, elle serait recouverte d’une couche de magma qui se renouvellerait sans cesse. « Nous avons appelé planètes ‘chtloniennes’ ce type d’astres, du nom des divinités du centre de la Terre qui ont donné le mot ‘autochtones’, poursuit le chercheur. A cause de leur proximité avec l’étoile, théoriquement, environ 0,05 UA, la température à la surface est élevée, peut-être 900° C. Si bien qu’il est difficile d’imaginer de l’eau liquide, et encore moins de la vie… » La planète découverte par Michel Mayor est-elle alors bien solide, mais sans eau ? Selon les modèles, elle apparaît pourtant trop éloignée de son étoile pour être considérée comme une planète chtlonnienne à proprement parler. Trop éloignée, peut-être moins chaude… En fait, elle est encore une fois juste à la limite pour que l’eau, dans des conditions de température et de pression très spécifiques, reste à l’état liquide. « Et on peut d’ailleurs tout imaginer, poursuit le chercheur, car sur Terre, la vie existe aussi dans des conditions extrêmes… »

 

En attendant « Darwin »

 

Reste une ultime possibilité : la Vénus de Mu Arae pourrait malgré tout être une simple géante de gaz, une « petite géante »… Mais à ce moment-là, il faudrait revoir les modèles de formation des géantes. Dans tous les cas, les théoriciens de la formation des planètes sont sur le pied de guerre. Ils sont déjà en train de faire tourner des modèles pour tenter de comprendre ce nouvel astre, tant il est difficile de savoir comment il a pu se former, et à quoi il pourrait bien ressembler. Des éléments de réponse viendront peut-être du télescope spatial Hubble censé tourner ses miroirs vers le nouvel astre dans les mois qui viennent. En attendant, une chose est sûre : même s’il ne s’agit pas de l’eldorado tant espéré, la planète de Mu Arae ouvre d’ores et déjà une nouvelle ère dans l’histoire de la détection de monde potentiellement habités et nul doute que les candidates à la vie vont probablement se bousculer dans les mois à venir. Surtout qu’en 2006, le satellite Corot, conçu en grande partie par des scientifiques français, devrait découvrir une foule de petites planètes solides en surprenant leur passage devant leur étoile. Pour repérer des traces d’une forme de vie extraterrestre, il faudra toutefois s’armer de patience et attendre 2014 avec le lancement prévu du satellite européen Darwin. Son objectif : chercher dans les atmosphères des exoplanètes la triple signature ozone, eau, et dioxyde de carbone qui prouve inéluctablement la présence du vivant...


.../...

Repost 0
Orphée - dans Sciences