Overblog Suivre ce blog
Administration Créer mon blog
26 février 2010 5 26 /02 /février /2010 19:12
La menace utopique

 

              La hargne que déploie Huxley contre la pensée utopique dans Le Meilleur des Mondes est d’autant plus forte qu’il écrit son roman à une époque où les utopies, longtemps restées de simples vues de l’esprit, ont tendance à s’inscrire dans les faits et la réalité historique. Au cours de cette période, le socialisme (qui fut la principale utopie du XIXe siècle, et la plus généreuse dans ses intentions) donne naissance à la Russie stalinienne. Les fascismes qui à leur manière sont des utopies promettant d’autres formes de société parfaite se développent.

 



img34                thx1138-001
 

 

 

              Pour les hommes de lucidité, il devient clair alors que la démarche utopique, quand elle se réalise, aboutit à la dictature, au refus de la morale, au figement de l’histoire, au mépris de l’homme et du réel que l’on adapte de force à l’a priori de la doctrine. Il n’est donc guère surprenant que les premiers textes anti-utopiques commencent à apparaître au cours de ces années 1920-1930 où les prophètes de la « Cité idéale » et des « lendemains qui chantent » se révélaient, pris dans leur propre logique et quelle qu’ait pu être au départ la pureté de leurs intentions, procureurs féroces, policiers tortionnaires, dictateurs gouvernant par les coups de trique, les déportations en masse et les pelotons d’exécution. Le Meilleur des Mondes est un des premiers romans anti-utopiques. En tant que tel, il a été précédé seulement par certains récits d’Anatole France et surtout par Nous autres de Zamiatine. Fait significatif, ce dernier ouvrage est celui d’un écrivain russe (auquel il valut d’être exilé de son pays) et il évoque de façon indirecte, sous forme d’une anticipation ironique et amère, la société soviétique de l’époque. D’ailleurs, ce n’est sans doute pas un hasard si Huxley emprunte à un autre auteur russe, Nicolas Berdiaeff, lui aussi émigré, l’épigraphe du Meilleur des Mondes : « Les utopies apparaissent comme bien plus réalisables qu’on ne le croyait autrefois. Et nous nous trouvons actuellement devant une question bien autrement angoissante : comment éviter leur réalisation définitive ?… Les utopies sont réalisables. La vie marche vers les utopies. Et peut-être un siècle nouveau commence-t-il, un siècle où les intellectuels et la classe cultivée rêveront aux moyens d’éviter les utopies et de retourner à une société non utopique moins « parfaite » et plus libre. »

 

 






 

05loganrun1


 

 

              L’avertissement est clair : l’utopie, si dangereuse pour les esprits libres, est en marche, elle inspire déjà l’organisation de certaines régions du globe, elle menace de se réaliser à l’échelon du monde entier, elle constitue une tendance historique quasi inéluctable. D’ailleurs, pour expliquer l’avènement du Meilleur des Mondes, Huxley imagine dans son roman un processus historique fictif qui n’est pas sans évoquer certaines réalités de l’entre-deux-guerres :

              - un ensemble de problèmes et de catastrophes résultant d’une démographie galopante et de la surpopulation (sous-développement, famines, déséquilibres mondiaux),

              - une terrible « guerre de Neuf ans », dans laquelle il convient de voir une allusion à la guerre de 1914-1918 et au conflit latent qui oppose dans les années trente les pays démocratiques aux Etats totalitaires,

              - un « Grand Effondrement Economique », dont le modèle est manifestement la crise de 1929,

              - une révolution des mentalités, provoquée par les phénomènes précédemment cités et conduisant les gens à doter de tous les pouvoirs un gouvernement mondial pour qu’il leur assure enfin la sécurité,

              - une évolution inouïe des progrès techniques qui permettent à cette « Administration Mondiale » de contrôler totalement la population du globe.

 

 

 
carousel9

 

 

 

              On le voit, l’histoire imaginaire qui mène au Meilleur des Mondes ressemble fort à celle du premier tiers du XXe siècle. Et, au-delà des allusions précises au contexte des années 1920-1930, elle s’inspire de tendances dont Huxley a su comprendre qu’elles seraient des constantes de notre siècle ; le sous-développement affectant une grande partie du globe, l’opposition entre libéralisme et totalitarisme sous ses diverses formes, enfin l’accélération hallucinante des progrès scientifiques et techniques – phénomène qui inquiète particulièrement l’écrivain.

              Tous ces facteurs historiques, réels font que, selon Huxley, l’utopie ne doit plus être considérée, au XXIe siècle, comme une hypothèse intellectuelle mais comme une menace effective, en cours de réalisation.

              Dans le Meilleur des Mondes, la société dans son ensemble est conçue pour assurer aux hommes le bonheur. C’est du moins ce qu’affirment les dirigeants de l’Etat Mondial. En fait, comme dans toute perspective utopique, ces dirigeants ne font qu’imposer à l’humanité l’idée qu’eux-mêmes se font du bonheur. Et cette idée est, en l’occurrence, essentiellement matérialiste.

              Pour les responsables de l’Etat Mondial, en effet, le bonheur consiste uniquement dans la satisfaction de tous les besoins matériels de l’homme, d’une part, et dans l’absence de trouble, de douleur, d’autre part. Les deux critères se rejoignent en ce sens que le fait de ne pas être en mesure de satisfaire ses besoins fondamentaux est, évidemment, source de souffrance. On pourrait condenser en une brève formule – entièrement négative – pareille conception du bonheur : est heureux qui ne ressent rien de désagréable.

              Aussi le Meilleur des Mondes a-t-il été organisé dans un double but :

              - supprimer toutes les occasions de souffrances physiques ou morales liées à la nature même de l’homme (à sa vulnérabilité aux maladies ou à son affectivité développée, par exemple),

              - combler par une abondance extrême de biens de consommation tous les besoins, tous les désirs humains.

 

 


 

 

 

  

Un monde sans souffrances

 

              Le Meilleur des Mondes a ainsi cherché et réussi à vaincre la douleur physique. Grâce aux progrès de la médecine, il a éliminé quasiment toutes les maladies, il a multiplié les médicaments de confort contre les petits malaises de la vie quotidienne. Il a même supprimé la vieillesse.

              « Au travail, au jeu, à soixante ans, nos forces et nos goûts sont ce qu’ils étaient à dix-sept ans », déclare non sans fierté Mustapha Menier. Grâce à toute une série de traitements médicaux adéquats, les habitants du Meilleur des Mondes jouissent jusqu’à leur mort d’un parfait état de jeunesse et de santé. Un tel résultat s’obtient, il est vrai, au prix d’un léger raccourcissement de la durée moyenne de la vie. « La jeunesse à peu près intacte jusqu’à soixante ans, et puis, crac ! la fin », souligne Bernard Marx.

 

              Mais cette fin consiste en une mort rapide qui frappe des sujets rendus inconscients par les drogues calmantes ou euphorisantes. La suprême épreuve qu’est la mort est donc estompée, atténuée. Dans les hôpitaux spécialisés du Meilleur des Mondes, les moribonds ne se rendent même pas compte qu’ils vivent leurs derniers instants. Non seulement les douleurs physiques leur sont épargnées, mais encore, jusqu’à la fin de leur brève agonie, ils sont protégés de l’angoisse de mourir, d’une angoisse qu’ils n’auront d’ailleurs, en fait, jamais connue au cours de leur existence puisqu’on les a conditionnés dès leur plus jeune âge à accepter leur disparition, à ne pas la considérer comme « quelque chose de terrible ».

              Ces dispositions prises pour adoucir la mort, comme celles qui permettent d’abolir la vieillesse, ne répondent pas, bien sûr, à la seule volonté de supprimer des souffrances physiques. Dans l’esprit des responsables de l’Etat Mondial, il s’agit tout autant d’éliminer la souffrance morale – la terreur de la dégradation corporelle, la hantise de la déchéance, l’épouvante face au trépas.

 

Un monde sans passions

 

              De manière générale, d’ailleurs, les maîtres du Meilleur des Mondes ont cherché à détruire toute forme de douleur morale, en quelque domaine que ce soit. Pour cela, ils ont éliminé ce qui peut faire connaître à l’homme ce type de douleur, c’est-à-dire les sentiments et les occasions d’en ressentir. Et dans un tel but, ils ont notamment proscrit du Meilleur des Mondes la famille et la relation monogamique.

 

              Car, pour les Administrateurs, lorsque l’affectivité de l’être humain ne peut s’investir que dans un petit nombre d’objets, dans le cadre limité de la famille ou de la relation monogamique, elle se concentre nécessairement. Et c’est ce processus de concentration qui produit les sentiments profonds, les passions intenses et exclusives. Or, quand on aime avec passion, on risque toujours d’endurer les affres de la jalousie, le chagrin d’être incompris ou abandonné, l’humiliation d’être repoussé, l’insupportable torture de voir souffrir, mourir peut-être la (ou les) personne (s) aimée (s) ; en un mot, quand on aime vraiment, on risque toujours d’être malheureux. Pour préserver les hommes du malheur, il faut donc les empêcher d’aimer, d’éprouver des sentiments, et pour qu’ils n’éprouvent pas de sentiments, il faut faire en sorte que leur sensibilité s’affaiblisse en se diluant, en se dispersant sur une multitude d’objets.

              Voilà pourquoi les Administrateurs, tirant les conclusions logiques de leur raisonnement, ont, d’une part, supprimé la famille grâce à l’ectogenèse et, d’autre part, rendu impossible toute relation amoureuse durable et profonde par l’instauration d’une sorte de communisme sexuel

 

Le communisme sexuel dans le Meilleur des Mondes

 

              On sait que la théorie du communisme sexuel a été développée par des écrivains et penseurs d’inspiration utopiste comme Sade ou Fourier. Au-delà des différences qui existent entre ces auteurs, et sur lesquelles il serait inutile, ici, de s’étendre, cette théorie repose sur un principe fondamental qu’Huxley formule en ces termes : chaque individu doit devenir « la propriété sexuelle commune de tous ». Les tenants du communisme sexuel estiment que, chacun étant en droit de se satisfaire son désir, nul ne l’est par conséquent de se refuser au désir d’autrui. La mise en pratique de ces conceptions provoque bien sûr un échange perpétuel des partenaires qui interdit l’apparition de tout attachement véritable entre ces derniers. On comprend pourquoi Huxley a prêté de telles conceptions aux responsables du Meilleur des Mondes : la circulation permanente des corps et des désirs constitue à leurs yeux le moyen idéal d’éviter aux hommes les sentiments et les souffrances qui sont censés en découler.

           

             Paradoxalement, ce communisme sexuel, qui pourrait, dans une vision naïve des choses, apparaître comme une libération, se révèle aussi contraignant que les conceptions traditionnelles en ces matières. Huxley nous le montre tout au long du roman : le communisme sexuel sécrète ses règles de bonne conduite, ses interdits, ses commandements. En bref, il sécrète une morale qui, pour se situer à l’exact opposé de la morale traditionnelle, n’en est pas moins également impérative, sinon davantage. Cette morale interdit la chasteté, la fidélité, le fait d’entretenir une liaison « intense ou qui traîne en longueur », voire le simple désir de mener une existence affective en tant soit peu personnelle. Elle prône au contraire « la jouissance jusqu’aux limites extrêmes que lui imposent l’hygiène et les lois économiques ». Elle commande de n’avoir que de brèves liaisons, uniquement fondées sur le plaisir des sens, et de toujours répondre au désir des autres, de se montrer « accessible à tous », d’ « appartenir à tous les autres ».

              Dans le Meilleur des Mondes, les principes du communisme sexuel sont évidemment inculqués à chaque citoyen par le conditionnement. Les sujets de l’Etat Mondial se comportent donc « spontanément », dans leur écrasante majorité, selon lesdits principes. Mais il en est certains qui, comme les protagonistes centraux du roman, ne se sentent pas satisfaits d’un tel état des mœurs et qui recherchent, confusément, une autre manière de vivre leur affectivité, et leur sexualité. Ce par quoi Huxley entend souligner, bien sûr, que l’homme a besoin, pour son bonheur, d’autre chose que de la seule jouissance physique.

  

 

                     

 

 

Un monde sans inquiétudes

 

              En dernier lieu, il convient de souligner que le Meilleur des Mondes a supprimé, au-delà même des souffrances physiques et morales, jusqu’aux motifs d’inquiétudes d’ordre intellectuel ou spirituel. En faisant disparaître l’art véritable, la culture et la pensée libre, l’Etat Mondial a privé ses sujets de toute occasion de s’interroger sur le sens de leur existence, sur leur destin individuel, sur leur rapport au monde et à la société. En éliminant l’angoisse de la mort, les dirigeants du Meilleur des Mondes ont rendu caduques toutes les questions sur le possible devenir de l’être après sa disparition physique, toutes les notions d’âme ou d’au-delà, toutes les formes de religion vraie ou de métaphysique. Enfin, grâce au conditionnement et à l’organisation intégrale de leur existence, les sujets de l’Etat Mondial n’éprouvent aucune des préoccupations ou des angoisses liées à l’exercice de la liberté. Ils n’ont pas à réfléchir à ce qu’il conviendrait de faire, on y a réfléchi à leur place. Ils n’ont pas à prendre de décisions, on a décidé pour eux. Ils n’ont pas de responsabilités : il leur suffit de suivre les « rails » de leur conditionnement et de se laisser vivre, totalement pris en charge par leurs supérieurs et par une société qui les gave de biens de consommation, de divertissements abêtissants, de plaisirs…

 

Un bonheur avilissant

 

              La conception uniquement matérialiste du bonheur, appliquée dans le Meilleur des Mondes grâce au totalitarisme utopique, conduit donc à faire de l’homme une sorte d’infirme affectif, intellectuel et spirituel. L’homme heureux, selon la définition de l’Etat Mondial, est un homme privé de la plupart de ses dimensions. C’est un homme dont on a détruit la vie intérieure, la capacité à s’interroger et à réfléchir par lui-même, l’essentiel de la sensibilité, et, pour une part, jusqu’à la conscience de sa propre personne. Car c’est en s’affrontant au monde pour satisfaire ses besoins et ses appétits, c’est en se trouvant en situation de décider ou de faire des choix que l’être humain se définit et prend conscience de lui-même. Dans l’univers de facilité du Meilleur des Mondes, où tout lui est donné, l’homme n’est donc guère en mesure de devenir vraiment conscient de sa vie et de son être.  Dans un tel univers, la volonté d’instaurer le bonheur matériel total se conjugue avec le refus utopique de l’individualité pour tendre vers une dépersonnalisation absolue des hommes.

 

              Et le plus dérisoire en tout cela est que l’habitant du Meilleur des Mondes n’est pas, au sens strict du terme, heureux. Malgré les mesures extrêmes prises pour assurer son bonheur, malgré tout ce qu’on a sacrifié d’humain en lui dans cet objectif, il n’est pas heureux : il est simplement insensibilisé. Grâce à une organisation adéquate de la société, grâce à la mise en place d’une nouvelle morale, on l’a privé de son affectivité en ne lui laissant que la seule sensualité. De ce fait, l’homme du Meilleur des Mondes n’est atteint par aucune peine, certes, mais il n’éprouve pas davantage de joie ; il ne ressent aucune satisfaction profonde, aucun bonheur véritable – nécessairement lié à la possibilité de connaître des sentiments intenses. C’est ce qui explique le malaise que ressentent les plus conscients des sujets de l’Etat Mondial, ceux dont le conditionnement a en partie échoué : de manière vague mais obsédante, ils souffrent de ne rien éprouver, sinon des jouissances physiques qu’émoussent la facilité et la répétition. Ils ont comme une terrible impression de manque, de vide, d’absence. Ils sont malheureux, sans passion ni drame, sans cause précise ; ils sont malheureux parce que, n’ayant aucun motif de l’être, ils n’en ont pas, non plus pour être heureux.

 

              Il y a là un paradoxe qui n’est qu’apparent ; en effet, toute la psychologie, classique ou moderne, montre qu’il n’est rien de pire pour la personne humaine que l’indifférence, l’insensibilité. Rien de pire pour l’homme que le fait, véritable image de la mort, d’ignorer les émotions et les sentiments. Rien de pire que le « bonheur » par le vide… c’est ce vers quoi tend malheureusement la société d’aujourd’hui… Le Meilleur des Mondes d’Aldous Huxley, roman de science-fiction certes mais métaphore de la société du futur. C’est une satire de la science et de l’économie moderne dont nous pouvons observer les directions possibles, et/ou les choix qui se présentent à notre époque, comme autant de « futurs probables » nous menant vers l’horrible société du Meilleur des Mondes.

 

Une science qui modifie l’homme

 

            Les différences de développement entre les divers aspects matériels de la vie quotidienne dans le Meilleur des Mondes se retrouvent, à un tout autre niveau, dans la façon dont Huxley imagine l’évolution des sciences elles-mêmes. Ainsi, il néglige la physique, l’optique ou la mécanique, qui ne semblent guère avoir progressé à l’ère fordienne par rapport à ce qu’elles étaient vers 1930 ; en revanche, il est fort prolixe sur une biologie, une génétique, une médecine et une psychologie du futur qu’il nous montre comme s’étant considérablement développées. C’est que, une fois de plus, Huxley fait des choix. Il privilégie ce qui rend possible l’instauration du Meilleur des Mondes (ou d’un système comparable) ; il s’intéresse donc presque exclusivement aux sciences qui permettent de modifier l’homme, de l’adapter à un tel type de société.


 

Matrix-pic3



            D’ailleurs, dans la préface du roman, Huxley précise : « Le thème du Meilleur des Mondes n’est pas le progrès de la science en tant que tel ; c’est le progrès de la science en tant qu’il affecte les individus humains… (…) Les seuls progrès scientifiques qui y soient spécifiquement décrits sont ceux qui intéressent l’application aux êtres humains des recherches futures en biologie, en physiologie et en psychologie ». Huxley s’attache essentiellement aux sciences de la vie parce que « c’est uniquement au moyen des sciences de la vie que la qualité de la vie pourra être modifiée radicalement ». Ce sont ces sciences qui pourront qui peuvent changer l’homme dans sa réalité profonde – physique ou mentale. Voilà pourquoi Huxley anticipe assez audacieusement les progrès du Meilleur des Mondes en matière biologique et psychologique.

 

 

Matrix184

 

 

 

 

            Toutefois, même dans ces domaines, la science du Meilleur des Mondes n’est pas une science de fantaisie. Parfaitement au fait, en raison de sa formation initiale et de sa fréquentation des milieux de chercheurs, des avancées scientifiques de son époque, Huxley décrit des savoirs futurs qui sont dans le droit fil de ceux de son temps. Il anticipe, prévoit et prédit plus qu’il n’imagine. Nous nous contenterons d’indiquer, de façon générale, qu’aucune des « merveilles » technologiques ou scientifiques de l’univers de l’ Etat Mondial, y compris l’ectogenèse, n’est en contradiction avec les conceptions scientifiques de base du premier tiers du XXe siècle (ni à plus forte raison avec celles d’aujourd’hui).

 

 


Matrix185
 

 

            Il n’y a, au fond, rien là que de très logique : Huxley ne cherche pas à faire rêver le lecteur sur une science de fantasmagorie aux pouvoirs féeriques ; il entend au contraire l’inciter à réfléchir sur les connaissances réelles de son temps ; il s’interroge d’ailleurs moins sur la science elle-même que sur sa place dans la société, son devenir, sa logique, ses possibles applications.

.../...


 

 

 

 

 

 

 

Repost 0
26 février 2010 5 26 /02 /février /2010 18:28
Le Meilleur des Mondes

 

 

Essai sur l’avenir possible de l’Humanité

 

 

 

LA02

 

 

« A chaque époque, la science voudrait dévorer une vérité qui la gêne. » Comte de Gobineau.

 

              Le Meilleur des Mondes, de l’écrivain anglais Aldous Huxley, c’est d’abord un titre connu, celui d’un des plus grands succès romanesques du XXe siècle. Mais c’est aussi un titre qui, a priori, mérite quelques explications.

              Le titre original, anglais, du roman, Brave new world, est emprunté à une pièce de Shakespeare, La tempête. Il signifie « nouveau monde admirable » : c’est l’exclamation que pousse Miranda, jeune fille élevée dans la seule compagnie de son père Prospero, sur une île déserte, quand elle voit débarquer sur le rivage des inconnus, d’autres gens venus d’ailleurs. Mais Huxley emploie la formule ironiquement, par antiphrase. Car si le thème central du Meilleur des Mondes consiste dans l’évocation d’une société future, d’un « nouveau monde » en quelque sorte, ce « nouveau monde » n’est admirable qu’en apparence. En réalité, il est atroce, terrifiant.

              Le traducteur français, Jules Castier, a su trouver à l’ironique titre en langue anglaise un remarquable équivalent dans le domaine culturel français : l’expression « le Meilleur des Mondes » renvoie en effet à la célèbre satire que fait Voltaire dans Candide de la philosophie dite « optimiste » de Leibniz (1646-1716), ce penseur allemand du XVIIe et du début du XVIIIe siècle qui prétendait que, Dieu ne pouvant être mauvais, toute société est forcément la meilleure possible en regard des événements qui l’ont précédée et du contexte dans lequel elle s’inscrit. A l’instar du titre anglais, la formule « le Meilleur des Mondes » doit donc s’entendre à contresens : le Meilleur des Mondes est le Pire des Mondes ! Et le futur que décrit le roman est le pire des futurs, une « horreur », un « cauchemar », pour employer les propres termes d’Huxley !

 

L’organisation du Meilleur des Mondes

 

              Le Meilleur des Mondes est avant tout la description d’une société imaginaire que l’auteur présente comme le possible aboutissement de certaines tendances du monde moderne. Le roman d’Huxley appartient donc à la tradition philosophique et littéraire de l’Utopie. Si cette tradition remonte à l’Antiquité, le terme lui-même a été forgé à partir du grec au XVIe siècle par l’écrivain Thomas More qui en a fait le titre de son œuvre la plus célèbre, Utopia ; ce terme signifie exactement « nulle part ». Ce qui est logique, puisque les utopies se consacrent à l’invention de sociétés idéales qui n’existent donc « nulle part » dans la réalité – mais que les auteurs situent souvent, pour les besoins de l’ouvrage, dans quelque lieu fictif et conventionnel (île, vallée inaccessible) ou dans un lointain futur.




agecristal13

 

              Ces formes imaginaires d’organisation sociale sont généralement érigées par leurs auteurs en modèles – modèles que, selon eux, les hommes devraient s’efforcer d’appliquer. Il peut donc sembler paradoxal de ranger parmi les utopies la société du Meilleur des Mondes dont Huxley fait davantage un repoussoir qu’un objectif. C’est pourtant le mot d’ « utopie » qui lui a toujours servi pour désigner ce type de société, en particulier dans la préface de 1946. Et en y regardant de plus près, on constate que cette organisation sociale présente la caractéristique majeure de l’utopie : elle constitue un système.

              Ce qui implique en effet l’utopie d’un simple programme politique, c’est qu’elle offre un projet de société global et détaillé à la fois – il faudrait dire une société toute faite. Car l’utopie entend définir tous les aspects de la vie humaine, y compris les plus modestes. Or la société dépeinte par Huxley dans Le Meilleur des Mondes forme bien un système dont les moindres composantes ont été entièrement pensées, entièrement organisées : elle répond sans conteste à la définition de l’utopie. Toutefois, dans l’œuvre, les caractéristiques de cette société n’apparaissent au lecteur que de façon progressive et fragmentaire, selon les développements de l’action romanesque (même si les trois premiers chapitres en décrivent les aspects les plus significatifs).

              Aussi nous a-t-il paru utile de rassembler ces éléments épars et de proposer ici un tableau d’ensemble, résumer aux faits les plus marquants, de la structure sociale, des mœurs et des institutions du Meilleur des Mondes.

 

  

Blade Runner city                 blade5


 


 

 

 

Une société hiérarchisée

 

              La société du Meilleur des Mondes est essentiellement inégalitaire puisqu’elle repose sur un système de castes.

              Cinq castes principales désignées par les cinq premières lettres de l’alphabet grec (alpha, bêta, gamma, delta et epsilon) se subdivisent à leur tour en sous-groupe (par exemple, alpha plus plus, alpha plus, alpha moins, etc.) A chacune de ces catégories correspondent des niveaux de responsabilités et des types de profession bien définis.




THX-1138-001              thx01


 

              Les Alphas constituent la classe supérieure : ils occupent les plus postes les plus importants, ils exercent les métiers réclamant une formation intellectuelle poussée. Au-dessous d’eux, le rang social des divers groupes s’abaisse progressivement, jusqu’aux Epsilons, réduits aux tâches les plus humbles, purement physiques et répétitives. En dehors des Alphas qui constituent l’élite dominante, et des Bêtas qui forment une sorte de classe moyenne, c’est par conséquent la grande majorité de la population qui appartient aux trois castes inférieures. Une société aussi hiérarchisée ne peut se maintenir que dans la mesure où elle s’appuie sur la reproduction artificielle (ou ectogenèse) et sur un conditionnement sans faille de ses sujets.

 

Une humanité artificielle

 

              Le Meilleur des Mondes ignore la reproduction naturelle. Les femmes sont rendues stériles (on les désigne alors par le terme de neutres) ou éduquées à des pratiques contraceptives systématiques. Des ovaires excisés à l’état vivant sont conservés grâce à des techniques appropriées ; c’est par fécondation artificielle des ovules qu’ils produisent que sont obtenus les embryons. Ensuite, ces derniers se développent dans des flacons où l’on a reconstitué les conditions d’une grossesse naturelle. Toutefois, avant même la fécondation, les ovules et le sperme utilisés ont été choisis de qualité biologique très différente selon la future appartenance sociale des êtres humains qu’ils permettront d’obtenir. En gros, ovules et sperme « donnés » par les sujets d’une caste servent à produire les nouveaux sujets de cette caste. Il y a donc une certaine continuité génétique globale entre les différentes générations de chaque caste – même s’il n’y a pas continuité sociale au sens strict puisque, précisément en raison, entre autres, de l’ectogenèse, la famille a disparu du Meilleur des Mondes. Après la fécondation, l’inégalité génétique initiale est encore accentuée : par toute une série d’interventions biologiques ou chimiques, les embryons, les futurs bébés sont déjà dotés d’aptitudes physiques ou intellectuelles très diverses, déterminées en fonction de la place qui leur sera attribuée dans la société.

 



Matrix183

 

              Seuls les Alphas et les Bêtas sont des individus uniques issus d’embryons uniques. Les travailleurs des basses castes, quant à eux, sont obtenus grâce au procédé Bokanovsky (du nom du savant imaginaire qui est censé l’avoir mis au point). Ce procédé consiste à soumettre l’œuf, au tout début du processus de gestation, à une série de traitements qui le font proliférer. Et cela afin de produire à partir d’une même souche un nombre important de jumeaux vrais – absolument identiques et de ce fait plus aptes à être intégrés dans un travail à la chaîne entièrement rationalisé.




 

Matrix-pic2

 

 

 

 

              En outre, par des insufflations plus ou moins importantes d’oxygène dans les embryons, on obtient des sujets d’une intelligence plus ou moins développée. Bêtas et surtout Alphas bénéficient d’une oxygénation importante. Les fœtus des autres castes, en revanche, reçoivent des quantités d’oxygène inférieures à la normale. « Plus la caste est basse (…) moins on donne d’oxygène. Le premier organe affecté, c’est le cerveau », précise l’ingénieur biologiste Henry Foster. Qui plus est, les embryons des castes inférieures sont traités à l’alcool et avec certains autres poisons biologiques afin d’entraver leur développement. Au plus bas de l’échelle, les êtres ainsi obtenus ne sont plus tout à fait humains mais encore capables d’accomplir des travaux de force ou des besognes répugnantes. Et leur psychisme amoindri – les Epsilons adultes ont dix ans d’âge mental – les rend inaptes à la moindre réflexion personnelle, à une possible prise de conscience de leur sort. Ils ne souffrent pas des tâches abrutissantes qu’ils doivent effectuer : leur esprit a été conçu pour se satisfaire de ces tâches.




blade runner mariee1                  Blade Runner replicants

 

              On le voit, l’ectogenèse permet de produire des types d’hommes standardisés correspondant aux diverses castes. La hiérarchie sociale peut alors s’appuyer sur des différences mentales et physiques précises, étudiées avec le plus grand soin. Mais l’ectogenèse permet aussi de préparer physiologiquement les fœtus au métier qui sera le leur à l’âge adulte. Au chapitre I, consacré à la visite du Centre d’Incubation et de Conditionnement de Londres, Huxley décrit plusieurs des procédés employés pou aboutir à un tel résultat. Nous n’en citerons qu’un à titre d’exemple, puisqu’ils reposent tous sur le même principe. Les récipients contenant certains embryons traversent en alternance des tunnels chauds et des tunnels rafraîchis. Dans les premiers, les embryons reçoivent un afflux d’oxygène et de sang artificiel, d’où une sensation de bien-être qu’ils associent à la chaleur. Dans les seconds, la fraîcheur, qui est en elle-même mal tolérée par les fœtus, est « alliée à d’autres désagréments sous forme de rayons X durs ». Lorsqu’ils naissent, les bébés en question ont « horreur du froid » et ils adorent la chaleur. Ils sont « prédestinés à émigrer dans les tropiques, à être mineurs, tisserands de soie à l’acétate et ouvriers dans les aciéries » - bref à des travaux ou situations où ils seront exposés aux plus fortes chaleurs.  

 

 

 

 

 

Une société « robotisée »

 

              Après la naissance, le conditionnement physique que nous venons d’évoquer est complété par un conditionnement psychologique poussé dont le but est de parfaire encore l’adaptation de chaque individu à la place qui sera la sienne dans la société. Les enfants apprennent à n’aimer que leur futur travail et que la caste dont ils font partie. L’hypnopédie – ou enseignement pendant le sommeil – constitue la pièce maîtresse de cet apprentissage.

 



Art-SC2                          New-Order-4


   

  

              Nuit après nuit, de brèves leçons pré-enregistrées sont indéfiniment répétées par des sortes de magnétophones placés sous l’oreiller des enfants endormis. Ces messages – certains sont l’objet de plus de soixante-deux mille répétitions – modèlent l’esprit des enfants : d’une part, ils leur font aimer la fonction qui leur est dévolue dans l’organisation sociale ; d’autre part, ils leur font accepter, comme évidents et totalement indiscutables, les principes et les règles du Meilleur des Mondes. Par la suite, il sera en théorie impossible aux sujets de l’Etat Mondial de se comporter contrairement aux normes établies, de se poser des questions ou de désirer une autre situation sociale que la leur. Programmés par leur conditionnement, ces humains de l’avenir sont en quelque sorte des robots vivants.                      

 

 

              Précisons toutefois que ce conditionnement est plus ou moins fort selon la caste à laquelle appartient le sujet. Plus la caste est basse, plus le conditionnement est poussé. Ainsi, les Epsilons, qui sont chargés des travaux pénibles, subissent un conditionnement total qui les réduit presque à l’état de machines. En revanche, à l’autre extrémité de l’échelle sociale, les Alphas, qui peuvent être amenés à prendre des responsabilités, reçoivent un conditionnement, assez faible, conçu pour ne pas modeler entièrement leur esprit et pour leur laisser une certaine marge d’autonomie, d’initiative individuelle. Mais le conditionnement est toujours, en théorie, assez efficace pour prévenir, même chez les Alphas, toute tendance à des aptitudes trop « personnelles » et toute velléité de contestation. 

 

 

 

 

 

  

Une société de facilité

 

              Dans le Meilleur des Mondes, la soumission à l’ordre social est d’autant plus forte que cet ordre assure à ses sujets d’excellentes conditions de vie. Tout est conçu pour rendre l’existence la plus agréable, la plus facile possible. La famille a disparu, du fait de l’utilisation exclusive de l’ectogenèse, ce qui permet « la copulation sans restriction », une liberté sexuelle totale. Cette licence sexuelle, autant qu’un droit, est d’ailleurs devenue presque un devoir civique : quand on s’adonne sans cesse aux plaisirs de la chair, on n’a guère l’occasion de contester les pouvoirs établis ou le monde tel qu’il va !               


 

              Tel est bien le but des dirigeants : en dehors du temps de travail, distraire leurs sujets de toute réflexion en multipliant les occasions de rapports sexuels, les jeux, les activités sportives, les divertissements. La société offre à tous, y compris aux membres des plus basses castes, un éventail extraordinaire de loisirs : tout le monde est pris dans ce tourbillon et personne n’a un instant à arracher au plaisir pour penser, réfléchir, s’interroger.

              Enfin, dernier recours de l’ordre social contre des doutes éventuels et une toujours possible sensation de malaise, il y a le soma : une drogue euphorisante d’une efficacité absolue qui dissipe tout sentiment d’inquiétude ou d’angoisse.

 

Des loisirs abêtissants

 

              En fin de compte, ce n’est que dans le domaine des distractions et des instruments de loisirs qu’Huxley fait preuve d’une certaine invention. Il a doté ainsi le Meilleur des Mondes :

              - d’orgues à couleurs que l’on trouve dans les lieux de plaisir et qui composent sur les murs des motifs abstraits ou des paysages aux teintes éclatantes, comme « un coucher de soleil tropical »,

              - d’orgues à parfums qui mêlent et alternent de subtiles senteurs selon une organisation quasi musicale, comparable à celle d’une symphonie ou d’un concerto,

              - d’un cinéma ultra-perfectionné, non seulement musical, parlant, en relief et en couleurs, mais encore sentant, c’est-à-dire capable de procurer aux spectateurs les sensations éprouvées par les protagonistes du film – chocs, contacts, douleur et même excitation sexuelle, traduite par « un plaisir galvanique presque intolérable »,

              - de « voix synthétiques » aux prouesses étourdissantes et aux vibrations étudiées pour produire sur l’auditoire l’effet recherché (enthousiasme, joie, attendrissement, qualités hypnotiques rendent propres à tous les usages, qu’il s’agisse des spectacles ou du conditionnement dont elles constituent un des outils privilégiés.

 

 



Blade Runner city4


 

              On aura sans doute remarqué que les loisirs que nous venons d’énumérer ne s’adressent jamais à l’esprit, ni même à la sensibilité. Les bouffées odorantes des orgues à sonorités pénétrantes des voix synthétiques, les films sentants, jouent plutôt sur les sens, sur les nerfs – sur ce qu’il y a de plus élémentaire, de plus grossier chez l’être humain. Ces loisirs contribuent ainsi à faire des habitants du Meilleur des Mondes des êtres à l’intelligence et à la sensibilité réduites. Ils prolongent le conditionnement, ils comptent parmi les moyens qui permettent de rendre dociles les sujets de l’Etat Mondial.

            Et c’est précisément dans la mesure où ces distractions ont une fonction politique aussi importante dans le Meilleur des Mondes qu’Huxley imagine avec une invention particulière les instruments qu’elles nécessitent. Même si, là encore, il se contente parfois de « perfectionner » certains procédés qui existaient déjà dans les années 1920.

.../...



 


 

 

 

 

 

 

 

 

Repost 0
26 février 2010 5 26 /02 /février /2010 17:16

Ovnis la fin du tabou

 

Tournant capital dans l’étude des ovnis : des scientifiques de toutes disciplines ont récemment admis qu’il n’était pas illégitime de les examiner sans a priori. La quête des civilisations extraterrestres prend dès lors une nouvelle ampleur, et on cherche même à les dénombrer.

 

 landcash

 

 

Il y a moins de quatre ans, les astronomes ignoraient s’il existait des planètes en orbite autour d’étoiles comme le Soleil. Aujourd’hui, treize planètes extérieures au système solaire ont été détectées autour d’étoiles, distantes de moins de 150 années-lumière. Leur découverte constitue la première vraie piste pour chercher la vie ailleurs. Car un fait est désormais établi : une proportion non négligeable d’étoiles possèdent des planètes, c’est-à-dire les seuls astres dont on sait avec certitude qu’ils sont capables d’abriter la vie. Si l’on considère que la Voie lactée, notre galaxie, contient environ 200 millions d’étoiles et qu’il y a dans le cosmos autant de galaxies que de grains de sable sur une planète, la question vaut que l’on s’y arrête. Déjà, les astronomes imaginent les instruments qui, demain, leur permettront de trouver d’autres planètes.

 

Si la vie existe ailleurs, rien n’interdit d’imaginer qu’elle soit évoluée et intelligente. C’est l’un des postulats du programme SETI (Search for extra-terrestrial intelligence, recherche d’intelligence extraterrestre). A l’aide de puissants radiotélescopes, des astronomes auscultent méthodiquement des milliers d’étoiles afin de vérifier si une émission peut être attribuée à une civilisation technologiquement avancée.

 

Est-il déraisonnable d’envisager que, parmi ces éventuelles civilisations, certaines aient atteint un stade d’évolution technique bien supérieur au nôtre ? Au point d’être à même de nous rendre visite ? A l’extrême limite du raisonnement, si un tel fait est possible, ne s’est-il pas déjà produit ? Et, en observant des phénomènes qualifiés d’ovnis, certaines personnes n’auraient-elles pas assisté à l’arrivée d’êtres venus d’ailleurs ?

 

Un observateur privilégié

 

Pour Jean-Jacques Vélasco, chef du Service d’expertise des phénomènes de rentrée atmosphérique (SEPRA) au Centre national d’études spatiales (CNES), l’idée n’a rien de saugrenu : « Aujourd’hui, la connexion scientifique entre la vie extraterrestre et les ovnis ne peut être établie. Mais l’hypothèse ne saurait être rejetée. » Occupant depuis des années un poste d’observation privilégié des phénomènes ovnis qui ont eu lieu au-dessus du territoire français, Jean-Jacques Vélasco a mené de nombreuses enquêtes sur des cas de toute nature, dont la majorité est plus ou moins vite élucidée.

 

Cependant, environ 40 % des observations communiquées au SEPRA n’ont pu être identifiées. « La plupart des descriptions s’insèrent dans les lois de la perception. Les témoins observent des objets de forme discoïdale, qui se déplacent sans bruit selon des trajectoires bizarres, avec parfois d’autres caractéristiques étonnantes. Ce sont des phénomènes physiques, puisque, dans certaines circonstances, des capteurs – le plus souvent des radars – les enregistrent. » Les quelques occasions où les observations des témoins ont pu être recoupées par des observations d’instruments prouvent la matérialité physique des phénomènes.

 

 

 pocantico

 

 

Le sujet mérite donc d’être étudié scientifique. C’est la conclusion d’une assemblée de scientifiques de diverses disciplines et de diverses nationalités réunis en colloque à Pocantico (Etat de New York, Etats-Unis), du 29 septembre au 4 octobre 1997, à l’initiative de la fondation Rockefeller. Sous la direction de Peter Sturrock, professeur de physique appliquée à l’université Stanford (Palo Alto, Californie), ces chercheurs ont examiné quelques-uns des cas les plus troublants.

 

Cinquante ans après la première observation de « soucoupes volantes » par l’Américain Kenneth Arnold, ils ont estimé que les informations sur les ovnis méritaient d’être examinées avec objectivité, de manière à peser toutes les hypothèses. Cette conclusion marque un tournant. Car l’étude des ovnis a toujours été perturbée par des discours subjectifs dont le seul but était de démontrer telle ou telle doctrine. Pendant de longues années ont fleuri des associations ufologiques défendant diverses thèses. Du « complot universel » au « ils sont parmi nous », en passant par l’émergence de sectes, sans oublier les efforts de désinformation des armées, ces phénomènes étaient entourés de passion. Aujourd’hui, le discours a gagné en sérénité.

 

Il est bien tôt pour dire si le colloque de Pocantico débouchera sur la mise en œuvre de recherches. Mais il reflète peut-être cette évolution. Si les participants ont pris soin de noter qu’ils n’étaient pas convaincus de l’implication d’intelligences extraterrestres, cette hypothèse n’a pas été balayée d’un revers de main.

 

Voyages sans retour

 

En 1990, les astronomes français Jean-Claude Ribes et Guy Monnet avaient poussé cette idée jusqu’au bout. Etait-elle vraiment envisageable ? En ne quittant pas le cadre de la physique connue, un problème de taille s’opposait d’emblée à la venue de vaisseaux spatiaux extraterrestres au voisinage de la Terre : les distances entre les étoiles. Si l’on admet que la vitesse de la lumière (environ 300.000 km/s) ne peut être dépassée, le voyage à partir d’une étoile proche prendrait des siècles.

 

 

 ovni en attente

 

 

« Nous nous sommes donc demandés ce que nous, Terriens, ferions si nous voulions aller vers les étoiles, dit Jean-Claude Ribes. A condition de disposer d’un moyen de locomotion assez rapide, des humains pourraient s’embarquer dans des vaisseaux pour des voyages si longs qu’ils seraient sans retour. Après tout, cela s’est déjà produit : c’est à la suite de voyages sans retour que l’ensemble de la Terre a été colonisé par l’être humain. Or, si nous sommes capables, dans quelques siècles, d’aller vers les étoiles, pourquoi d’autres n’auraient-ils pu le faire ? »

 

Cette hypothèse envisage donc la discrète présence, quelque part dans le système solaire, d’extraterrestres dont les incursions sur la Terre prendraient parfois la forme d’ovnis. Pour Jean-Claude Ribes, ces visiteurs pourraient avoir élu domicile dans la ceinture d’astéroïdes et choisi de ne pas venir s’ingérer dans les affaires terriennes : « Attention, je ne dis pas que c’est le cas ! Simplement, c’est une hypothèse qui, dans le cadre de la science, pourrait expliquer la nature extraterrestre de certains ovnis. »

 

Les astronomes possèdent-ils les moyens de le vérifier ? « Cela a été tenté aux Etats-Unis, dit Jean-Claude Ribes. Des crédits avaient été octroyés à l’astronome Mike Papagiannis pour qu’il cherche dans les données du satellite IRAS, des sources aux alentours de 25° C – température compatible avec la vie -, trahissant une présence extraterrestre. Mais, faut de crédits, il a abandonné ses travaux au bout de quelques mois. »

 

Signal radio extraterrestre

 

Aujourd’hui, d’autres recherches pourraient sans doute être menées par des observations en radio où même en optique. Quoi qu’il en soit, rien ne permet de dire à l’heure actuelle que les ovnis ont un lien avec des extraterrestres. Et, si l’approche de Jean-Claude Ribes et Guy Monnet peut indiquer les directions à suivre, elle ne présume pas la probabilité d’une vie intelligente ailleurs dans l’Univers.

 

En avril 1960, l’astronome américain Franck Drake tenta, pour la première fois, de capter un signal radio extraterrestre. Disposant d’une antenne parabolique de 25 m de diamètre à Green Bank (Virginie Occidentale), il avait calculé que celle-ci était assez sensible pour détecter une émission artificielle dans un rayon de 10 années-lumière autour du Soleil. Dans cette sphère se trouvaient deux étoiles de type spectral proches du Soleil : Tau Ceti et Epsilon Eridani. Il pointa sans succès l’antenne dans leur direction.

 

 

 SETI search

 

 

Mais, contrairement aux autres, cette tentative déboucha sur une réflexion. L’année suivante, Drake se demanda quelles incertitudes il faudrait lever pour évaluer le nombre de civilisations extraterrestres existant dans la Galaxie. A quels facteurs tenaient l’apparition de la vie et son développement jusqu’à un stade technologique ? Il rédigea le fruit de ses réflexions sous la forme d’une équation devenue célèbre par la suite, dont le résultat N, est le nombre probable de civilisations extraterrestres.

 

Cet essai prenait en compte les paramètres de divers domaines scientifiques tels que l’astronomie, la chimie organique, la biologie, mais aussi ceux de l’histoire, de la politique et de la psychologie. Franck Drake aboutissait à un résultat pessimiste : N = 10 pour la Galaxie. En fait, hormis le premier facteur de son équation (le nombre d’étoiles de la galaxie), tous les autres peuvent avoir n’importe quelle valeur, et l’équation peut déboucher sur toutes les solutions entre (puisque la Terre et l’humanité existe) et des centaines de millions.

 

L’un des moyens de préciser le nombre de civilisations techniquement avancées de la Galaxie consiste à écouter, à l’aide de puissants radiotélescopes, le plus grand nombre d’étoiles possible. C’est le programme SETI lancé en 1992, grâce aux fonds de la NASA. L’année suivante, une chute vertigineuse des crédits contraignit les astronomes à trouver des financements privés. Aujourd’hui, le programme se poursuit.

 

« L’équation de Drake est une bonne base », disait il y a un an l’astronome Jean Heidmann, impliqué dans SETI à l’observatoire de Paris-Meudon. « Bien sûr, les chances de découvrir quelque chose sont extrêmement minimes : il faudrait tomber sur la bonne étoile au bon moment et écouter sur le bon canal. Mais l’expérience doit se poursuivre au cours du XXIe siècle, car si dans un laps de temps de quelques années nous trouvons un seul signal, statistiquement, cela signifiera que nous en trouverons d’autres par la suite. »

 

 

 SetiInstitute

 

 

Actuellement SETI se poursuit selon deux modes : par des campagnes qui monopolisent quelques radiotélescopes à plein temps pendant plusieurs jours, et par des écoutes en parallèle au cours des observations d’autres radioastronomes. En accumulant les heures d’écoute, les défenseurs du projet espèrent détecter un jour une émission artificielle, volontaire ou non.

 

Selon le même principe, d’autres émissions peuvent être traquées. « Les Russes ont tenté de trouver des flashes optiques issus de lasers très puissants, dit Jean Heidmann. Cela pourrait être un mode de communication entre étoile et planètes. En dix-huit ans d’observation à l’aide de leur télescope de 6 m, ils ont suivi deux cents objets, hélas ! Sans résultat. » Il est vrai qu’en cas d’émissions par laser il faudrait se trouver dans la ligne de visée du flash pour l’apercevoir.

 

Après 1995, et la confirmation que des planètes gravitent autour de certaines étoiles, les radiotélescopes de SETI ont écouté des cibles plus privilégiées : les étoiles à planètes. « Nous avons visé 51 Pegasi et 47 Ursae Majoris, dit François Biraud, mais toujours sans succès. » Certains astronomes sont franchement hostiles à SETI. D’autres sont simplement sceptiques sur les chances de succès de l’entreprise, comme Jean Schneider (Observatoire de Paris-Meudon), pour qui « SETI ressemble à de la pêche à la ligne. On peut ne rien trouver pendant des milliers d’années ».

 

Pour Philippe Zarka, radioastronome à Paris-Meudon non impliqué dans SETI, « en Europe cela ne coûte rien et cela ne fait de mal à personne. D’autant que les récepteurs de SETI se branchent en parallèle et ne prennent pas de temps aux autres recherches. L’idée n’est pas stupide. De plus, elle comprend une part de ce rêve que manque parfois aux scientifiques ». En attendant que l’hypothèse extraterrestre des ovnis soit explorée et que les récepteurs de SETI frémissent d’un message intelligent, que reste-t-il aux chasseurs de vie dans l’Univers ? Ils peuvent tenter de réduire l’incertitude qui plane sur chacun des termes de l’équation de Drake. Cette tâche a déjà commencé avec les recherches de planètes extrasolaires.

 

 

 seti1

 

 

« Pour l’instant, nous évaluons à 5 % le nombre d’étoiles de type spectral voisin du Soleil qui ont des planètes géantes, dit Jean Schneider. Mais nous n’avons toujours aucune idée de la proportion de planètes telluriques. De plus, ce pourcentage n’est valable que dans un rayon de 50 parsecs autour du Soleil. Reste-t-il exact au centre de la Galaxie ou dans les autres bras spiraux ? Nous n’en savons rien. Mais, même dans le cas le moins favorable, il y a tant d’étoiles qu’il s’en trouvera toujours au moins un milliard pour posséder des planètes de type jovien. »

 

Tout en poursuivant ses recherches, Michel Mayor, l’astronome suisse qui a découvert la première planète extrasolaire autour de 51 Pegasi, par variation de la vitesse radiale de l’étoile, essai de comprendre les caractéristiques des systèmes planétaires connus. « Jusqu’à présent, dit-il, la moitié des planètes que nous avons découvertes sont étonnamment proches de leur étoile. » Cela signifie que ces géantes, qui, selon les modèles, n’ont pu se former qu’à une grande distance de leur étoile, ont migré, vraisemblablement à cause d’une interaction avec le disque de poussières dans lequel elles traçaient leur orbite.

 

Pour l’Américain Geoffrey Marcy, autre découvreur de planètes, « ce pourrait être le premier signe que les planètes comme la Terre sont rares et que, par conséquent, la vie l’est aussi ». Lors du phénomène de migration des planètes géantes vers leur étoile, les planètes rocheuses comme la Terre ou Mars, vraisemblablement formées à l’intérieur de leur orbite, seraient détruites.

 

Plus de métal que sur le Soleil

 

D’autant que, selon Michel Mayor, l’analyse du spectre de ces étoiles pourrait confirmer l’hypothèse : « Nous remarquons que les étoiles accompagnées de planètes massives de courte période ont une métallicité importante, de l’ordre de deux à quatre fois celle du Soleil. Deux hypothèses semblent se dessiner. La première est que ce genre d’étoile naît de nébuleuses riches en métaux qui, selon les modèles, favorisent très vite la formation de planètes géantes. La seconde consiste à dire que la metallicité de l’étoile est due au fait qu’au cours de la migration des géantes les petites planètes rocheuses, envoyées sur des orbites instables, sont absorbées par l’étoile. Leur matière, certes infime, se serait étalée sur la surface de l’étoile, ce qui « falsifierait » la composition que nous voyons, par un excès de métallicité. »

 

 

 470-00091-02Large

 

 

Si cette piste se confirmait, elle réduirait les chances de découvrir – quand les moyens techniques le permettront – des planètes de type terrestre. « Pourtant, ajoute Michel Mayor, on ne peut exclure qu’il se forme des planètes rocheuses au-delà des géantes, une fois leur migration terminée. » Le prochain objectif des astronomes sera donc d’établir s’il existe des planètes qui ressemblent à la Terre. « En 2002, quand le satellite COROT sera lancé, il pourra détecter les occultations de 30.000 étoiles par des planètes telluriques d’un diamètre de l’ordre de deux fois celui de la Terre, annonce Jean Schneider.

 

Mais, déjà, l’espoir réside dans les grands interféromètres spatiaux du siècle prochain. Grâce au projet européen Infrared space interferometer, les astronomes pourront observer trois cents étoiles proches et y déceler des planètes de la taille de la Terre. Ils auront même la possibilité d’établir le spectre des planètes découvertes, ce qui les renseignera sur la température de surface, sur la présence ou l’absence d’une atmosphère et sur sa composition.

 

L’image de ces planètes sur les clichés ne serait pas plus grosse qu’un point lumineux, mais elle serait riche d’enseignements : « Nous pouvons espérer suivre les variations saisonnières de température, di Jean Schneider. De même, si nous trouvions de l’ozone, qui est a priori un sous-produit de l’activité biologique, nous aurions de fortes présomptions de l’existence d’une forme de vie. »

 

Une armada de télescopes géants

 

Si de telles recherches commençaient vers 2015, il faudrait patienter avant d’obtenir une image de la surface de ces nouveaux mondes. En effet, pour observer un détail de 100 km à 10 années-lumière de distance, il faut disposer d’un interféromètre de 100.000 km de base. Ce qui implique le lancement d’une armada de télescopes géants sur toute l’orbite de la Terre.

 

En attendant, les exobiologistes réfléchissent à une question essentielle : la vie surgit-elle systématiquement chaque fois que les conditions de son apparition sont réunies ? Car les conditions qui régnaient sur la Terre il y a quelques milliards d’années ne sont pas exclusives de notre planète. Mars était dans le même cas. S’il existe de nombreuses planètes dans la Galaxie, il y a des chances que le phénomène se soit souvent produit.

 

 

 

 clip image010              1178779222 gazette

 

 

" Le problème tient à la complexité minimale des premiers organismes vivants », avance André Brack, spécialiste de chimie pré-biotique au CNRS, à Orléans. « S’il faut peu de ‘pièces détachées’ pour fabriquer une entité capable de se reproduire, alors la vie apparaît chaque fois que les conditions sont réunies. Au contraire, si un million de pièces détachées sont requises, l’apparition de la vie devient très aléatoire. Et, même avec un million de planètes, nous sommes peut-être seuls. »

 

 

 avatar 8-43b61               socorro painting

 

 

Pour l’instant, les tests de laboratoire ne permettent pas de trancher. C’est pourquoi les exobiologistes se tournent vers les astronomes : la découverte de la vie ailleurs fournirait une indication importante. Plus qu’une véritable formule mathématique, l’équation de Drake est l’exposé d’une stratégie scientifique de recherche de la vie dans l’Univers. Les questions qui se posent sont énoncées dans un ordre logique. Les astronomes et les biologistes ont déjà entrepris de répondre aux premières…

 

L’équation de Drake

 

L’équation de l’astronome américain Franck Drake vise à évaluer le nombre probable (N) de civilisations dans la Voie lactée. Elle se présente sous la forme du produit des facteurs suivants : N* = nombre d’étoiles dans notre galaxie ; fp = fraction du nombre d’étoiles possédant un système planétaire ; ne = nombre de planètes d’un système donné où la vie est possible ; fl= fraction du nombre de planètes sur lesquelles la vie est effectivement apparue ; fi = fraction du nombre de planètes habitées sur lesquelles s’est développée une forme de vie intelligente ; fe = fraction du nombre de planètes habitées par des êtres intelligents sur lesquelles existe une civilisation technique de communication ; fL = fraction de la durée de vie planétaire accordée à une civilisation technique. Tous les f sont des fractions dont la valeur est comprise entre 0 et 1. L’équation s’écrit : N = N* x fp x ne x fl x fi x fe x fL.

 

  

seti-2

  

 

 

 

 

 

 

 

 

 

 

 

Repost 0
Orphée - dans Ovnis et Extraterrestres
26 février 2010 5 26 /02 /février /2010 16:47

La Porte des étoiles

 

Mystères ou conspiration ?

 

Depuis quelques décennies, on assiste dans le monde entier à un regain d’intérêt en masse pour la civilisation égyptienne et les rumeurs prophétiques concernant les pyramides. En effet, de nombreux spiritualistes du début du siècle ont parlé de salles mystérieuses creusées sous le Sphinx et les grandes Pyramides. Elles abriteraient des textes millénaires contenant les archives secrètes de la science de l’Egypte antique. Intrigués par ces rumeurs, de hauts dirigeants des Etats-Unis (CIA, etc…) se sont précipités sur les lieux, persuadés d’y trouver un dispositif millénaire appelé « Stargate » et qui permettrait de visiter de nombreuses planètes. Vérité ou conspiration ?...

 

 

9075 3

 

 

 

Héliopolis, sanctuaire du haut savoir

 

« Lieu de naissance » et « séjour d’élection » des dieux, Héliopolis est le plus sacré de tous les sites religieux d’Egypte. Là se dressent les temples d’Atoum, le dieu créateur, de Rê, le dieu-soleil, d’Horus, d’Isis, de Thoth et d’Hapi, le dieu du Nil. Au nombre des monuments les plus célèbres figurent monuments les plus célèbres figurent le palais de la grande Ennéade, ainsi que la Maison de Phoenix, à l’intérieur de laquelle se trouvait peut-être le ben-ben, une pierre sacrée (sans doute un fragment de météorite) qui était la relique la plus vénérée de toute l’Egypte.

 

Réputé pour sa sagesse et son érudition, le clergé d’Héliopolis se consacre aussi à la médecine et l’astronomie, ses grands prêtres portant le titre « d’éminent devin » c’est-à-dire d’astronome en chef. Leur réputation de sages et de savants se perpétue tout au long de l’Antiquité, et on la retrouve aussi bien à l’époque d’Hérodote (au Ve siècle avant J.-C.) qu’à celle de Strabon (au Ier siècle de notre ère). Leur prestige s’étend jusqu’en Grèce, et l’on dit que Pythagore, Platon Eudoxe de Cnide et Thalès, entre autres, ont étudié à Héliopolis.

 

A noter que le clergé comptait vraisemblablement des femmes dans ses rangs : une scribe du temple de Thot, datant de la IVe dynastie (sous laquelle ont été édifiées les pyramides de Gizeh), évoque ainsi une femme élevée à la dignité de « Maître de la Maison des Livres ».

 

L’Egypte, source de toutes les religions

 

On sait depuis longtemps que les Textes des Pyramides s’intéressent de près à l’astronomie, sans verser pour autant dans la superstition, ni s’en tenir à des conceptions archaïques, comme on le pense encore souvent dans les milieux universitaires, car ils décrivent en détail les mouvements des corps célestes, allant jusqu’à mentionner la précession des équinoxes, un cycle de quelque vingt-six mille ans que les Grecs auraient prétendument découvert au IIIe siècle avant J.-C. (en se trompant, de surcroît). Or, la civilisation égyptienne existait alors depuis au moins cinq mille ans. Dans cette perspective, le haut Moyen Age, où l’on croyait que la terre était plate, c’était hier… Mais ce qui ressort avant tout des Textes des Pyramides, c’est qu’en dépit de nos préjugés la religion en vigueur à Héliopolis était d’inspiration monothéiste, les multiples divinités (souvent représentées avec une tête d’animal) correspondant aux innombrables facettes de l’unique créateur : Atoum.

 

 

 pyramides               Daedalus in orbit

 

 

La religion d’Héliopolis professe l’union mystique avec les formes « supérieures » de la divinité, voire avec le Créateur suprême, Atoum en personne, au terme d’un processus décrit dans les Textes des Pyramides, et qui conduit l’âme à sa destination finale. Contrairement à l’opinion généralement répandue, nous ne pensons pas qu’il s’agisse là d’un privilège réservé au roi après sa mort, ni même aux défunts en général, mais que les Textes des Pyramides décrivent au contraire une technique secrète permettant à tout un chacun, homme ou femme, de rentrer en contact avec Dieu, et d’avoir par lui-même accès à une partie de ses connaissances, qu’il soit mort ou se livre simplement à une expérience de sortie hors du corps.

 

Telle est la religion « primitive » de l’Egypte antique, qui est gouvernée par la grande Ennéade, c’est-à-dire les Neuf Divinités, représentant la vie et la sagesse en général. Cette ancienne civilisation, trop souvent négligée et sous-estimée, même par nos doctes universitaires, continue à nous fasciner, et depuis l’Antiquité ses mystères nous interpellent.

 

Pourquoi tant de bruit autour des Pyramides de Gizeh ?

 

Mais à l’évidence il se trame quelque chose, et l’on assiste, de façon inexplicable, à un regain d’intérêt pour les secrets de l’Egypte, dont les ruines vénérables sont le théâtre d’une activité intense. On voit ici et là des gens et des organisations partir à la recherche des connaissances détenues jadis par ceux qui adoraient les Neuf Divinités, et qui sont aujourd’hui perdues, pour satisfaire les objectifs qui leur appartiennent. Ils sont donc sur le point de se lancer dans une entreprise titanesque, et qui risque de se terminer en catastrophe, car elle vise à détourner à leur profit les mystères de l’Egypte et même à tenter l’impensable : exploiter carrément les dieux !


 

 Sphinx2

 

 

On raconte tout et n’importe quoi sur le site de Gizeh. Il circule en permanence des rumeurs contradictoires faisant état de fouilles clandestines, de manœuvres diverses et variées pour étouffer l’affaire et – ce qui est de loin beaucoup plus excitant – de découvertes tenues secrètes mais susceptibles de changer la face du monde. Les bruits et l’agitation allèrent croissant, au fur et à mesure que l’on se rapprochait du troisième millénaire, en vertu d’une stratégie bien arrêtée. Quel est donc l’instigateur de cette campagne ? Et qui saura distinguer le vrai du faux, dans tout ce qui se dit sur la nécropole de Gizeh ?

 

Officiellement, il ne se passe rien sur le site de Gizeh, si ce n’est que la Grande Pyramide est fermée au public depuis le 1er avril 1998, car l’on procède à une réfection générale, ce qui en soi n’est pas absurde, l’haleine et la sueur des visiteurs pouvant effectivement s’avérer dommageables pour le monument. Sans compter qu’il faut procéder à des rénovations, comme celle de l’éclairage, par trop capricieux. Outre ces travaux d’entretien et de modernisation, nous tenons de bonne source (et ce ne sont pas les témoignages qui manquent) que l’on n reste pas inactif sur le site de Gizeh : on creuserait discrètement des galeries, entre autres, à l’intérieur de la Grande Pyramide, des groupes mystérieux se livreraient à des recherches clandestines pour retrouver des secrets et des salles légendaires, il se tramerait toutes sortes de complots…

 

A la recherche de la Porte des étoiles !

 

On ne saura peut-être jamais ce qui se passe exactement sur le site de Gizeh, depuis une trentaine d’années. La présence d’organismes aussi différents que l’ARE and Enlightenment (groupe spiritualiste dédié à Edgar Cayce) et le SRI (Standford Research Institute, sous contrat avec la CIA est spécialisé dans la recherche en parapsychologie) qui opèrent un singulier amalgame entre recherche scientifique et technologie de pointe d’un côté, et parapsychologie de l’autre, laisse penser que l’on poursuit là-bas des objectifs individuels, voire strictement personnels. Mais à y regarder de plus près, on s’aperçoit que les militaires et les services de renseignements sont directement impliqués.

 

 

 9075 2

 

 

Il court toutes sortes de rumeurs, plus ou moins pittoresques, sur Gizeh. On entend dire parfois que les Etats-Unis recherchent un objet ou un dispositif utilisé au temps jadis, et qui a peut-être été apporté par des extraterrestres. S’agirait-il d’une véritable « porte des étoiles », autrement dit d’un appareil nous permettant de nous évader dans l’espace, comme dans le film et la série télévisée « Stargate » ? Suivrait-on, pour ce faire, les instructions de gens qui pratiquent la vision à distance (comme Edgar Cayce) ? L’aurait-on déjà trouvé, ce qui serait encore plus troublant ? Cela reste, pour l’instant, du domaine de la spéculation. Si les Américains s’intéressent à la technologie de la « porte des étoiles », il s’agit là d’un projet ultrasecret, et très peu de gens sont au courant. Ce qui est sûr, c’est que pratiquement tous ceux, groupes ou individus, qui s’activent actuellement sur le site de Gizeh veulent exploiter à leur profit la culture, la religion et même les dieux de l’Egypte ancienne, en se souciant comme d’une guigne des architectes anonymes et néanmoins géniaux qui ont construit le Sphinx et les pyramides, en obéissant à des considérations mystiques.

 

Si les services de renseignements veulent mettre la main sur un appareil, ou bien sur des documents, cela signifie qu’ils pensent que la civilisation de l’Egypte ancienne était, dans certains domaines, beaucoup plus avancée que la nôtre. On en revient à l’idée d’un peuple disparu, mais qui avait jadis atteint un niveau de développement très avancé, à moins qu’il ne s’agisse d’extraterrestres, comme l’explique Robert Temple dans The Sirius Mystery. N’oublions pas, en effet, que cela intéresse aussi bien les francs-maçons que la CIA ou le MI5.

 

Mars, un enjeu politique ?

 

La question des micro-fossiles « martiens » et la conférence de presse au cours de laquelle on a annoncé la nouvelle feront naître bien des soupçons, que l’on cherche ainsi à préparer en douce l’opinion publique à l’idée qu’il existe une vie intelligente sur Mars, ou qu’il s’agisse d’un coup monté destiné à provoquer un véritable engouement pour Mars, afin que l’on affecte des crédits supplémentaires à la NASA pour lui permettre de continuer à explorer la planète rouge. Ces deux cas de figure peuvent d’ailleurs se combiner, même si d’aucuns soutiennent que la NASA poursuit de mystérieux objectifs en s’intéressant à Mars. Ces suspicions sont alimentées par le secret obsessionnel qui entoure les activités de l’agence spatiale à Houston, ainsi que par la façon extravagante avec laquelle la nouvelle a été annoncée, au mépris de la procédure habituelle, qui consiste à faire relire le texte par d’autres scientifiques, pour faire une déclaration fracassante au cours d’une conférence de presse.

 

 

mars3                   mars-640x480-1

 

 

Il faut dire qu’on s’est bousculé pour envoyer des sondes sur Mars : on a débloqué des fonds pour financer Mars Global Surveyor, qui nous transmet actuellement des images, après la perte de Mars Observer en août 1993. Le lancement de l’engin interviendra trois ans plus tard. Depuis le communiqué d’août 1996, on envisage de lancer plusieurs sondes spatiales, afin de rechercher d’éventuelles traces de vie sur la planète rouge et de rapporter des échantillons. On projette également d’envoyer des hommes sur Mars, alors que l’on n’en parlait plus depuis longtemps. La Russie et le Japon mettent aussi au point leurs propres missions martiennes.

 

Que ces microfossiles, sujets à controverses, nous donnent ou non des preuves concluantes, l’excitation grandit lorsqu’il s’agit de Mars, en particulier au sein du gouvernement américain. Les autorités américaines semblent persuadées qu’il y a de la vie, peut-être même des êtres intelligents sur Mars, et l’on a vu que des gens et des organismes divers (les spécialistes de la vision à distance travaillant pour le Pentagone, le SRI et les amis d’Hoagland) s’efforcent de faire naître en nous des espoirs à propos de Mars.

 

Chercherait-on une « porte des étoiles », portail physique ou bien existant dans une hypedimension, qui permettrait d’atteindre Mars plus aisément, voire d’entrer en contact avec les martiens ? Croit-on vraiment qu’un tel objet existe ? Ou bien s’agirait-il tout simplement d’une manipulation à grande échelle, destinée à jauger la façon dont l’opinion publique réagirait si l’on apprenait qu’il y a eu – ou qu’il existe toujours – des martiens ? Mais le mystère s’épaissit, puisque l’on découvre que des hauts responsables sont persuadés que l’on a déjà ouvert la « porte des étoiles », et que nous sommes désormais en contact avec les extraterrestres.

 

 

 Lhyperb1

 

 

 







 

 
Repost 0
Orphée - dans Mystères et Paranormal
26 février 2010 5 26 /02 /février /2010 16:32

Antimatière

 

Au seuil de l’antimonde

 

 

bang

 


Grande première au Cern de Genève : les physiciens viennent d’assembler des antiélectrons et des antiprotons pour former les neuf premiers anti-atomes d’hydrogène. L’aboutissement d’une longue quête. Et l’amorce de la réponse à une question clé : l’antimonde respecte-t-il les mêmes lois que notre monde ? On savait qu’au moment du big bang, il existait dans l’Univers autant de matières que d’antimatière. Mais justement la nature a choisi la première.

 

 

Pourquoi ? Comment ? L’expérience du Cern va permettre de mieux le comprendre. Du coup, on se prend à imaginer l’impossible : ira-t-on demain visiter les étoiles, à bord de vaisseaux propulsés par l’antimatière ? Ce « carburant » très spécial ne manque pas d’arguments. Et fait déjà rêver quelques ingénieurs…

 

I – Ils ont créé des anti-atomes

 

On connaissait déjà les antiparticules. Les physiciens viennent d’assembler des anti-électrons et des anti-protons pour former les premiers anti-atomes d’hydrogène. L’aboutissement d’une longue quête. Et une étape décisive dans la compréhension de l’Univers.

 

Neuf anti-atomes ont vécu, l’espace de quelques milliardièmes de seconde, à l’intérieur d’un accélérateur du CERN (le Centre européen de recherche sur la physique des particules). Ces anti-atomes d’hydrogène, les premiers créés par l’homme, sont-ils les seuls de l’Univers ? Ou bien ont-ils, quelque part, des frères naturels que nous ignorons, au sein d’un anti-monde, symétrique du nôtre, qui n’a jamais laissé entrevoir le moindre signe de son existence ? Mystère. En un sens, le plus extraordinaire n’est pas qu’on ait réussi à fabriquer de l’antimatière, c’est bien qu’il n’y en ait pas davantage !

 

Première apparition dans une équation en 1931

 

Car les lois de la physique sont symétriques. Et l’on voit mal pourquoi elles auraient façonné un monde unilatéral uniquement composé de matière. L’antimatière a d’abord été une théorie avant d’être matérialisée en laboratoire. C’est dans une équation qu’elle a fait sa première apparition, en 1931. En ces décennies 20 et 30, qui furent l’âge d’or de la physique contemporaine, chaque année apportait sa moisson de nouvelles particules et de découvertes « révolutionnaires » sur la structure de l’atome. La toute nouvelle théorie quantique révélait le comportement étrange et paradoxal de ce monde microscopique.

 

 chaosgaia

 

 

Un jeune mathématicien britannique, Paul Dirac (1902-1984), cherchait alors à décrire mathématiquement le comportement des électrons, en conciliant les deux grands principes de la physique moderne : la théorie quantique et la relativité restreinte d’Einstein (qui s’applique aux objets dont la vitesse est proche de celle de la lumière). Dirac voulait en fait généraliser l’équation quantique de l’électron, de sorte qu’elle s’applique aussi à un électron très rapide, « relativiste » comme disent les physiciens. Il trouva effectivement une magnifique équation, à la fois quantique et relativiste, qui, de surcroît, faisait apparaître spontanément, comme par miracle, des propriétés de l’électron qu’on avait mesurées par l’expérience.

 

Pourtant, cette équation souffrait d’une incohérence apparente : elle admettait deux solutions, l’une décrivait un électron « normal », l’autre semblait correspondre à une particule d’énergie négative. Ce qui est rigoureusement impossible, car, si l’énergie était négative, la matière, qui tend à avoir l’état d’énergie le plus bas possible, s’effondrerait sur elle-même. De plus, un électron d’énergie négative serait affublé d’une fréquence négative (en physique quantique, toute particule est associée à une onde, dont la fréquence est proportionnelle à l’énergie de la particule. Ce qui revient à dire qu’il remonterait le temps ! Or, la relativité repose sur un principe intangible : la cause doit toujours précéder l’effet. Dans ce cadre, le renversement du temps, qui implique que l’effet précède la cause (le film passant à l’envers), est inacceptable.

 

Malgré ces apparentes contradictions, Dirac ne voulait pas abandonner son équation, par ailleurs si satisfaisante. Aussi proposa-t-il une autre interprétation, qui retournait la situation. Une particule d’énergie négative remontant le temps est mathématiquement équivalente à une particule d’énergie positive parcourant le temps dans le bon sens, qui aurait la même masse mais une charge électrique opposée : un électron de charge positive et non plus négative, autrement dit un anti-électron.

 

Moins d’un an plus tard, en étudiant le rayonnement cosmique, l’Américain Carl Anderson – qui ignorait tout de l’audacieuse hypothèse de Dirac – observe sur un cliché de détecteur la trace d’une particule inconnue. Sa courbure, dans le champ magnétique de la chambre, désignait une particule positive, mais de masse égale à celle d’un électron : c’était l’anti-électron (également appelé positron, ou encore positon) prédit par Dirac ! En fait, cette particule étrange était issue d’un rayon cosmique qui, en entrant en contact avec les atomes de l’atmosphère, avait « matérialisé » une partie de son énergie en une paire électron-positron. En effet, les rares antiparticules naturelles qu’on observe sur Terre sont des produits « secondaires » des particules cosmiques.

 

Toute particule possède une antiparticule

 

Plus tard, généralisant son équation, Dirac montrera que, dans le cadre d’une théorie à la fois quantique et relativiste, la matière doit nécessairement posséder une image symétrique. Autrement dit, toute particule admet une antiparticule dont toutes les charges sont opposées. Les charges et pas seulement la charge électrique ! Si cette dernière est bien connue, les autres « charges » sont des propriétés purement quantiques (agissant au niveau microscopique), qui déterminent l’identité de chaque particule, mais n’ont pas de traduction dans le monde qui nous est familier (macroscopique).

 

Ainsi, de même que la charge électrique définit la façon dont la particule réagit vis-à-vis de la force électromagnétique, les autres charges (appelées isospin, charge de couleur, hypercharge…) caractérisent la particule vis-à-vis d’autres interactions, cantonnées au niveau microscopique. Ainsi, bien que le neutron soit électriquement neutre, il existe un antineutron dont le moment magnétique est inversé par rapport à celui du neutron. En revanche, le photon n’a pas d’antiparticule, ou, plus exactement, il est lui-même sa propre antiparticule, car toutes ses charges sont nulles. Jusqu’à présent, la règle s’est toujours vérifiée : toute particule connue possède bien une antiparticule.

 

Des milliards de collisions en trois semaines

 

Depuis la découverte de l’antiproton, en 1955, l’antimatière s’est banalisée, puisque les physiciens ont appris à la fabriquer (par des chocs de particules), à la récupérer et à l’utiliser sous forme de faisceaux pour provoquer de nouvelles collisions. Plusieurs collisionneurs électrons-positrons ont ainsi été construits à travers le monde, le plus puissant étant le LEP du CERN. Car les antiparticules ont un grand avantage pratique : elles permettent de réduire de moitié les systèmes d’accélération électrique et de guidage magnétique des collisionneurs. En effet, les électrons et les positrons ayant des charges électriques opposées, un unique champ électrique et un unique champ magnétique imposent aux deux faisceaux des trajectoires rigoureusement inversées.

 

Poursuivant un objectif analogue, le physicien néerlandais Simon Van der Meer trouva le moyen, en 1975, de réaliser des faisceaux denses d’antiprotons, ce qui permit de transformer un cyclotron du CERN en collisionneur protons-antiprotons. C’est dans ce collisionneur qu’une équipe internationale dirigée par Carlo Rubbia découvrit, en 1983, les bosons W et Z (particules qui véhiculent la force faible). L’année suivante, cet exploit expérimental valut au physicien italien un prix Nobel partagé avec Van der Meer.

 

 taillet intro

 

La production de ces antiparticules « libres » étant maîtrisée, il restait à découvrir, ou à fabriquer, des antiatomes, c’est-à-dire de l’antimatière au vrai sens du terme. L’exploit vient d’être accompli, au CERN, par vingt-trois physiciens allemands et italiens réunis, sous la houlette de Walter Oelert, autour de l’accélérateur LEAR (Low Energy Antiproton Ring). Des antiprotons ont rencontré des antiélectrons, pour donner naissance à neuf antiatomes d’hydrogène. Le principe est très simple, l’expérience plus délicate.

 

Dans le cyclotron LEAR, un carré aux coins arrondis de 20 m de côté, un milliard d’antiprotons effectuent trois millions de tours par seconde. On injecte sur leur trajet un fin jet de gaz xénon : à chaque tour, quelques antiprotons rencontrent des noyaux de xénon, et il arrive – très rarement – qu’une partie de l’énergie du choc se matérialise en paire électron-positron.

 

Quand, de plus (par bonheur…), la différence entre la vitesse du positron et celle de l’antiproton est suffisamment faible, ces deux antiparticules parviennent à s’unir pour former – enfin – un antiatome d’hydrogène. Celui-ci poursuit sa route en ligne droite sans  être dévié par les aimants, car, tout comme un atome ordinaire, il est électriquement neutre. Il aboutit, 10 mètres et 40 milliardièmes de seconde plus loin, sur une plaque de silicium. La rencontre avec la matière lui est fatale : il s’annihile instantanément.

 

C’est cette double désintégration d’un antiélectron et d’un antiproton, mesurée par deux détecteurs, qui prouve la création d’un antiatome. Les milliards de collisions enregistrées en trois semaines d’expérience ont donné naissance à neuf antiatomes d’hydrogène. C’est ce qu’affirment Oelert et son équipe, après avoir minutieusement vérifié, pendant trois mois, les calculs et les enregistrements. Même si, en raison de l’importance du bruit de fond, certains de leurs collègues doutent de la valeur du résultat…

 

Une anti-pomme tomberait-elle de son anti-arbre ?

 

Mais on ne crée pas des antiatomes pour le plaisir de relever un défi. Ou pas seulement. L’objectif réel, primordial, est de vérifier si la symétrie la plus fondamentale de toute la physique, dite CPT, est toujours respectée « Pourquoi le monde a vaincu l’antimonde ». Il s’agit de répondre à des questions de fond : les antiatomes se comportent-ils bien comme des atomes vis-à-vis de la gravitation ? Une anti-pomme tomberait-elle de son anti-arbre ? Pour le vérifier, neuf antiatomes d’hydrogène éphémères ne suffisent pas, on aurait besoin de milliards d’antiatomes stables.

 

En fait, les espoirs se tournent vers une autre voie, explorée en particulier par Gerald Gabrielse, de l’université Harvard, la création d’antimatière « froide ». Ainsi, le physicien américain parvient déjà à conserver des antiprotons à – 269° C pendant des semaines, dans un « piège » magnétique. On sait également mettre des positrons en « bouteille ». Reste le plus difficile : verser le contenu de la bouteille dans l’autre !

 

II – Pourquoi le monde a vaincu l’antimonde

 

Au départ, il y a le big bang. A ce moment, il existe dans l’Univers autant de matière que d’antimatière. La nature choisira la première. Pourquoi ? Comment ? La science commence à le comprendre…

 

 610-00300-04HIGH

 

 

S’il est une énigme qui a longtemps hanté le sommeil des astrophysiciens, c’est bien celle de l’antimatière. Son absence les dérangeait : ils avaient beau la chercher dans les recoins les plus éloignés de l’univers visible, ils n’arrivaient pas à mettre la main dessus. Or, cette absence mettait à mal les théories les plus cohérentes sur l’origine de l’Univers. Jusqu’à récemment, l’astrophysique ne parvenait pas à expliquer qu’il puisse y avoir de la matière sans qu’il existe une quantité égale d’antimatière…

 

Mais, grâce à une intuition géniale du théoricien soviétique de l’antimatière Andreï Sakharov (ou plutôt du théoricien antisoviétique de la matière), les scientifiques sont aujourd’hui en passe de résoudre l’énigme. La création, au CERN, du premier atome d’anti-hydrogène va confirmer – ils l’espèrent – leurs hypothèses. Essayons de comprendre pourquoi.

 

Quoi de plus naturel, lorsqu’on croque une pomme, de se dire que plus on en mange, moins on en a, autrement dit qu’on réduit la pomme d’une quantité égale à celle du morceau qu’on a croqué. Cette expérience a beau être intuitive, elle n’en porte pas moins un nom savant : le principe de symétrie. Celui-ci veut que ce qui disparaît ici – dans la pomme – apparaisse là – dans la bouche -, de sorte que se conserve toujours la même quantité de matière. Pourtant, l’astrophysicien se méfie de ce principe, et il n’a pas tort. Car ce qui fait que nous existons, c’est justement la violation de la symétrie. Bref, l’Univers doit son existence à un drôle de principe qui veut qu’une pomme qu’on croque demeure toujours entière.

 

Un exemple : selon l’hypothèse la plus vraisemblable aujourd’hui, l’Univers a eu un commencement, c’est la théorie du big bang. Bien qu’il soit impossible de parler d’un « avant big bang » - car celui-ci marque le début de l’espace et du temps -, on s’accorde à dire qu’au moment du big bang il y a eu création de matière à partir de rien ou plus exactement à partir du vide ! Heureusement, la physique quantique, celle qui s’occupe de l’infiniment petit, a réussi à expliquer ce phénomène sans porter atteinte au principe de symétrie, grâce au paradigme matière-antimatière.

 

En effet, s’il se crée dans le vide une particule de matière, il faut que simultanément se crée son antiparticule : le volume de « vide » dans la pomme doit être le même que le volume de pomme qu’on a croqué. Le principe de symétrie est sauvé. Mais comment le vide peut-il engendrer quelque chose ? Suivant la physique quantique, quelle que soit la situation, une probabilité constamment nulle n’existe pas. Ce qui veut dire qu’il ne peut y avoir de vide total tout le temps.

  

 91abstract 3d 04-m332

 

 

Le vide quantique est donc non pas le néant mais un lieu où il n’y a pas de particules réelles. Il est le siège de fluctuations d’énergie. Reprenons le scénario classique du big bang : c’est d’une immense fluctuation quantique du vide qu’est né un intense rayonnement (les photons), dégageant une chaleur de l’ordre de 1032 degrés ! L’énergie de fluctuation s’est changée en énergie rayonnante.

 

Comme l’a expliqué Einstein, au début du siècle, l’énergie peut se transformer en matière et vice-versa (la fameuse équation E = mc²). Voilà donc des milliards de photons super-énergétiques qui se muent en particules et en antiparticules antagonistes (surtout des quarks, mais aussi des électrons… avec leurs antiparticules) suivant la théorie élaborée par Dirac en 1931. Elles s’annihilent à nouveau pour donner des photons – car lorsqu’une particule rencontre son antiparticule, elles se désintègrent mutuellement en produisant un feu d’artifice de lumière. Pendant ce temps, la température chute, du fait de l’expansion de l’Univers : ce magma de rayonnement, matière et antimatière, se répand dans toutes les directions.

 

Dans les années 60, les physiciens pensaient que, puisque au début il y a du vide, il faut que l’union de toutes les particules et antiparticules créées redonne du vide, toujours pour respecter le principe de symétrie. Bref, à ce moment de l’histoire de l’Univers, on trouve autant d’antiparticules que de particules. La suite de l’histoire était la suivante : plus la température baisse, plus les photons ont du mal à se transformer en couples de particules antagonistes puisqu’ils perdent de l’énergie. L’expansion rend plus rare la rencontre – donc l’annihilation – des particules et de leurs antiparticules. Selon cette hypothèse, simple, la séparation de la matière et de l’antimatière expliquerait l’existence de l’Univers.

 

On aurait pu s’en tenir à ce scénario à condition de « retrouver » l’antimatière censée être née avec la matière. Où est-elle passée ? Telle était la question. Hélas, les observations ne fournirent pas la réponse : notre galaxie et les galaxies environnantes sont constituées de matière pure !

 

 601-00100-05high

 

 

L’astrophysicien suédois Hannes Alfvén, prix Nobel de physique 1970, émit l’hypothèse légèrement différente : l’Univers est bien constitué de matière et d’antimatière en quantités égales, mais isolées, car se repoussant comme l’huile et l’eau. Il existerait alors, quelque part dans l’Univers, une « frontière d’annihilation » trop éloignée pour que nous puissions l’observer.

 

Comment justifier une telle hypothèse ? A priori, les particules de matière et d’antimatière s’attirent. On observe depuis longtemps ce phénomène dans les accélérateurs de particules. Mais cette attraction est surtout de nature électromagnétique, car leurs charges électriques sont opposées. Cependant, on ne sait quel rôle joue dans cette attraction la force de gravité, celle qui est en jeu dans les grandes structures de l’Univers. Les lois de la gravitation universelle – énoncées par Newton et élargies par Einstein dans la relativité générale – veulent que deux corps solides s’attirent d’autant plus intensément que leur densité est grande. C’est notamment la raison pour laquelle nous restons les pieds sur Terre.

 

La Lune, elle, est six fois moins dense que la Terre. Son attraction est donc six fois moins importante : les sauts de « sept lieues » des astronautes américains d’Apollo 11 sur la surface de la Lune l’illustrèrent de belle façon. Toujours est-il qu’on ne sait pas si cette loi d’attraction est valable pour l’antimatière. En effet, entre les particules et les antiparticules obtenues jusqu’à présent dans les accélérateurs, l’attraction électromagnétique masquait l’attraction gravitationnelle (moins forte à cette échelle).

 

L’obtention d’atomes d’anti-hydrogène (de charge électrique nulle) au CERN pourrait permettre d’observer l’interaction gravitationnelle avec des atomes d’hydrogène. Si la matière et l’antimatière se repoussent gravitationnellement, alors l’hypothèse d’un monde séparé d’un antimonde par une frontière est plausible. Mais l’existence d’une telle « répulsion gravitationnelle » est fortement improbable. Comme nous l’indique le physicien Alain Bouquet, du laboratoire de physique corpusculaire du Collège de France, « imaginer un effet répulsif de nature gravitationnelle contredirait l’une des hypothèses de base de la relativité générale, qui veut que tout corps plongé dans l’espace produise un effet d’attraction (principe d’équivalence), et cela vaut aussi bien sûr pour l’antimatière ».

 

La relativité générale, qui, depuis plus de soixante-dix ans, n’a pas rencontré de contradiction expérimentale, a donné à l’Univers un cadre théorique très cohérent. Il y a peu de chances qu’elle soit contredite. De ce côté-là, c’est donc l’impasse… même si quelques astrophysiciens francs-tireurs n’ont pas perdu espoir.

 

Parallèlement à cette théorie de l’existence de deux antimondes séparés, Andreï Sakharov émit, en 1967, une hypothèse qui s’intégrait parfaitement au modèle du big bang : grâce aux fluctuations d’énergie (mécanisme décrit plus haut), le vide a engendré autant de matière que d’antimatière, mais c’est pendant le refroidissement et l’expansion de l’Univers que la nature a opté pour la matière. L’antimatière n’y existe donc plus. Sakharov expliquait ce « choix arbitraire » de la nature par ce qu’il a appelé la « brisure de la symétrie ». Et nous voilà revenus au problème de symétrie !

 

443145a-i1 0

 


Les physiciens disposent en effet d’un très beau théorème mathématique qui permet de garder leur hypothèse dans le droit chemin de la science. D’après celui-ci, toute théorie physique doit respecter certains principes, notamment ne pas engendrer de contresens logique du type « la conséquence précède la cause ». Ainsi, une théorie qui aurait pour conséquence qu’une pièce soit éclairée avant que la lumière soit réellement allumée serait immédiatement écartée.

 

Ce théorème fut démontré dans les années 40. Sous son appellation quelque peu barbare de « théorème CPT » se cache un concept simple : un événement à l’échelle des particules peut se produire dans la nature si l’événement opposé peut également survenir avec la même probabilité. En d’autres termes, les équations doivent rester valables si on remplace la charge de la particule par sa charge opposée (C), si on inverse la distribution spatiale (P) – comme si on regardait la particule dans un miroir -, si on inverse enfin le déroulement du temps (T), c’est-à-dire si on change le paramètre t en – t.

 

Un exemple plus concret : si l’on provoque un choc violent entre un proton et un électron, on obtient un neutron et un neutrino. Imaginons qu’on filme cet événement. On le projette ensuite en sens inverse (symétrie T), on le regarde dans un miroir (symétrie P) en ayant au préalable « trafiqué » la pellicule afin d’inverser les charges des particules (symétrie C). Cette nouvelle version du film montrerait un antineutron et un antineutrino se heurtant pour donner naissance à un antiproton et à un antiélectron. Si cet événement-là se produit dans un accélérateur de particules avec la même fréquence que le premier, alors la théorie est cohérente.

 

Mais un risque de contresens surgit lorsqu’on s’évertue à interpréter le théorème CPT. Le fait de changer t en – t (symétrie T) veut-il dire que les particules remontent le temps ? La symétrie P signifie-t-elle qu’elle existe une anti-Terre qui serait l’image de la Terre donnée par un miroir, peuplée d’antihumains en majorité gauchers ? Le théorème laisserait-il présager qu’un vaisseau spatial utilisant de l’antimatière en guise de carburant pourrait, comme dans la série Star Trek, remonter le temps ou dépasser la vitesse de la lumière ? C’est là que la science-fiction se substitue à la science pure.

 

Toujours est-il que les scientifiques ont rencontré les pires difficultés avec leur théorème CPT. Bien que la symétrie CPT ne soit pas remise en question, cela n’implique pas que C, P et T soient isolément symétriques. De fait, il n’en est rien ! Un beau puzzle peut être formé de morceaux disgracieux. En 1956, l’expérience de trois chercheurs de l’université de Columbia (Caroline du Sud), Lee, Yang et Wu, montra que la symétrie P pouvait être dans certains cas violée. Ils mirent en évidence que, dans la désintégration du cobalt, les particules émises ont une préférence pour certaines directions spatiales. Bref, la nature distingue la droite de la gauche !

 

D’autres expériences menées sur des « kaons neutres » (particules fort rares, réclamant de très fortes énergies pour être créées dans les accélérateurs) prouvèrent que la symétrie C était aussi violée. Enfin, en 1964, deux chercheurs américains, James Cronin et Val Fitch, et un chercheur français, René Turlay, montrèrent que ces mêmes kaons neutres violaient également la symétrie CP (ce qui valut à Cronin et à Fitch le prix Nobel de physique en 1980 – Turlay ayant été jugé trop jeune pour une telle distinction).

 

Ces travaux permirent à Sakharov d’émettre l’hypothèse en accord avec le modèle du big bang : si la symétrie CP pouvait être violée en laboratoire, pourquoi ne pas supposer qu’elle aurait pu l’être dans le mégalaboratoire des origines de l’Univers ? Surtout si cette théorie permettait d’expliquer pourquoi la nature avait préféré la matière à l’antimatière ! Depuis l’intuition du savant soviétique (par ailleurs prix Nobel de la paix 1975), l’idée a fait son chemin et s’est parée des beaux habits de la cohérence.

 

 trou noir

 

 

Voici donc le scénario complet : au tout début  de l’Univers, au moment de la grande explosion, le vide engendre un fort rayonnement de photons. Ces photons – qui sont leurs propres antiparticules – possèdent une énergie si élevée (1019 GeV) qu’ils peuvent facilement se décomposer en deux bosons opposés, X et anti X. Là est la grande trouvaille. Les bosons sont des particules qui matérialisent les forces de la nature (électromagnétique, faible, forte et de gravitation). C’est la théorie de grande unification (GUT) : plus on remonte dans le temps près du big bang, plus les quatre forces s’unissent pour n’en faire qu’une.

 

Au moment qui nous intéresse, entre 10-35 et 10-30 seconde, il n’existe que deux forces : la force gravitationnelle et la force unifiée électro-faible-forte. Comme chaque photon se décompose en un X et un anti-X, il y a exactement autant de matière que d’antimatière : la symétrie demeure. Les bosons X et anti-X, porteurs de la triple force unifiée, donnent naissance à de la matière (quarks et électrons) et à de l’antimatière (antiquarks et antiélectrons), dans une proportion légèrement plus forte pour la matière. Ils violent ainsi la symétrie CP. Mais, à cette température (plus de 1028 degrés), la réaction est réversible : la matière et l’antimatière se condensent à nouveau en bosons X et anti-X, recréant la symétrie.

 

Mais, nouveau problème, la température se met à décroître très vite du fait de l’expansion de l’Univers. Vers 10-30 seconde, elle n’est plus que de 3.1027 degrés. Les bosons X et anti-X peuvent se décomposer en matière et antimatière, mais celles-ci ne peuvent plus se recomposer en bosons et anti-bosons. Or, comme les X et les anti-X ont une prédilection pour la matière, la symétrie est irrévocablement brisée… A peine 1 particule de plus pour 1 milliard de couples particule-antiparticule. Mais ce milliardième de matière supplémentaire suffira à engendrer l’Univers actuel, galaxies, étoiles, planètes, êtres vivants.

 

Les hommes aiment se raconter des histoires qui finissent bien. Ce scénario, en harmonie avec le big bang, est pour l’instant le plus vraisemblable. Cependant, rien ne dit qu’un autre synopsis ne viendra pas le reléguer un jour au rang des contes de fées scientifiques. En attendant, les astrophysiciens ont recouvré le sommeil.






                    
                   
       
 

III – Du carburant pour visiter les étoiles

 

Et si on explorait les étoiles ? Aujourd’hui, c’est impossible. Demain, pourquoi pas, avec le seul « carburant » que la science nous propose : l’antimatière. Quelques ingénieurs en rêvent déjà…

 

 605-00115-01high

 

 

Aussi incroyable que cela paraisse, la navette spatiale américaine pourrait atteindre Proxima du Centaure, l’étoile la plus proche du Soleil (4,3 années-lumière), en moins de dix ans. Ses réacteurs lui procurant une accélération de 1,7 fois l’attraction terrestre, il suffirait de la faire fonctionner à plein régime pendant un peu plus de deux mois. A un détail près : en dehors des problèmes de fiabilité du matériel, le simple poids de carburant nécessaire à un tel exploit la clouerait au sol, qu’elle n’arriverait jamais à quitter…

 

Et ce n’est pas le seul obstacle : pour atteindre Proxima du Centaure en moins de dix ans, on doit se propulser à une vitesse moyenne proche de la moitié de celle de la lumière (150.000 km/s). On se heurte alors aux lois relativistes d’Albert Einstein. Celles-ci n’imposent pas seulement une vitesse limite à toute chose dans l’Univers, mais alourdissent la masse de tout engin flirtant avec ces records. Ce qui signifie qu’on doit injecter encore plus d’énergie dans les réacteurs, à mesure qu’on veut gagner ne serait-ce qu’un petit supplément de vitesse. Par exemple, alors qu’on file aux trois quarts des fatidiques 300.000 km/s, la masse augmente de 50%. A ce stade, accroître la puissance de la poussée n’apporte presque plus rien.

 

Fission ou fusion ?

 

Ces limitations obligent le concepteur à maintenir au strict minimum le poids de départ du vaisseau spatial. Pour donner un ordre d’idée, propulser le plus petit vaisseau habité jusqu’au tiers de la vitesse de la lumière réclamerait la puissance produite pendant plusieurs années par toutes les centrales électriques terrestres ! On peut bien sûr imaginer des plans de science-fiction de longue durée, comprenant la construction de centrales énergétiques spatiales, d’usines en orbite, de mines sur des astéroïdes, sans oublier les stations spatiales destinées au logement des mineurs.

  

 troudever

 

 

On pourrait plus raisonnablement songer à la propulsion nucléaire électrique, par laquelle on obtiendrait, pour le même poids embarqué, 10 millions de fois plus de puissance qu’avec les carburants classiques. Fondée sur la fission – à l’œuvre dans les premières bombes atomiques –, cette technique soulève cependant quelques problèmes. La fission doit tout d’abord être contenue dans le volume d’un réacteur approprié… qui fondrait aux températures nécessaires à la propulsion. De plus, elle produit des ions lourds, qui se meuvent lentement et n’autorisent donc pas d’accélérations rapides.

 

En théorie, la fusion est plus adéquate. Une simple boulette de combustible bombardée par des rayons lasers produirait la réaction de fusion dans une chambre de combustion, libérant suffisamment d’énergie pour atteindre de hautes vitesses. Inutile de dire que pas mal d’ingénieurs doutent que la chose soit faisable.

 

Pour toutes ces raisons, certains ingénieurs voient dans l’antimatière la bonne réponse. Malgré sa connotation de « science-fiction », celle-ci est bien connue des physiciens. Aucune réaction connue ne dégage plus d’énergie que la collision matière-antimatière : elle produit des quantités phénoménales de rayons γ et de mésons π. Ce sont ces derniers qui intéressent les concepteurs de réacteurs. Théoriquement, cette réaction libère de 100 à 1000 fois plus d’énergie que la fusion ou la fission. Ce qui signifie qu’un réacteur à antimatière accélérerait une masse de 1 tonne jusqu’à un dixième de la vitesse de la lumière avec seulement 9 kg de carburant !

 

Neuf milliards d’années pour fabriquer le carburant

 

La première difficulté consiste à fabriquer ces 9 kg d’antimatière. Imaginons qu’on utilise le célèbre accélérateur du CERN de Genève, celui qui a récemment  créé les antiatomes. Il produit environ 1 milliard d’antiprotons toutes les dix minutes. Ils sont si rapides et si énergétiques qu’ils passent à travers toutes les cibles qu’on met sur leur chemin. Il est donc nécessaire les ralentir si l’on veut conserver un espoir de les capter. Par exemple en plaçant sur leur parcours des feuilles de métal. Ils entrent alors en collision avec les électrons de la matière et perdent progressivement leur énergie. Il faut ensuite les confiner dans un champ magnétique, avant qu’ils rencontrent des protons du voisinage. Si tout va bien, il en restera un bon million, qui pourront être capturés. Mais il en faut beaucoup plus pour fabriquer du carburant : avec environ 1 milliard de milliards d’antiprotons, on en obtient 1 gramme… Comme le piège magnétique est parfaitement fiable, on peut imaginer d’attendre le temps nécessaire pour en obtenir suffisamment. Mais un nouveau problème surgit : le piège magnétique commence à brûler quand une centaine de milliards d’antiprotons se sont accumulés. La force électrostatique par laquelle ils se repoussent mutuellement leur fait frôler dangereusement les parois du piège. Il faut donc employer d’énormes aimants supraconducteurs et beaucoup d’énergie pour les maintenir confinés.

 

 

 610-00300-05HIGH                  Albert Einstien-001

 

 

Une autre solution consiste à utiliser des antiatomes, parfaitement neutres, en fabriquant, par un procédé presque similaire, des anti-électrons (positons), et en les faisant orbiter autour des antiprotons après les avoir ralentis. Les deux antiparticules produisent des moments magnétiques qui, contrariés par un champ correctement orienté, engendrent une force qui repousse tous les anti-atomes vers le centre du piège, évitant le choc catastrophique avec les parois. On obtient de l’anti-hydrogène, qu’on peut, en le réfrigérant, condenser en gouttes ou en cristaux. Ce qui permettrait même de se passer de piège magnétique.

 

Mais, en supposant les problèmes de stockage résolus, et en investissant des sommes colossales dans des usines à antimatière, il faudrait, au rythme très optimiste de 1 millionième de gramme par an, environ neuf milliards d’années pour obtenir les 9 kg requis de carburant ! Les étoiles nous attendront-elles ?

 

Alors, science-fiction ? Tout n’est pas perdu. En l’état actuel de la technologie, une solution consisterait à utiliser une propulsion qui ne soit pas fondée uniquement sur l’antimatière « pure ». Il est concevable d’utiliser celle-ci comme une sorte de catalyseur des réactions de fission ou de fusion, qu’on peut amorcer avec une simple « boulette » d’uranium. Pour éviter de tout faire sauter, on fabrique de petites capsules d’uranium dans lesquelles on intègre un cœur de deutérium et de tritium. On bombarde ensuite d’antiprotons. Quand un antiproton frappe un atome d’uranium, il s’annihile avec l’un des protons du noyau. Les quelques pions alors émis achèvent de désintégrer le noyau, ce qui libère d’énormes quantités de neutrons, six fois plus qu’une fission nucléaire classique. La réaction en chaîne qui en résulte crée assez de chaleur et de pression pour enclencher une fusion dans le cœur de deutérium-tritium.

 

Chaque micro-explosion produit autant d’énergie qu’une bombe de 15 tonnes de TNT. Si l’on provoque une par seconde pendant plusieurs jours, on atteindra Pluton en trois ans. Beaucoup d’ingénieur, dont certains de la NASA, ne croient pas une seconde à cette chimère. D’abord parce que la propulsion d’une fusée obéit au principe d’action-réaction. Par quelque bout qu’on prenne le problème, il faut rejeter de la masse par l’arrière si l’on veut aller de l’avant. Il faut donc charger la fusée d’une masse gigantesque. Ensuite, il faut employer des tuyères capables de résister à d’énormes températures. Or, tous les métaux connus, même les alliages les plus sophistiqués et les plus chers, fondent irrémédiablement. Car ces réactions produisent beaucoup de rayons gamma, les plus énergétiques, donc les « plus » chauds.

 

Des tuyères qui fondent comme neige au soleil

 

Est-il possible de canaliser une telle puissance ? Peut-être, dans un filtre en plomb, ce qui transformerait les rayons gamma en rayons X. Ils frapperaient ensuite des plaques de titanium, qui se vaporiseraient au fur et à mesure. Les atomes de métal arrachés agiraient comme la masse nécessaire à la réaction, et la tuyère se consumerait lentement pendant le voyage. Mais, pour l’instant du moins, aucune tuyère ne peut résister non plus à ce traitement. En fin de compte, le pari semble perdu d’avance : trop d’obstacles infranchissables subsistent, des métaux qui fondent à la durée de production du carburant, en passant par les contraintes de sécurité liées à l’utilisation d’une énergie si dévorante.

 

Cependant, un signe ne trompe pas : les militaires, notamment américains, gardent dans leur ligne de mire ce mode de propulsion (ou d’explosion…), qui leur rendrait, on s’en doute, bien des services. Ils n’ignorent pas que, dans les années 50, aucun métal n’était en mesure de résister aux formidables pressions subies par les turbopompes d’une fusée comme Ariane V, qui n’est pas la plus puissante.

 

La route des étoiles est-elle pour autant fermée ? Quels que soient les problèmes techniques, dans le rapport énergie dégagée-poids embarqué, l’antimatière est sans concurrence. L’enjeu vaut qu’on y réfléchisse encore.

 

 brane collision

 

 

    

   
      



                      
                   
       

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 16:12

Ils ont percé le secret du vieillissement

 

Vertigineux ! Des biologistes suédois sont parvenus à faire vieillir plus vite des souris en manipulant un petit organite de leurs cellules : les mitochondries. De quoi, à terme, rêver à une source de jouvence ?


 

 Le secret du vieillissement-v1                         mitochondrie-v1

 

 

L’enjeu : élucider les mystères du vieillissement ouvrirait des pistes afin de retarder ce phénomène auquel nul n’échappe. On voit ainsi se profiler l’un des rêves les plus tenaces de l’humanité, celui de la jeunesse, sinon éternelle, du moins prolongée à l’extrême. Ce serait aussi le moyen de contrer les inévitables pathologies liées à l’usure du temps. Et elles sont nombreuses : maladies cardiovasculaires, neuro-dégénératives (Parkinson, Alzheimer), diabète, ostéoporose, sans oublier certains cancers liés à l’âge… Autant d’outrages auxquels nous aimerions tous échapper.

 

La biologie a ses modes. Dans le domaine du vieillissement, la tendance est à l’étude du noyau cellulaire. Les scientifiques sont légion à tenter d’y démêler l’écheveau de gènes et de protéines qu’il renferme. Les indices s’accumulant, ils sont convaincus que c’est dans ce méli-mélo incroyable que se cachent les secrets de notre fatal devenir à tous, le vieillissement.

 

Mais les modes sont faites pour être bousculées. Et dans le département des sciences biologistes de l’institut Karolinska à Stockholm (Suède), Nils-Göran Larsson et son équipe s’y emploient à plein temps : ce n’est pas le noyau qui les intéresse, mais les mitochondries. Ces petits organites présents par milliers dans la cellule renferment leur propre ADN et assurent la production d’énergie. Un anticonformisme fructueux puisque les chercheurs ont démontré qu’en leur sein se cache ni plus ni moins l’un des secrets du vieillissement.

 

De fait, les scientifiques sont parvenus à créer une race de souris mutantes qui montrent tous les signes d’un vieillissement accéléré et cela en introduisant une petite mutation perturbant leurs mitochondries. Tout commence à l’âge de quatre mois pour les rongeurs. A peine adultes et en âge de se reproduire, ils arborent les prémices d’un déclin physique : ils prennent de moins en moins de poids, leur fourrure s’éclaircit et leur échine se courbe. Deux mois plus tard, les petites silhouettes sont saisissantes de vieillesse. Elles sont bossues, maigres et n’ont presque plus de poils. A côté d’elles, des souris normales du même âge affichent une santé insultante. Et quoi de moins surprenant puisque celles-là ne débuteront leur processus de vieillissement qu’un an plus tard. En fait, les souris mutantes vieillissent deux fois plus vite que celles aux mitochondries normales.

 

Déjà vieillies à seulement 1 an

 

Et pas qu’en apparence : leur allure « troisième âge » reflète l’affaiblissement intérieur de leur corps. Les souris sont anémiées, gagnées par l’ostéoporose, accusent une baisse de fertilité et une usure cardiaque. Et puis l’inévitable se produit. Le vieillissement dont elles sont frappées les conduisent à la mort. Sauf qu’une année ne s’est pas encore tout à fait écoulée. D’ordinaire, dans les milieux protégés des animatrices et avec des mitochondries normales, les rongeurs vivent plus de deux ans.

 

« Cette vieillesse prématurée est la preuve indiscutable du rôle de la mitochondrie, commente Paul Hasty, spécialiste américain du vieillissement dans le département de médecine moléculaire de l’université du Texas, à San Antonio. Un rôle qui restait théorique et n’avait jamais été vérifié. » Il y a une vingtaine d’années, en effet, l’américain Denham Harman avait émis l’hypothèse que ces « centrales énergétiques » pouvaient être responsables du vieillissement et ce via l’altération de leur ADN. Car, chose exceptionnelle dans la cellule, la mitochondrie est le seul organite à posséder son propre génome. Deux cent mille fois plus petit que celui du noyau, il joue pourtant un rôle essentiel car il sert de support à la production des protéines qui assurent l’activité énergétique de la mitochondrie. Or, plus le temps passe et plus ces organites montrent des signes de détérioration, leur génome y compris. Denham Harman avait donc avait donc supposé que le vieillissement pouvait être engendré par l’altération de l’ADN mitochondrial. Cependant, il n’a jamais prouvé sa théorie. « Il n’y avait que des preuves indirectes, comme par exemple l’observation chez la souris d’une accumulation de mutations du génome mitochondrial au fil du temps, explique Nils-Göran Larsson. Mais cela pouvait être aussi bien la cause que la conséquence du vieillissement des rongeurs. »

 

 Des souris blanches

 

 

Pour trouver la théorie de Denham Harman, le chercheur suédois et son équipe ont poussé la mitochondrie à accélérer l’altération de son propre ADN. Ils ont donc muté une protéine notamment chargée de corriger les erreurs présentes sur le génome : l’ADN polymérase. Ce faisant, ils sont parvenus à diminuer sa capacité réparatrice. Résultant : les souris mutantes accumulent cinq fois plus de mutations sur l’ADN mitochondrial que de souris normales au même âge, et du coup vieillissent prématurément.

 

Preuve est donc faite du rôle de la mitochondrie dans le processus de vieillissement. Reste maintenant à détailler le ou le mécanismes par lesquels les altérations du génome mitochondrial aboutissent à l’inévitable déclin temporel. Et ce ne sont pas les pistes qui manquent. « Il est possible que les mutations entraînent une baisse de la production d’énergie, et que celle-ci soit responsable de la vieillesse précoce de nos souris », explique Nils-Göran Larsson. En effet, les chercheurs ont pu mettre en évidence une altération des protéines productrices d’énergie dans les mitochondries cardiaques des souris mutantes. Est-ce l’unique événement qui conduit les souris à vieillir prématurément ? Pas sûr…

 

Deuxième hypothèse : « Les altérations de l’ADN mitochondrial pourraient se répercuter sur le phénomène de suicide cellulaire », commente Paul Hasty. En effet, la mitochondrie joue un rôle-clé dans le mécanisme d’apoptose, la mort programmée des cellules. Lorsqu’elle reçoit un signal de suicide, sa membrane se modifie et libère des protéines qui vont tuer la cellule. « L’altération des constituants de la mitochondrie pourrait alors dérégler ce mécanisme, poursuit Paul Hasty, et précipiter le vieillissement tissulaire. »

 

Mais Nils-Göran Larsson et son équipe penchent plutôt en faveur d’une troisième hypothèse mettant en jeu des éléments chimiques très étudiés ces dernières années : les radicaux libres, des molécules oxydantes qui attaquent et dégradent les composants cellulaires. « Des tests très récents montrent que le taux de molécules oxydantes augmente chez nos souris mutantes, indique le chercheur. Et il est fort probable que les altérations perpétuées sur l’ADN mitochondrial en soient responsables. »

 

La clé de l’éternelle jeunesse ?

 

Privilégier la piste des radicaux libres est assez naturel, puisque, justement, les mitochondries sont la source majeure de ces éléments dans la cellule. Emis en faible quantité, ils sont en fait les sous-produits naturels des réactions chimiques qui conduisent à la production d’énergie. Mais il a été démontré que le déséquilibre de ces réactions entraîne une surproduction de radicaux libres. « Or, il est tout à fait logique de penser que les mutations accumulées sur l’ADN mitochondrial perturbent la chaîne énergétique et favorise la synthèse de molécules oxydantes », commente Paul Hasty. Celles-ci diffusant allégrement à travers les parois de la mitochondrie, elles auraient alors tout le loisir d’attaquer les constituants cellulaires et de provoquer leur vieillissement.

 

Tout semble donc accuser les radicaux libres. En effet, que ce soit chez l’animal, chez l’homme ou encore chez d’autres organismes tels que vers, mouches drosophiles et levures, leur taux augmente avec l’âge. Et surtout, des expériences spectaculaires menées chez le ver Caenorhabditis elegans ont montré qu’on peut retarder son vieillissement en dopant l’activité d’un gène impliqué dans le mécanisme d’élimination des radicaux libres.

 

  

mitochondrie-v2

  

 

Forts de ces données, les chercheurs tentent de prouver concrètement le rôle des radicaux libres dans le vieillissement et de l’intégrer aux autres  mécanismes en jeu. Une tâche d’envergure qui promet des lendemains formidables : s’ils y parvenaient, ils tiendraient là une explication parfaite du vieillissement naturel et ouvriraient la porte à des moyens d’action contre l’usure du temps. Car la différence entre souris mutantes et souris normales réside dans la vitesse d’accumulation des mutations d’ADN mitochondrial. Le phénomène est le même, sur un rythme différent. Or, certains scientifiques pensent que les altérations génomiques sont causées par les radicaux libres eux-mêmes, plaçant la mitochondrie dans une spirale infernale : son fonctionnement produit les composés oxydants qui détériorent son propre génome, lequel, avec le temps, accumule les mutations. A force, elles se répercutent sur son système de production énergétique qui se met donc à produire encore plus de radicaux libres. Et ainsi de suite.

 

Mais si les mitochondries sont bien responsables de notre déclin temporel, peut-être est-ce alors par leur truchement que nous réaliserons ce vieux rêve de vivre jeune plus longtemps ? Les chercheurs tentent déjà d’augmenter le niveau de protection du génome mitochondrial afin de créer une race de souris qui vieillissent… moins vite cette fois.


 








 
Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:41

Ils veulent changer l’espèce humaine

 

Des hommes transformés génétiquement, plus beaux, plus grands, plus forts, jamais malades… Ce rêve – si dangereux – est aujourd’hui à la portée de généticiens fascinés par la puissance des technologies qu’ils ont élaborées. Qui pourra les arrêter ?

 

 

 

 clonage homme

 

 

 

Après la souris et la tomate, voici venir l’homme transgénique. Un projet fou qui vise à introduire de nouveaux gènes dans notre espèce, comme le fait déjà chez les animaux de laboratoire et les plantes. Rien à voir avec les thérapies géniques, comme celles que soutien le Téléthon : elles se bornent à ajouter des gènes dans certaines cellules, mais surtout pas dans les cellules sexuelles, ovocytes ou spermatozoïdes, car la modification se transmettrait de génération en génération avec des conséquences imprévisibles.

 

En dépit de toutes les mises en garde, et contre l’avis des comités d’éthique du monde entier, des généticiens, de plus en plus nombreux, la plupart américains, envisagent de s’attaquer précisément à ces cellules germinales pour créer des lignées d’hommes transgéniques. Le tabou est brisé.

 

Verra-t-on apparaître une caste de surhommes, dotés de gènes décuplant leur puissance intellectuelle, leur force physique, leur résistance aux maladies, au stress, des hommes capables de vivre plus vieux tout en restant jeunes ? Ils seront nécessairement issus des classes les plus favorisées puisque toutes ces améliorations coûteront fort cher. Dans une divagation futuriste, le biologiste Lee Silver, de l’université de Princeton (New Jersey), auteur de Remaking Eden, imagine la séparation de l’humanité en deux classes, les « GenRich » et les « Natural », évidemment dominée par les premiers. Deux classes qui finissent par constituer deux espèces car elles ne peuvent plus se reproduire entre elles. Vision d’horreur ? Certes, mais Lee Silver est un homme positif : ce serait juste une étape difficile vers l’adaptation de certaines espèces humaines à une vie heureuse sur d’autres planètes.

 

Revenons sur Terre, en 1990. Des médecins de Bethesda (Maryland) tentent de soigner un enfant atteint d’un grave déficit immunitaire héréditaire en introduisant un gène sain dans ses globules blancs. C’est la première expérience humaine de thérapie génique. A l’époque, le risque de voir le « gène-médicament » contaminer les cellules sexuelles terrifie les autorités médicales. Ce n’est qu’à la condition expresse que cela ne se produira pas qu’on autorise les essais sur l’homme. Mais ce qu’on perçoit toujours comme le danger absolu devient un avantage potentiel aux yeux d’une minorité de chercheurs. Ils espèrent qu’en modifiant les cellules sexuelles ils pourront guérir beaucoup plus facilement les maladies génétiques des enfants qui en seront issus. Ils espèrent même éradiquer ces maladies souvent incurables…

 

 

 031231 dna watson hmed 12p h2                     adn-bilan

 

 

L’an dernier encore, il était fort mal vu d’avance cette idée, quand s’est tenu le premier symposium scientifique consacré à ce qu’on appelle les thérapies génétiques germinales. Organisé par des responsables de l’université de Californie Los Angeles (UCLA), il rassemblait le gratin de la génétique américaine. Les débats avaient pour objet d’examiner l’intérêt des interventions sur les cellules germinales humaines et de fournir une information scientifique de qualité aux autorités de santé qui devront prendre des décisions dans ce domaine.

 

Pour Grégory Stock, professeur à l’école de médecine de UCLA et co-organisateur du symposium, « la vraie question n’est plus de savoir s’il faut ou non appliquer les thérapies germinales à l’homme, mais quand cela sera possible et comment on s’y prendra. La technologie avance très vite, et ses possibilités sont fascinantes. Elle devrait être disponible dans moins de vingt ans. » Grégory Stock et cons collaborateur John Campbell sont d’intarissables partisans des thérapies germinales, dont ils font la promotion à longueur de congrès et sur leur site Internet. Dans ses conférences, Stock ne cesse de procéder à ce sondage éclair : « Imaginez que vous êtes en train de concevoir un enfant in vitro. Accepteriez-vous, si l’opération est sans danger, qu’on ajoute à l’embryon un gène qui le protégerait du cancer ? » Invariablement, la grande majorité de ses auditeurs répond oui.

 

Principal argument des défenseurs de cette méthode : elle devrait être beaucoup plus efficace que les thérapies géniques classiques, « Hormis quelques cas anecdotiques, aucune thérapie génique n’a encore fait ses preuves contre une quelconque maladie », rappelle French Anderson (université de Californie du Sud), pionnier mondial dans ce domaine. Ce qui n’a rien de surprenant car « nos organismes ont passé des dizaines de milliers d’années à apprendre à protéger leur génome des gènes étrangers, ceux des virus notamment ». Si plusieurs essais sont prometteurs, note Anderson, les obstacles sont nombreux. En effet, les gènes thérapeutiques, généralement « emballés » dans un virus vecteur inoffensif, ont un long parcours à effectuer avant d’atteindre le tissu cible – par exemple, le muscle dans le cas de la myopathie. Ils traversent les muqueuses (bouche, estomac, poumons) et leur puissant système de défense cellulaire, le système immunitaire, les diverses barrières tissulaires entre les organes, la membrane des cellules cibles, enfin la membrane du noyau cellulaire. Au terme de ce périple semé d’embûches, bien peu de gènes parviennent au but, même quand on vise des tissus plus accessibles tels que la muqueuse des poumons.

 

Un argument économique

 

Au contraire, si le gène est intégré dans un œuf fécondé, au premier stade de son développement, il sera présent dans toutes les cellules de l’enfant, dont celles qui fabriquent les spermatozoïdes ou les ovules. Ses descendants bénéficieront donc eux aussi du gène-médicament.

 

Les thérapies géniques classiques rencontrent un autre écueil, presque insurmontable aujourd’hui : le gène transféré se place un peu n’importe où dans les chromosomes de la cellule hôte, ce qui risque de perturber gravement son fonctionnement. De plus, quand ce gène est mal placé, la cellule aura du mal à l’utiliser et il perdra son efficacité. L’idéal serait d’obtenir une « recombinaison homologue », c’est-à-dire l’insertion du gène thérapeutique en lieu et place du gène déficient. Malheureusement, ce phénomène ne se produit qu’une fois sur dix mille, ou cent mille dans le pire des cas, et nul ne voit encore comment augmenter sa fréquence in vivo.

 

 

 cryo2                               1498034596 small 

 

 

In vitro, il en va tout autrement. Dans une culture de cellules, la recombinaison homologue reste rare, mais un système de sélection chimique permet d’extraire celles qui ont accompli cette recombinaison avec succès. Justement, la thérapie germinale travaille in viro sur des cultures de cellules embryonnaires. A cet argument technique, les généticiens en ajoutent un autre, économique celui-là : le rapport coût-efficacité des thérapies germinales est nettement plus favorable.

 

Pour mener à bien leur projet, les généticiens peuvent choisir entre deux méthodes : remplacer les gènes défectueux ou ajouter de nouveaux gènes à l’aide de chromosomes artificiels. Ce sont des chromosomes apparemment comme les autres, à ceci près qu’on les fabrique de toutes pièces en laboratoire, à partir de morceaux d’ADN humain. En théorie, les chromosomes artificiels présentent un avantage majeur : ils dispensent d’insérer les gènes thérapeutiques dans les chromosomes du receveur. Ils viennent simplement se placer à côté des autres dans le noyau des cellules. De plus, leur taille est suffisante pour apporter d’un coup à la cellule un complexe de plusieurs gènes. Le projet le plus futuriste en la matière conçoit le chromosome artificiel comme une sorte de système d’amarrage muni de « bornes » auxquelles on pourrait attacher, à chaque génération, de nouveaux gènes, comme on ajoute des extensions à un ordinateur. On pourrait plus tard remplacer ces gènes-là par de nouvelles versions plus performantes.

 

Est-ce un délire de savants fous exaltés par leurs rêves de toute-puissance, ou une projection réaliste des applications de techniques déjà disponibles ? Ni l’un ni l’autre. La technologie n’est pas au point, c’est certain. Mais, en dix ans, la génétique a fait des progrès considérables, le décryptage du génome et la découverte des fonctions des gènes avancent à pas de géant, ainsi que la connaissance des enzymes qui participent à leur régulation.

 

« Si nous avons tendance à surestimer ce que nous serons capables de faire dans cinq ans, estime Mario Capecchi, inventeur des techniques de manipulation génétique les plus élaborées, nous sous-estimons généralement ce que nous pourrons faire dans vingt ans. Aucun obstacle théorique ne s’oppose aux thérapies germinales. »

 

La France interdit expressément

 

Désormais, on ne peut plus éviter de s’interroger sur l’avènement des thérapies germinales. Certains pays, dont la France, ont expressément interdit les recherches dans cette voie, mais il n’en va pas de même partout. Si la Déclaration universelle sur le génome humain condamne clairement le clonage et la modification de la nature humaine, elle n’a pas pour autant force de loi.

 

L’Etat américain ne condamne pas expressément les recherches de ce type, mais tout essai clinique doit être soumis à l’autorisation de la Food and Drug Administration (FDA). Les tenants des thérapies germinales se livrent donc à une entreprise de « lobbying » auprès de cette autorité. S’ils parviennent à faire triompher leur point de vue – certains experts de la FDA n’y sont pas hostiles -, il ne fait aucun doute que ces thérapies trouveront sans mal une clientèle fermement décidée à faire bénéficier sa descendance des progrès de la science.

 

Le moratoire sur le clonage réclamé par le président Bill Clinton suscite des sentiments mitigés chez les partisans des interventions sur la lignée germinale, car cette technique pourrait être utile à l’aboutissement de leurs travaux. « Il est urgent de ne pas légiférer sur ces questions, estime le prix Nobel James Watson, codécouvreur de l’ADN. Ce serait se priver de moyens thérapeutiques très efficaces. Car on peut discuter sans fin de grands principes, ce que les gens veulent, c’est ne plus être malades. Si nous les y aidons, ils seront d’accord avec nous. » Selon Watson, il sera toujours temps de légiférer si l’on découvre un mauvais usage. Mais, avant qu’on applique cette stratégie à l’homme, elle devra démontrer sa totale innocuité, vérifiée par de nombreux tests sur l’animal.

 


Eugénisme ou progrès ?

 

Mus par leur pragmatisme yankee, nos apprentis sorciers pèsent-ils bien les risques qu’ils feraient courir à l’espèce humaine ? Qu’adviendra-t-il des futures générations ? Le généticien français Axel Kahn, membre du Comité consultatif national d’éthique, rappelle que des gènes jugés mauvais aujourd’hui –ceux du diabète, par exemple – ont probablement été bénéfiques dans le passé : ils ont favorisé la naissance de gros bébés. D’autres gènes de prédisposition à certaines maladies pourraient devenir salvateurs un jour, sans qu’on puisse prédire lesquels.

 

arton25                          couv-adn
 

 

« Si on avait les moyens de l’empêcher, rétorque Lee Silver, qui accepterait de laisser ses descendants souffrir de gènes délétères sous prétexte qu’ils pourront se révéler utiles dans un hypothétique et lointain avenir ? Au nom de quel caractère sacré de l’ADN, n’aurait-on pas le droit d’y toucher ? L’ordre naturel n’est pas forcément bon. Il est simplement le fruit du hasard des changements de l’environnement. Les grandes extinctions du crétacé ont favorisé les mammifères, mais la nature a également fabriqué des virus mortels, et nul ne se plaint que l’homme ait éradiqué celui de la variole. Dès lors, pourquoi ne pas modifier une lignée, si cela peut éviter à des hommes de souffrir ? »

 

« Je ne comprends pas ceux qui veulent interdire les interventions germinales, renchérit le biologiste Daniel Koshland, ancien directeur de la revue américaine Science. On le fait déjà, puisque, en donnant de l’insuline à un enfant diabétique, on lui permet de vivre et de parvenir à l’âge de la reproduction. Ses enfants seront porteurs des gènes du diabète, ce qui accroît la fréquence naturelle de ces gènes dans la population. » Dans cette logique, il serait donc bénéfique d’intervenir sur la lignée germinale. Cet eugénisme positif et indolore passerait pour un progrès de la médecine. Et puis, cherchent à nous rassurer les généticiens, ces manipulations ne concerneront qu’un nombre limité d’individus puisqu’on ne peut y procéder que lors d’une fécondation in vitro, mode de reproduction qui ne risque pas de se généraliser (environ 8000 naissances par an en France).

 

Cependant, un point d’éthique tracasse nos démiurges du génome : comment obtenir le « consentement éclairé » des générations futures qu’impose la loi ? Si cette exigence continue à freiner les avancées de la recherche, Mario Capecchi propose deux solutions : d’une part, rendre les modifications génétiques réversibles en retirant les gènes ajoutés ; d’autre part, soumettre l’expression de ces gènes à l’absorption d’un médicament déclencheur.

 

Où est la barrière morale ?

 

En y regardant de plus près, la volonté farouche de corriger la lignée germinale apparaît d’autant plus malsaine qu’elle n’est pas nécessaire. Axel Kahn est catégorique : cette méthode ne présente aucun avantage sur la sélection génétique in vitro des embryons avant leur implantation dans l’utérus de la mère. En effet, pour dépister certaines maladies héréditaires incurables, on sait prélever, après une fécondation in vitro, une cellule de l’embryon et diagnostiquer la présence de nombreux gènes anormaux. On élimine ensuite les embryons qui seront malades et on implante seulement ceux qui échapperont à la maladie. Cependant, dans le cas d’une maladie récessive, on n’écartera pas les embryons porteurs sains. Les gènes anormaux se transmettront à la descendance et se manifesteront lorsqu’ils seront de nouveau appariés à des gènes semblables provenant d’une autre lignée.

 

 

 DACTU IMG PREVIEW                     foetus15semaines

 

 

En France, on considère que la suppression des embryons porteurs sains est un acte eugéniste condamnable. Encore une fois, cette position n’est pas universelle. Mais, si la sélection d’embryons peut suffire, pourquoi vouloir à tout prix manipuler la lignée germinale ? « Parce que ces chercheurs ont un projet autre que thérapeutique, s’écrie Axel Kahn. Ils veulent améliorer des lignées humaines. Sur le plan éthique, c’est inacceptable. » Inacceptable dans de nombreux pays européens traumatisé par les horreurs du nazisme, mais pas forcément en Chine, par exemple.

 

« Si on a les moyens d’améliorer les hommes, pourquoi ne le ferait-on pas ? » lance James Watson, toujours plus provocateur. Alors que certains tenants de la thérapie germinale s’interrogent sur les limites qu’il faudrait assigner à leurs interventions – rechercher non pas l’amélioration mais seulement la thérapie -, d’autres enjambent la barrière éthique sans vergogne, en faisant remarquer qu’il est d’ailleurs bien difficile de savoir où elle se trouve. A partir de quelque taille un enfant sera-t-il trop petit pour vivre heureux ? Ajouter un gène qui protège du cancer, est-ce une amélioration ou une thérapie préventive ? L’histoire des comités de bioéthique montre bien que, sous la pression de la compétition scientifique et économique, les barrières morales reculent sans cesse. Par exemple, la loi française de 1994 interdit toute recherche sur l’embryon humain, mais déjà le comité national d’éthique propose d’assouplir cette disposition lors de la révision de la loi cette année.

 

Admettons que les outils soient enfin disponibles, fiables et sans danger. On nous proposera d’abord de les utiliser contre les maladies héréditaires incurables, puis on passera aux maladies engendrées par des prédispositions génétiques, aux affections dues au vieillissement, au cancer, etc. Et pourquoi ne pas y ajouter des gènes de résistance à des virus, ou d’autres qui accroissent la longévité ou améliorent les performances intellectuelles ou physiques ? Nous voici donc en route vers la fabrication de lignées de surhommes aux caractéristiques génétiques artificielles. Domineront-ils le monde ? Seront-ils condamnés à remplir des tâches spécifiques en fonction de leurs aptitudes génétiques ? Ou, comme l’imagine Lee Silver, seront-ils destinés à coloniser des mondes nouveaux ?

                     

 

 23chromosomes                 05645 recherches genetiques 0094

 

 

Il est inquiétant d’observer que la volonté de créer une espèce humaine améliorée est celle de scientifiques renommés – satisfaisant le désir d’une partie, minoritaire mais déterminée, de la population. En effet, les partisans des thérapies germinales s’accordent avec leurs opposants pour souligner que la demande viendra des couples eux-mêmes.

 

Dans son Meilleur des mondes, Aldous Huxley n’avait finalement pas prévu le pire. Il était inutile d’imaginer une sorte d’Etat totalitaire qui contrôlerait la reproduction et la nature humaine. Au fil des générations, les individus risquent de s’en charger eux-mêmes en concevant leurs enfants à façon, pour leur donner, en toute bonne conscience, les gènes les plus favorables à leur réussite.

 

L’homme devient son créateur

 

Depuis longtemps déjà, par la culture, la technique, la médecine, l’homme échappe à la sélection naturelle. Les thérapies germinales apparaissent comme l’inévitable prolongement de la prise de pouvoir de l’homme sur sa propre évolution. Il devient son propre créateur. Un très vieux rêve, vertigineux, si difficile à refouler. Nos arrière-arrière-petits-enfants sauront-ils renoncer à l’extraordinaire puissance des outils que nous leur forgeons ? Il est déjà trop tard…

 

La toute puissance des cellules « ES »

 

Chez la souris et quelques autres mammifères, on connaissait des cellules embryonnaires douées de capacités extraordinaires : elles se multiplient indéfiniment in vitro sans jamais donner un tissu particulier. Mais, dès lors qu’on les implante dans un embryon, elles peuvent engendrer n’importe quel type de cellule de l’organisme.

 

Les cellules ES (embryonic stem cells, « cellules souches embryonnaires ») permettent actuellement de concevoir des animaux transgéniques. Les biologistes américains James Thomson et Jeffrey Jones viennent de découvrir le même type de cellules chez l’embryon humain. Ce qui ouvre de fantastiques possibilités pour la production de tissus biologiques ou, dans un avenir plus lointain, pour la conception d’un homme transgénique. Notons que Thomson et Jones ne pouvaient être financés par l’Etat américain, qui se refuse par éthique à soutenir des recherches non thérapeutiques sur l’embryon humain. C’est donc grâce à des crédits privés qu’ils ont mené leurs travaux.

 

Ils veulent cloner l’homme

 

Depuis la naissance de la brebis Dolly, en 1997, la plupart des grands pays ont juré qu’on ne fabriquerait pas de clones humains. Cette louable intention empêchera-t-elle de succomber à la tentation de se reproduire eux-mêmes les gens assez riches et assez inconscients pour en avoir envie ? C’est d’autant moins probable que quelques chercheurs indisciplinés sont bien décidés à passer outre. Pour la science, pour la gloire, pour l’argent…



chromosome20X20et20Y                  RTEmagicC c3cb297845 jpg



Ecartons le physicien américain William Seed qui clame haut et fort sa volonté de se faire cloner, personne ne le prend au sérieux. Mais le très médiatique obstétricien italien Severino Antinori – à qui l’on doit déjà l’enfantement de femmes de plus de 60 ans et qui aimerait bien être le premier à créer un clone – est très fortuné er pourrait acquérir le savoir-faire de son rêve. On citera également Michel Revel, généticien à l’Institut Weizmann, en Israël : ce religieux pratiquant se déclare favorable au clonage pour lutter contre la stérilité.

 

Il faut aussi tenir compte des nombreuses cliniques américaines qui ne voient aucun obstacles, sinon technique, à pratiquer le bouturage humaine. Tout récemment, la société Advanced Cell Technology a déclaré avoir créé, par clonage, des embryons homme-vache, ce qui pourrait constituer une étape sur le chemin du clonage humain à partir de cellules embryonnaires.

 

Cette situation réjouit les partisans de l’homme transgénique, car, pour modifier l’espèce humaine, il pourrait être nécessaire de recourir au clonage.

 

Petit lexique de génétique

 

Tous les organismes vivants sont constitués de cellules spécifiques de chaque tissu. Dans leur noyau, elles contiennent une grande molécule, l’ADN (acide désoxyribonucléique), qui, replié sur lui-même et fractionné en longs fragments, forme les chromosomes. L’ADN se compose d’une sorte d’armature en forme de double hélice (comme l’escalier de Léonard de Vinci, à Chambord). Sur chaque brin de l’armature sont fixés les nucléotides : thymine (T), adénine (A), cytosine (C) et guanine (G). L’enchaînement de ces bases est assimilable à un texte dont certaines phrases constituent des informations appelées gènes. On nomme génome l’ensemble des gènes portés par les chromosomes. A partir de cette information, la cellule synthétise des protéines dont elle se sert pour son propre fonctionnement ou qu’elle sécrète à l’usage d’autres cellules.

 

Toutes les cellules contiennent tous les gènes d’un organisme, mais elles n’utilisent que certains d’entre eux en fonction du tissu auquel elles appartiennent. En effet, selon les tissus, les cellules contiennent diverses molécules nommées facteurs de transcription qui n’activent que certains gènes, par exemple, celui de la synthèse des protéines du lait dans les cellules des glandes mammaires quand une hormone vient déclencher ce processus. On dit d’un organisme qu’il est transgénique quand il a intégré à son génome un gène étranger de sorte que ce gène se transmet à toute sa descendance, créant ainsi une lignée transgénique.

  

  

L'île du Dr Moreau-1236

 

 

   

 

 

 

 

 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:37

L’atome est-il divisible à l’infini

 

 

Coup de tonnerre dans le ciel de la physique. On croyait que le quark était l’ultime particule, or, d’après une expérience américaine, il serait lui-même constitué de « sous-quarks ». Le modèle standard de la physique fondamentale tremble sur ses bases !

 

 

 Collision de particules-v1

 

 

Les quarks sont des corpuscules que les physiciens considéraient, il y a seulement quelques semaines, comme les ultimes et indivisibles constituants de la matière. En fait, ils ne seraient pas si élémentaires que ça : telle est l’excitante conclusion d’une expérience conduite dans l’accélérateur géant Tevatron du laboratoire Fermi, près de Chicago, et rapportée par l’hebdomadaire spécialisé américain Science dans son numéro du 9 février. Moins d’un an après la découverte, dans ce même « Fermilab », du sixième et dernier quark – le « top » -, qui mettait magnifiquement un terme au tableau des particules élémentaires, l’édifice semble s’écrouler. La quête de l’élémentarité repartirait de plus belle vers le toujours plus petit…

 

De Démocrite à Rutherford

 

Le conditionnel s’impose, car l’existence de « sous-quarks » n’est encore que l’une des hypothèses proposées pour expliquer d’étranges anomalies dans le résultat de l’expérience CDF (Collider Detector at Fermilab). Mais l’hypothèse émoustille déjà les physiciens des particules, un peu las des succès répétés et sans surprise du trop fameux Modèle standard, l’édifice théorique qui décrit les particules et les forces élémentaires de la matière. « Enfin il se passe quelque chose ! Un événement imprévu va ébranler cette forteresse théorique », pensent tous les physiciens.

 

La nature semblait donner raison à la superbe intuition du philosophe grec Démocrite (460-370 avant notre ère), qui, le premier, imagina que toute la matière était composée d’atomes insécables (le mot atome signifie en grec « qu’on ne peut couper »), assemblées de diverses manières, au moyen de « crochets », pour former l’infinie variété de tous les objets qui nous entourent. Il fallut attendre la fin du XIXe siècle pour voir se confirmer la réalité des atomes, ultimes constituants de la centaine d’éléments chimiques qui composent la table de Mendeleïev (de l’hydrogène à l’uranium, en passant par le carbone, le fer ou l’or).

 

 

 

 525px-Quark structure proton                        Les quarks-v1

 

 

Mais il a suffi de quelques années pour que les progrès de la physique détruisent le mythe non pas de l’atome mais de son caractère insécable. C’est d’abord, en 1897, la découverte de l’électron, premier corpuscule subatomique. Puis, en 1911, le prix Nobel de chimie britannique Ernest Rutherford élucide la structure de l’atome. Son expérience, célèbre et magistrale, vaut d’être racontée, car c’est l’ancêtre de bien des expériences de physique des particules, y compris, peut-être, de celle du Fermilab…

 

Pour sonder les atomes, Rutherford a eu en effet l’idée de bombarder une mince feuille d’or avec des particules α émises par du radium. Il remarque que, si a plupart des particules α sont faiblement déviées en traversant la feuille, une minorité d’entre elles subissent au contraire une forte déviation et parfois même bondissent en arrière, comme si elles avaient heurté quelque chose de dur… Rutherford comprend que les atomes qui constituent la feuille d’or ont une structure très peu homogène : ils sont formés d’un noyau central, petit, très massif et de charge électrique positive, autour duquel gravitent des électrons, légers et négatifs – si bien que le volume des atomes est en réalité essentiellement du vide !

 

Vingt ans plus tard, les physiciens dévoilaient la structure du noyau atomique : il est constitué de deux sortes de particules, les protons (positifs) et les neutrons (neutres).

 

Des gerbes de hadrons

 

C’est seulement dans les années 60 que sera franchi le pas suivant sur le chemin de l’élémentarité. En bombardant des particules cibles avec des particules projectiles dans des accélérateurs, les scientifiques se trouvent confrontés à toute une ménagerie d’étranges particules issues de ces réactions, la plupart d’entre elles appartenant à la même famille que les protons et les neutrons (la famille des hadrons). La situation s’éclaircit beaucoup quand les théoriciens américains Murray Gell-Mann et George Zweig suggèrent que les hadrons ne sont pas élémentaires, mais qu’ils sont formés de sous-particules, qu’ils baptisent quarks (d’après le nom de personnages du romancier irlandais James Joyce). Avec seulement trois sortes de quarks (« u », « d » et « s »), on peut reconstituer le proton, le neutron et tous les autres hadrons connus à l’époque. Plus tard, trois autres quarks, « c », « b » et « t », viendront compléter le tableau.

 

Pourtant, cette construction séduisante avait un défaut majeur : il était impossible d’isoler les quarks. A défaut de les extirper de leur hadron, ce qui est en réalité impossible (à cause d’une propriété qui leur est spécifique, le « confinement »), on réussit quand même à les détecter à l’intérieur même des protons, en 1967, dans l’accélérateur linéaire de Standford (Californie). Depuis, les physiciens ont édifié une théorie décrivant la « force forte », qui lie les quarks à l’intérieur des hadrons par l’intermédiaire de particules nommées gluons (parce qu’ils « collent » les quarks entre eux).

 

 na-2004-166 9503044 02

 

 

Plus de vingt ans après, au Fermilab, des protons et des antiprotons tournent en sens contraire à une vitesse très proche de celle de la lumière, pour se heurter dans des collisions qui libèrent une énergie de 1,8 Tev (1800 milliards d’électronvolts), d’où le nom de Tevatron donné à cet accélérateur, aujourd’hui le plus puissant du monde. A ces énergies colossales, « chaque proton peut être considéré comme un petit faisceau de quarks et de gluons », explique John Ellis, théoricien au CERN (le laboratoire européen de physique des particules, près de Genève). Et il en va de même pour chaque antiproton, ce qui donne des collisions plutôt compliquées entre quarks, antiquarks, gluons et antigluons ! L’énergie libérée dans ces chocs se rematérialise immédiatement en toutes sortes de particules, surtout en quarks (et en anti-quarks) qui, ne pouvant vivre seuls, engendrent des gerbes de hadrons, des « jets » dans le jargon des physiciens.

 

Or, depuis plusieurs mois, l’expérience CDF met en lumière « un nombre étonnamment élevé de collisions violentes entre quarks ». Plus précisément, il y a une proportion anormalement forte de jets très énergétiques concentrés dans des angles très étroits. « C’est précisément le genre d’effet qu’on observerait si les quarks étaient non pas des particules fondamentales mais possédaient une structure interne », commente, dans Science, le porte-parole de l’expérience, William Carithers.

 

L’expérience serait alors un remake de celle de Rutherford : les chocs violents révéleraient des interactions entre sous-quarks à l’intérieur des quarks, tout comme les particules α très déviées témoignaient de l’existence du noyau atomique.

 

 

 RTEmagicC belle

 

 

En fait, si les physiciens de l’expérience CDF affirment clairement qu’il y a bien un excès de collisions violentes au Tevatron, il est encore trop tôt pour en déduire l’existence révolutionnaire des sous-quarks. Le texte de présentation de Science est prometteur, mais l’article proprement scientifique est beaucoup plus prudent. Car, à en croire John Ellis, il existe plusieurs autres explications, moins fantastiques mais plus probables. Il faut d’abord reconsidérer le Modèle standard, et chercher à savoir si l’on n’a pas oublié, ou sous-estimer, certains effets qui expliqueraient les anomalies.

 

Il pourrait également exister une particule lourde jusqu’alors inconnue (un « cousin » du boson faible Z°, la particule qui véhicule la force dite faible). La désintégration de cette particule serait responsable du taux apparemment élevé d’interactions à haute énergie. L’existence d’une telle particule pourrait en outre justifier d’autres petites anomalies, observées cette fois dans une expérience du CERN. Et elle n’exigerait que de légères modifications du Modèle standard.

 

C’est seulement si ces explications « banales » sont rejetées qu’on pourra envisager sérieusement des hypothèses plus spéculatives, telle que la « non-élémentarité » des quarks. Ces précautions feraient croire que les physiciens sont d’incorrigibles conservateurs, accrochés à leur cher Modèle standard. En réalité, ils ne sont pas dupes. Ils savent bien que le fameux Modèle n’est pas « la » théorie définitive de la physique des particules et des forces, ne serait-ce que parce qu’il n’inclut pas la gravitation et n’explique pas, par exemple, les masses et les charges des particules.

 

Cependant, aucune loi physique  n’interdit que les quarks possèdent une étendue et une structure interne. Alors se posent les inévitables questions (méta ?) physiques. Cette course s’arrêtera-t-elle un jour ? Trouvera-t-on des particules vraiment élémentaires, ou la matière se subdivise-t-elle à l’infini ? La réponse des physiciens est à la fois pragmatique et vertigineuse. Aujourd’hui, les énergies délivrées par le Tevatron permettent d’explorer la matière jusqu’à l’échelle de 10-17 cm. Mais plus l’énergie augmente, plus on progresse vers les petites dimensions. Jusqu’où ?

 

D’autre part, lorsqu’on cherche à unifier les théories quantiques régissant le monde des particules et la relativité générale d’Einstein, qui décrit la gravitation à l’échelle de l’Univers, les calculs donnent une dimension (10-33 cm) où toutes les forces se rejoignent. S’il y a une taille minimale, c’est peut-être celle-là, ce qui laisse une certaine marge…

 

 

 

250px-CMS Higgs-event

 

 

 

 

 

  


 

 





Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 15:26

Comètes, astéroïdes

 

La Terre contre-attaque

 

Bombarder une comète. Tel est l’objectif de la mission Deep Impact qui a décollé le 30 décembre 2004 de Cap Canaveral. Et même si cette manœuvre spectaculaire vise essentiellement à obtenir une meilleure connaissance des comètes, elle est le premier acte « agressif » envers les innombrables petits corps qui menacent la Terre. D’ici quelques années, d’autres missions pourraient suivre.

 



Frappe astéroïde


Au matin du 30 juin 1908, un corps céleste d’une taille estimée à une cinquantaine de mètres de diamètre pénétrait dans l’atmosphère et se désagrégeait à 10.000 m d’altitude au-dessus de la Sibérie. Quelques minutes après l’explosion, plus de 2000 km² de taïga étaient totalement dévastés. Si cette région désertique de la Toungouska avait été aussi peuplée que l’Europe de l’Ouest, les victimes se seraient comptées par millions. Un siècle plus tard, les traces du cataclysme – des centaines de milliers d’arbres abattus – ont presque disparu. Et la Terre lance sa « contre-attaque ». La sonde Deep Impact a décollé de Cap Canaveral à bord d’une fusée Delta 2, avec un objectif singulier : bombarder la comète Tempel 1, qui croise entre Jupiter et la Terre. Si tout se passe bien, l’engin larguera un projectile de 370 kg, qui percutera la surface glacée de l’astre errant. A plus de 10,2 km/s, ce véritable boulet de canon devrait former un cratère de 25 m de profondeur pour 100 m de diamètre… A moins qu’il ne détache carrément un fragment de la comète.

 

Cet « acte de guerre » spectaculaire contre la comète Tempel 1 n’est pas le résultat d’une rancune tenace envers les petits corps qui ont régulièrement bombardé la Terre depuis 4,5 milliards d’années. Pas question non plus de venger la disparition des dinosaures, attribuée au moins en partie à la chute d’un gros astéroïde en Amérique centrale voici 65 millions d’années. Le but des astronomes est d’en savoir un peu plus sur la structure et la composition interne des comètes. Car jusqu’ici, ils ont dû se contenter d’observer à distance les gaz relâchés par ces corps glacés lors de leur passage au plus près du Soleil. Or, précisément, le rayonnement solaire dissocie la plupart des molécules libérées, de sorte que les scientifiques doivent déduire leur existence à partir d’éléments observés. De plus, le dégazage engendré par la chaleur du Soleil n’affecte que la croûte superficielle ; pas moyen de savoir ce que cache l’intérieur des comètes. Pour cette raison, excaver par une collision du matériau de Tempel 1 intéresse au plus haut point les astronomes. Ils espèrent que, pendant les quelques minutes qui suivront la rencontre explosive, la sonde Deep Impact pourra ausculter avec son spectrographe infrarouge le nuage de matériau volatilisé et réaliser quelques découvertes sur les origines du Système solaire. Pourtant, rien n’est moins sûr. « Compte tenu de la courte période de visibilité dont disposera le vaisseau spatial avant de s’éloigner, nous avons fait une demande de temps d’observation à l’aide des quatre télescopes de 8,2 m du VLT, explique Olivier Marco, astronome à l’ESO. De cette manière, nous devrions pouvoir caractériser la composition du noyau de la comète ». D’autant que l’événement promet d’être spectaculaire. Au moment de l’impact, l’éclat de l’astre chevelu (alors voisin de la magnitude 9) pourrait augmenter de 2 à 5 magnitudes ! Une aubaine pour les astronomes amateurs européens puisque Tempel 1 sera visible dans le ciel. Le VLT lui, devra attendre une douzaine d’heures avant de tenter ses éventuelles observations.

 

 


CometTempel1 Rawlings low                    comete-asteroide-meteorite

 

 

 

Si Deep Impact poursuit une quête purement scientifique, elle n’en constitue pas moins la première mission « agressive » en direction de l’un des innombrables petits corps du Système solaire… Dont ceux qui menacent la Terre. A ce titre, ses effets fourniront des informations aux scientifiques désirant établir la meilleure manière de faire face au danger d’une collision. Tout d’abord, ils connaîtront le diamètre du cratère créé par le projectile de la taille d’un fauteuil. Plus celui-ci sera gros, plus sera signifiera que le corps céleste est composé d’un agglomérat peu compact. « Indirectement, nous allons recueillir des données sur les propriétés d’une comète. Nous pourrons donc estimer les conséquences d’un impact avec la Terre, avance Patrick Michel, spécialiste des astéroïdes géocroiseurs à l’observatoire de la Côte d’Azur. Mais je ne suis pas sûr que l’on avancera beaucoup plus grâce à cette mission ».

 

En effet, l’une des faiblesses de Deep Impact quant à l’observation des conséquences de la collision est son incroyable manque de temps. Même si la cicatrice laissée par le projectile est photographiée par les caméras à haute résolution, aucun instrument ne pourra faire des mesures. « La sonde ne se placera par en orbite autour de la comète Tempel 1. Il sera donc impossible de voir sa différence de vitesse avant et après le choc, explique Giovanni Valsecchi, spécialiste des géocroiseurs à Rome. Or, cette variation n’est pas détectable depuis la Terre ».

 

 

 



 

 

Voilà pourquoi l’Agence spatiale européenne (ESA) a lancé en 2002 une étude préliminaire sur six projets de missions automatiques spécialement conçues pour évaluer la menace des petits corps (astéroïdes ou comètes) susceptibles de venir frapper la Terre. Le 9 juillet 2004, le comité scientifique Neomap a rendu son verdict en donnant la priorité au projet Don Quichotte. Tout comme Deep Impact, il a pour but de provoquer une collision, non plus avec un noyau cométaire, mais avec un astéroïde de 500 m de diamètre. Et cette fois, il observera précisément la cible longtemps avant et après le choc. Le projet initial prévoit ainsi deux lancements. Une sonde, baptisée Sancho, ira se placer en orbite autour de l’astéroïde. Pendant six mois environ, elle étudiera ses mouvements et déterminera sa masse, sa structure interne et sa forme exacte. Ensuite, une deuxième sonde de 380 kg, Hidalgo, viendra percuter l’astéroïde à une vitesse de plus de 13 km/s. L’impact sera observé par Sancho, qui poursuivra ses investigations pendant au moins quatre mois, afin de mesurer notamment les variations du mouvement de l’astéroïde. Si la collision produit une déviation de l’orbite de 1400 m et un changement de période de rotation de 0,5° par jour, Sancho sera capable de le détecter. « Nous avons choisi de recommander Don Quichotte parce que, parmi les missions d’analyse in situ des risques liés aux collisions, c’est celle qui va le plus au cœur du problème, commente Giovanni Valsecchi, membre du comité Neomap.

 



Apophis                 Asteroide300

 

 

 

Elle devrait permettre de répondre à une question essentielle : peut-on dévier un astéroïde de 200 m à 1 km de diamètre si l’on découvre qu’il va percuter la Terre ? » Car malgré les divers scénarios envisagés, aucun scientifique ne sait comment écarter une éventuelle menace. « Si un objet est un jour en route vers notre planète, il faudra que nous ayons clairement établi la bonne méthode », martèle Patrick Michel, également du comité Neomap. « L’idée de faire exploser un bolide menaçant avec une bombe nucléaire paraît dangereuse : l’objet se divisera en fragments qui toucheront la Terre en plusieurs endroits, pour un résultat encore plus dévastateur, précise Marcello Fulchignoni, spécialiste des astéroïdes à l’observatoire de Paris-Meudon. Mais si l’on veut dévier l’astéroïde par exemple en y ajoutant un moteur ionique, il faut connaître son centre de masse ». Giovanni Valsecchi ajoute : « Un bolide réagira différemment s’il est constitué de roches compactes ou si, au contraire, il est poreux comme Mathilde, qui a été visité par la sonde Near. Ces informations sont nécessaires si l’on veut contrôler la déviation ». D’où l’importance d’essuyer les plâtres avec une mission telle que Don Quichotte. Reste que, pour l’instant, celle-ci, dont l’enveloppe est évaluée à 150 millions d’euros, n’a pas le moindre début de financement. « Il est clair que Don Quichotte ne sera pas proposée à la conférence interministérielle de l’ESA prévue en 2005, prévoit Franco Ongaro, chef du bureau des concepts et études avancées de l’ESA. Dans l’année qui vient, une étude interne sera lancée pour voir quelles modifications peuvent être apportées au projet initial. Par ailleurs, la mission a déjà été présentée à de possibles partenaires. Japonais et Chinois se sont montrés intéressés. Côté américain, la Nasa n’a pas vraiment pris d’engagement ». En supposant que l’ESA parvienne à s’adjoindre le renfort d’autres agences spatiales, Sancho et Hidalgo pourraient décoller en 2008. Quatre ans plus tard, les deux engins atteindraient leur cible, si bien qu’en 2013, les astronomes seraient enfin fixés sur les moyens à mettre en œuvre pour écarter la menace d’un astéroïde géocroiseur.

 


tempel                    Astéroide-explosé

 

 

 

A priori, rien ne presse car les collisions avec des bolides similaires à celui qui a frappé la Toungouska ne surviennent statistiquement qu’une fois tous les 1000 à 10.000 ans. Pourtant, les télescopes automatiques tels que Linear ou Neat découvrent sans cesse de nouveaux rochers célestes potentiellement dangereux. D’ici dix ans, l’ensemble des instruments d’observation qui seront en activité au sol (dont le Discovery Channel Telescope, de 4 m de diamètre, à partir de 2006) auront découvert 80 à 90 % des géocroiseurs de moins de 300 m de diamètre. Les astronomes pourront étudier leur orbite et prédire leur trajectoire plusieurs années à l’avance. Il serait alors dommage de ne pas savoir comment éviter une éventuelle catastrophe annoncée.

 

Première cible : la comète Tempel 1

 

 

 hayabusa asteroide-388x275                  DonQuijote-asteroide-impact

 

 

Découverte en 1867 par Ernst Tempel, la comète visée par Deep Impact appartient à la famille de Jupiter, composée de comètes à courte période. Elle tourne autour du Soleil en cinq ans et demi. Vraisemblablement formé voici plus de 4,5 milliards d’années au niveau de la ceinture de Kuiper (au-delà de Neptune), elle aurait été injectée dans le Système solaire interne il y a moins de 10.000 ans. Son noyau, dont le diamètre est estimé à 6 km, est animé d’une rotation assez lente (entre 42 et 22 heures). Tempel 1 croisera à 133 millions de kilomètres de la Terre lorsque le projectile de Deep Impact la percutera. La rencontre sera observable depuis l’Europe dans la constellation de la Vierge, non loin de Spica.

 

Pour quelques fragments d’astéroïdes

 

 astres-M6

 

 

 

" Connaître l’ennemi pour mieux s’en protéger ». Selon Marcello Fulchignoni, de l’observatoire de Paris-Meudon, telle est la devise actuelle des astronomes étudiant les corps qui approchent la Terre. Pour la mettre en application, le Centre national d’études spatiales (Cnes) commencera en avril 2005 des études préliminaires pour une mission vers un géocroiseur avec retour d’échantillons. « C’est typiquement le genre de missions pour lesquelles nous recherchons une collaboration avec d’autres agences », précise Denis Moura, du Cnes. Si le projet franchit toutes les étapes de sélection, il pourrait voir le jour vers 2010.  



 



 




 

Repost 0
Orphée - dans Sciences
26 février 2010 5 26 /02 /février /2010 14:51

Voyager dans le temps

 

L’expérience qui donne le signal du départ

 

 

Fameux thème de science-fiction, le voyage dans le passé ne transgresse pas les lois de la physique… mais celle de la logique. Pourtant, une expérience récente fournit, pour la première fois, un socle à la plus fascinante des hypothèses.

  

 

 Trou de ver-v3

 

 

 

Peut-on voyager dans le passé ? La question n’en finit pas de troubler les esprits – même les plus rationnels. Le désir de retourner dans le passé est certes un vieux rêve de l’humanité. Pour ne parler que des cents dernières années, livres, films et bandes dessinées ont multiplié à l’envi l’expression de ce « fantasme ». De la Machine à explorer le temps, de Herbert George Wells, publiée en 1895, au film Retour vers le futur, en passant par le Piège diabolique de Blake et Mortimer, les héros de la célèbre BD – sans compter les séries télévisées -, le retour dans le passé semblait la chasse gardée des spéculations romanesques.

 

Mais la réalité dépasse parfois en imagination la pure fiction. Surtout depuis qu’un dénommé Einstein a offert à la science des équations quelque peu exotiques, grâce auxquelles les lois de la physique, sans le garantir, ne s’opposaient pas à un tel voyage. Aujourd’hui, un nouveau pas est franchi, avec une expérience qui pourrait être le « chaînon manquant » conduisant concrètement à la machine à remonter le temps ! Le no man’s land scientifique où s’épanouissait ce cliché de la science-fiction vient d’être pris d’assaut par la physique, non sans mettre notre bon sens à rude épreuve…

 

Le temps n’est pas une donnée absolue

 

Tout a commencé en 1905, le jour où Einstein a échafaudé une théorie, la relativité restreinte, selon laquelle plus un corps se déplace vite, plus le temps s’écoule pour lui lentement. Ce phénomène est non pas subjectif, mais bel et bien réel. La limite étant la vitesse de la lumière (300.000 km/s), vitesse à laquelle le temps se fige ! Ainsi, si un vaisseau quitte la Terre et atteint une vitesse proche de la vitesse de la lumière, les voyageurs évolueront sur un rythme temporel plus lent que les hommes restés sur notre planète. S’ils communiquent par radio, les hommes restés sur place entendront les voix des voyageurs au ralenti, comme lorsqu’on passait un 45 tours à la vitesse d’un 33 tours. Les occupants du vaisseau observeront le phénomène opposé. La dilatation du temps, ainsi qu’on la nomme, est l’une des caractéristiques de l’Univers.

 

Cette loi fut la première atteinte à la croyance en l’existence d’un temps absolu, s’écoulant toujours au même rythme aux quatre points cardinaux de notre monde. Einstein récidiva en 1916, en énonçant la théorie de la relativité générale, selon laquelle il devenait possible de construire de véritables tunnels vers le passé.

 

En effet, selon cette théorie phare de la science du XXe siècle, plus un corps (une étoile) est dense, plus il courbe l’espace, comme une boule de billard posée sur un drap tendu. Cette courbure « précipite » les objets avoisinants sur le corps massif (les attire, en langage classique) : c’est ainsi que s’exerce la force dite de gravitation. Par exemple, la Terre, qui est plus dense que la Lune, produit une courbure plus accentuée de l’espace qui la contient, donc un champ gravitationnel plus fort, que son satellite naturel.


 

article backtothefuture                        HommeSablier

 

 

 

La densité[1] peut croître, du moins en théorie, au point de provoquer l’écroulement du corps sur lui-même, sous l’effet de sa propre gravité : la boule de billard superdense finit par crever le drap. On est alors en présence d’un trou noir cet objet mythique qui, prévu par la théorie de la relativité générale comme stade ultime d’une étoile massive s’effondrant sui elle-même, n’a pas encore été observé et identifié formellement. (On a cependant détecté des phénomènes cosmiques qui laissent croire que les trous noirs existent, in texte 1996). Autre particularité, un trou noir a une telle densité, une telle force d’attraction que même la lumière ne peut lui échapper quand elle tombe dans son puits. Tout ce qui s’en approche sera d’abord broyé puis définitivement gobé.

 

Toujours d’après la relativité générale, un trou noir peut parfois donner naissance à un « trou de ver », véritable tunnel de l’espace-temps débouchant sur une « fontaine de lumière », ou « fontaine blanche », sorte de frère jumeau ennemi du trou noir. L’entrée du trou de ver, le trou noir, absorbe la matière ; la sortie du trou de ver, la fontaine blanche, la recrache ! Avec les particularités, pour le moins étranges, d’une telle configuration, la science surpasse, et de loin, l’imagination. En effet, s’ils existent, les trous de ver sont des raccourcis de l’espace. Dans les trois dimensions où nous avons l’habitude de nous mouvoir, les raccourcis sont courants : si un train emprunte à 100 km/h un tunnel creusé dans la montagne et si une voiture suit le relief de cette montagne à la même vitesse, c’est le train qui arrivera le plus vite à destination. De même, une particule qui entre dans un trou de ver ressort par la fontaine de lumière, qui peut se trouver à des milliards de kilomètres de là, sans avoir dû parcourir physiquement cette distance. Les trous de ver sont des tunnels creusés non plus dans le flanc d’une montagne, mais dans l’espace à trois dimensions.

 

 

Albert Einstein-v1                    univhist-shigemi-numazawa

 

 

Mais il y a plus étrange encore ! D’après la relativité générale, l’espace et le temps sont intimement liés : ils forment une seule entité appelée espace-temps. La modification des paramètres liés à l’espace (lieu, vitesse, densité…) peut entraîner une altération du temps. En manipulant les équations de la relativité générale, des scientifiques[2] ont montré que les trous de ver pouvaient engendrer des « boucles temporelles », sortes de passages du présent vers le passé. Ils devenaient ainsi de véritables machines à remonter le temps. Si l’entrée du trou de ver (le trou noir) est immobile par rapport à nous et si la sortie (la fontaine blanche) se déplace dans l’espace à une vitesse proche de celle de la lumière, le phénomène de dilatation du temps aura une conséquence étonnante : le temps s’écoulera à des rythmes différents à l’entrée du tunnel temporel et à sa sortie. Supposons que la sortie du trou de ver se meut à 99,99 % de la vitesse de la lumière, lorsque 48 heures auront passé à l’entrée, il ne se sera écoulé que 28 minutes à la sortie ! De ce fait, la maîtrise de la construction des trous de ver permettrait de choisir le moment de sortie dans le passé. Dans l’exemple qui précède, si le voyageur temporel pénètre dans le trou de ver 48 heures après l’avoir créé, il en ressortira seulement 28 minutes après l’instant de la création : il aura donc fait un retour dans le passé de 47 h 32 min.

 

Le voyage dans le temps serait-il un jeu d’enfant ? Certains problèmes fondamentaux se posent. On ignore notamment s’il y a réellement des trous de ver dans l’Univers… Que la théorie les prévoie ne change rien à l’affaire, car celle-ci laisse une large place à la spéculation. Cependant, certains indices tendraient à prouver qu’ils existent dans l’Univers… mais seulement à l’échelle quantique, dans l’infiniment petit. Ils ne mesureraient que 10-43 cm et disparaîtraient au bout de 10-35 seconde[3] pour cause d’instabilité structurelle ! On aurait du mal à faire passer un homme et son vaisseau par cette tête d’épingle spatio-temporelle. Pour voyager dans le temps, il faudrait « construire » un trou de ver à notre échelle. Comment s’y prendre ?

 

L’instabilité des trous de ver est due à leur fâcheuse tendance à s’effondrer sur eux-mêmes. En effet, une simple particule qui s’approche de l’entrée du trou noir sera accélérée et atteindra la vitesse de la lumière au moment de s’y précipiter. En physique relativiste, on constate que la masse de la particule augmente à mesure que sa vitesse se rapproche de celle de la lumière. A cette limite, la masse sera infinie !

 

La particule prisonnière du trou noir

 

L’entrée dans le trou de ver de la particule à masse infinie se fera sans problème, car elle ajoutera sa masse gravitationnelle à celle (déjà énorme) du trou noir : le trou noir grandira. Mais, une fois qu’il aura été franchi, les structures du tunnel s’effondreront sous l’effet gravitationnel de la particule. Celle-ci creusera sa propre tombe : du trou de ver ne subsistera que le trou noir, dans lequel la particule restera prisonnière.

 

La seule manière de consolider le trou de ver serait de le « tapisser » avec un « matériau » capable de s’opposer à l’immense champ gravitationnel développé par la particule. Bref, pour maintenir les structures du tunnel, il faut… un champ gravitationnel, c’est-à-dire à énergie négative. Or, à notre échelle, nous ne connaissons pas un tel champ et nous ne savons pas non plus s’il pourrait exister. Nous revoilà en pleine science-fiction !

 

 

 Trou de ver

 

 

Pourtant, ces échafaudages intellectuels viennent de quitter le domaine de la spéculation pour entrer dans celui de la recherche. On a récemment mis en évidence expérimentalement un drôle de phénomène connu sous le nom « d’effet casimir » (voir la revue américaine Science du 7 juin 1996). En quelques mots, si l’on impose une forte tension électrique entre deux plaques conductrices séparées par du vide, on donne naissance à des électrons. Ce qui revient à extraire de l’énergie du vide. D’après les lois de la mécanique quantique, cette énergie ne peut être que négative ! En d’autres termes, un champ électromagnétique très fort peut engendrer une énergie électromagnétique négative. Si l’on extrapole ce résultat à la gravitation, on peut penser qu’un champ gravitationnel extrêmement fort (comme ceux qui se forment à la surface des trous noirs) donnera naissance à une énergie gravitationnelle négative. C’est exactement ce dont on a besoin pour consolider les trous de ver !

 

Les « plans » de la machine à remonter le temps sont, donc déjà conçus. En supposant qu’on puisse un jour fabriquer des trous de ver macroscopiques, il reste à vérifier que ce bel édifice ne croulera pas sous le poids d’une… « bourde » logique. Car toute réalisation matérielle doit respecter certains principes fondamentaux sous-jacents aux lois physiques, tels que la cohérence logique et le principe de causalité[4]. Sinon, la machine à remonter le temps, une fois construite, risque de ne pas fonctionner… Hors de la logique point de salut, même pour la physique la plus théorique.

 

Nos descendants ne peuvent pas nous envahir !

 

Car, si la machine à remonter le temps met en lumière au moins deux paradoxes fondamentaux, elle se heurte à une redoutable interrogation : si le voyage dans le passé est possible, comment expliquer que nous ne soyons pas envahis par de lointains descendants venus du futur qui auraient maîtrisé cette technique ? La réponse est plus simple qu’il n’y paraît. Il faut imaginer qu’une boucle temporelle est une sorte de tunnel. Il est évident que si l’on perce l’entrée du tunnel mais non sa sortie, il ne servira à rien. Le trou de ver temporel suit le même principe : il faut d’abord le construire pour pouvoir l’utiliser !

 

Ainsi, si un inventeur de génie crée un trou de ver le 1er novembre 1996, « l’entrée » et la « sortie » commenceront leur existence à ce moment-là. L’entrée du trou de ver (le trou noir) évoluera normalement ; sa sortie (la fontaine de lumière) peut rester figée dans le temps si on lui communique la vitesse de la lumière. Ainsi, un an plus tard, si l’inventeur décide d’utiliser son tunnel temporel, il entrera par le trou noir, qui l’a suivi dans le temps, et sortira par la fontaine de lumière, qui se trouve « quelque part » entre le 1er novembre 1996 et le 1er novembre 1997.



Trou de ver-v2              trou-de-ver-v1

 

 

L’inventeur ne pourra pas revenir au-delà de la première date, celle de la création : le temps, à la sortie, a simplement été gelé. Bref, nos descendants ne viendront pas nous saluer tant que nous n’aurons pas construit nous-mêmes notre première boucle temporelle (le trou de ver) ! Et voici le premier paradoxe : il serait fort possible que, le 1er novembre 1996, notre génial inventeur voit arriver par la sortie de son trou de ver, son petit-fils – qui n’est pas encore né. Supposons que ce dernier, redoutable psychopathe, tue son grand-père, l’inventeur, qui n’a pas encore de fils. Mort, l’inventeur ne peut plus engendrer de progéniture, donc son petit-fils ne naîtra jamais. Dès lors, comment ce dernier pourrait-il tuer son aïeul ? Ce « paradoxe du grand-père » interdit en toute logique qu’un quelconque retour dans le passé soit possible, car il nie ce qu’il affirme : il nie l’existence du petit-fils et il affirme que c’est celui-ci qui tue son grand père…

 

Hélas, ce cruel paradoxe n’est pas unique ! Si, au lieu de tuer son grand-père, le voyageur du temps fournit à un jeune homme le livre qui le rendra célèbre dans le futur, on débouche sur un nouveau paradoxe. En effet, le jeune homme, qui n’a encore rien écrit, n’aura qu’à recopier son futur livre pour gagner la célébrité. Bref, cette œuvre n’aura jamais été véritablement créée, elle aura simplement été recopiée ! Ce paradoxe est aussi décisif que le précédent : il semble lui aussi condamner tout retour dans le passé.

 

Devons-nous écarter à jamais ce rêve (ou ce cauchemar) ? Accepter la possibilité d’un tel voyage revient à nier les principes de causalité et de cohérence logique, sur lesquels reposent les théories physiques. Or, comme ces dernières sont en adéquation avec les observations, leurs bases semblent solides. En quelques mots : ou bien la physique élucide les paradoxes, ou bien il faut renoncer aux voyages dans le passé !

 

 

 Trou de ver-v6                t-t sablier

 

 

C’est là qu’intervient la physique quantique, autre révolution scientifique majeure de notre siècle, à côté de la relativité générale. En effet, le monde de la physique quantique est encore plus surprenant que celui de la relativité : il répond à une drôle de logique… Le meilleur exemple en est le fameux paradoxe du « chat de Schrödinger ». Sans entrer dans les détails, pour la physique quantique, une particule peut se trouver simultanément en plusieurs endroits. Mais, lorsqu’on l’observe, la (multi) particule se  « ré-assemble » en une seule, en un lieu déterminé par une certaine probabilité de présence.

 

De nombreuses explications de ce comportement ont été esquissées depuis des décennies. Ces tentatives vont de l’extrême le plus « rationnel » (« la théorie quantique n’est qu’un formalisme mathématique qui ne décrit pas physiquement le comportement réel des particules »), à l’extrême le plus « spéculatif » (« il existe autant d’univers parallèle qu’il y a de possibilités de présence d’une même particule en des lieux distincts »).

 

L’improbable pour expliquer l’incertain

 

Que signifie la possibilité de l’existence d’une multitude d’univers parallèles ? Lorsque la particule est « démultipliée » en plusieurs lieux, il se crée en réalité une superposition d’univers. Dans chacun des univers, la particule occupera un lieu et un seul. Ici, il est question non plus de superposition d’états d’une particule mais de superposition d’univers. Dès qu’on effectue la mesure, on disjoint les univers. Chacun d’eux suivra sa propre évolution, indépendamment des autres, et sera mesuré par des chercheurs « parallèles » dans chaque univers. Si « farfelue » qui puisse paraître une telle interprétation, elle est prise au sérieux par de nombreux physiciens. Car elle est bien la seule à pouvoir résoudre le paradoxe du grand-père et celui de l’écrivain. Ainsi, lorsqu’on crée une boucle temporelle, on construit en même temps un pont entre deux univers parallèles.

 

 

 BigBounce                 Trou de ver-v4

 

 

 

La résolution des paradoxes devient dès lors facile. Le petit-fils de l’inventeur vivait dans son univers. Quand il emprunte le trou de ver, il revient en arrière dans le temps, mais il change aussi d’univers. Il se retrouve alors face à un grand-père qui vit dans un univers qui n’est pas l’univers d’origine de notre voyageur. S’il tue son aïeul, il ne naîtra jamais dans l’univers où il a échoué. Mais il naîtra parfaitement dans l’univers d’où il est parti, car, là, le grand-père n’aura pas été tué (il n’aura même pas rencontré son petit-fils psychopathe venant du futur !). Ainsi, en retournant dans le passé, le voyageur va modifier l’histoire d’un univers auquel il n’appartient pas. Ses actions n’auront aucune conséquence sur son univers d’origine ni donc sur lui-même.

 

Le paradoxe de l’écrivain se résout de la même façon. Un écrivain recevra le livre que son « double » écrira dans le futur de l’autre univers. Le premier copiera le livre, mais celui-ci sera néanmoins créé dans l’autre univers… L’acte de création aura lieu au moins dans un univers. Les paradoxes s’estompent donc au prix – élevé ! – d’une multiplicité d’univers. Il n’en demeure pas moins que les physiciens semblent se servir de l’extrêmement improbable pour expliquer le fortement incertain !

 

Mais la difficulté théorique se complique d’autres écueils, plus « techniques » : comment passer à travers un trou noir sans être broyé et réduit à l’état de particule élémentaire ? La pression gravitationnelle qui s’exerce sur un objet à proximité d’un trou noir est si forte qu’à priori aucun vaisseau, si robuste qu’il soit ne pourrait garder son intégrité physique. Toujours est-il que si, un jour, dans vingt, cinquante ou cent ans, l’homme parvient à voyager dans le temps, les historiens diront que le premier pas de ce périple a été franchi au milieu des années 90.

 

L’effet Casimir : quelque chose à partir de rien

 

Prévu par le physicien allemand H.B.G. Casimir en 1940, mais observé de manière expérimentale seulement depuis 1994, l’effet Casimir met en évidence les fluctuations quantiques du vide.


 

L'effet casimir-v2                 L'effet casimir-v3

 

 

 

En effet, d’après la théorie quantique, le vide est en réalité peuplé de particules « virtuelles » qui naissent et disparaissent si vite qu’on est incapable de les voir. La plupart du temps, le vide reste vide, mais parfois les particules virtuelles (éphémères) deviennent « réelles » (c’est-à-dire qu’elles durent). Or le principe de symétrie, qui régit les lois physiques à l’échelle macroscopique, indique que « rien ne se crée, rien ne se perd, tout se transforme ». Donc, si une particule virtuelle devait perdurer, il faudrait que l’antiparticule qui lui est associé naisse et demeure aussi. Or, l’effet Casimir contrevient à ce principe : on peut par exemple faire naître du vide et des électrons sans produire simultanément les anti-électrons (ou positons) associés. En principe, on dit qu’il y a « rupture de symétrie » du vide. Dans les équations, ce phénomène se traduit par la création d’énergie négative.

 

 








[1] Quantité de matière par unité de volume.

[2] Kurt Gödel, Kip Thorne (physicien au Californian Institute of Technology).

[3] Ces deux valeurs, dites constantes de Planck, marquent la limite en deçà de laquelle les lois physiques nous échappent.

[4] Un effet ne peut se produire avant la cause qui lui donne naissance : l’effet suit la cause et ne la précède pas.

Repost 0
Orphée - dans Sciences