1016578b

Où sont les voitures volantes ?

La série télévisée américaine « The Big Bang Theory » révèle dans un épisode quelque chose que nombre de scientifiques actuels n’aiment pas entendre : le progrès stagne. La série dépeint le quotidien d’un groupe d’amis, tous geeks, fondus de technologies et de tout ce que peut produire la culture comme univers de Science-Fiction. Dans un épisode, le personnage principal, Léonard, discute avec sa petite amie, Penny, profane en matière de science, qui demande alors qu’elles sont les plus récentes découvertes dans le monde de la physique. Léonard adopte alors une mine hésitante et avoue sans fierté qu’il n’y a rien d’intéressant, de révolutionnaire qui fut découvert et/ou inventé depuis les années 1930.

Pourtant, notre monde paraît aujourd’hui plus moderne et plus avancé que jamais. Nous pouvons communiquer avec une personne à l’autre bout de la planète en un instant, nos ordinateurs sont d’une puissance inégalée et la médecine nous fait vivre plus longtemps. Le fait est que nous vivons en réalité dans un monde non de découverte, mais de perfectionnement, confortablement assis sur un héritage que nous nous efforçons d’approfondir sans chercher à dépasser.

 

TOUJOURS PLUS DE BIDULOTRON

 

La physique théorique illustre très bien cela, car depuis la formulation de la théorie de la relativité par Einstein en 1915 et la découverte de la radioactivité par les Curie, l’univers nous semble plus opaque que jamais. Les télescopes nous fournissent des images de plus en plus précises sans pour autant nous donner les clés du fonctionnement de l’univers : les scientifiques s’aperçoivent bien de choses étranges comme l’accélération de l’expansion de l’univers et des phénomènes à l’horizon des évènements des trous noirs, mais concrètement, nous assistons plutôt à une expansion de notre propre ignorance que de la compréhension que nous avons de l’univers. Depuis un siècle que se passe-t-il dans le monde nébuleux de la physique ? Les membres de la communauté s’interrogent, la dernière lubie étant de trouver la loi unificatrice : à savoir quelles sont les règles communes du fonctionnement de l’univers à l’échelle de l’infiniment petit, la physique quantique, et de l’infiniment grand, la relativité générale. Si chaque domaine a généré son lot de principes et de théories qui se tiennent à une certaine échelle, ils se trouvent que les modèles s’avèrent incompatibles, et les scientifiques, qui savent sans pouvoir le prouver que tout est lié, cherchent le lien. Il se trouve que cette interrogation en elle-même n’est pas récente, puisque Einstein lui-même s’était cassé les dents sur les équations sans jamais parvenir à trouver la fameuse loi unificatrice.

Depuis, les physiciens ont développé toute une panoplie de théories les plus variées, la plus fameuse étant la théorie des cordes. Selon eux, de minuscules cordes dans un monde subatomique résonnent et dictent l’état de la matière, et du reste de l’univers. Séduisant. Le seul problème c’est que pour que ça fonctionne, la théorie ne fonctionne que dans un univers à quatre, six, voire onze dimensions. Autant dire qu’ils sont un peu en peine. Que dire aussi de l’astrophysique avec sa matière noire et son énergie sombre censées expliquer l’obscure expansion de l’univers ? Ce serait une forme de matière à la fois imperceptible et omniprésente responsable des aléas gravitationnels des astres. Cette théorie est devenue un peu le sésame pour expliquer tout ce qui est inexplicable, en tête la variation de trajectoire de la sonde Pionner à la sortie du système solaire. Toutefois, les scientifiques se défendent et assurent qu’ils auront très prochainement la Réponse à tous ces mystères grâce à la plus grosse machine de la planète : le grand collisionneur de particules à Genève. Le principe est simple ; des particules sont accélérées à des vitesses proches de celle de la lumière et se percutent entre elles. Le choc provoque une réaction, le plus souvent de désintégration, permettant de voir dans des conditions de hautes énergies, comment se comportent les plus infimes constituants de la matière. Si tout se passe bien, ce grand anneau de 27 kilomètres de diamètres devraient permettre de découvrir la particule magique : le Boson de Higgs, et tendrait à valider nombre de théories pour l’instant improbables. Espérons qu’ils trouvent ce qu’ils cherchent. Néanmoins, il faut modérer son intérêt pour cette machine car la rumeur la voudrait productrice de trous noirs : les mêmes scientifiques qui disaient parvenir à percer « les mystères de l’univers » grâce à cet accélérateur, prévoient d’en construire un plus grand. N’est-ce pas un aveu anticipé d’échec ?

Beaucoup de théories, d’abstraits concepts, et d’équations hermétiques pour l’essentiel de la population dirons-nous. Pas forcément. Trop souvent, le contribuable perçoit la recherche fondamentale comme une activité dispendieuse sans retour sur investissement de l’argent abondamment dépensé. Avant toute chose, il convient de rappeler combien ce genre de recherche est une nécessité absolue pour l’enrichissement de nos connaissances et de la compréhension de l’univers qui ne doit pas être tributaire des ambitions de rentabilités économiques. Les personnes qui ont bâti Stonehage connaissaient une existence rude, hostile et précaire, pourtant ils se sont évertués à aligner des pierres avec les astres, sans que cela ne leur apporte aucun bénéfice sur leurs maigres conditions de vie. Par ailleurs, la recherche fondamentale donne très souvent à terme une application concrète sur le large public. Les médias ont pour habitude de montrer en exemple les stylos de la NASA ou d’autres gadgets qui ont transpiré dans notre quotidien, alors qu’il y a plus simple à porter de main : le laser. À l’origine, des types se sont dit « Tiens, on va étudier la lumière, et pourquoi pas concentrer les rayons. » ; d’apparence vain au début, ces travaux permirent par la suite de servir à l’industrie, à la médecine, et plus trivialement au divertissement. Le fait est que l’invention du laser date de 1959 et que depuis, le monde de la lumière ne trahit pas de spectaculaire progrès. L’objectif à moyen terme est de parvenir à modéliser des projections tridimensionnelles sans support dans l’air : l’hologramme. Or jusqu’à aujourd’hui, les différents procédés existants ne sont que des illusions engendrées par des mécanismes qui tiennent plus du trucage que de la prouesse technique.

WE NEED MORE GIGOWATTS !

 

Actuellement, les deux tiers de l’énergie mondiale est produite par le charbon, le gaz et le pétrole, dont on vient de dépasser le pic de production. L’essentiel de l’électricité sur Terre est donc fournie par des énergies fossiles dont les stocks sont finis, donc déclinant, avec un pic de production estimé à 2050. Nous sommes dans un système dit invalide, car sa viabilité dans l’avenir n’existe pas.

Par ailleurs, en plus des problèmes d’approvisionnement, la production d’électricité souffre d’un manque cruel d’inventions majeures pour résoudre le problème de la pollution. Les centrales deviennent plus perfectionnées, prétendument plus sûres, plus productives, mais certainement pas innovantes. Prenons les centrales nucléaires, elles peuvent fournir des mégawatts tranquillement. Le seul problème sont les déchets nucléaires. Pour anecdote, lorsque les premières centrales furent construites, les savants de l’époque pensaient que la génération suivante trouverait sans mal de se débarrasser des déchets nucléaires. Aujourd’hui, le combustible nucléaire et ses déchets peuvent être recyclés, ou plutôt reconditionnés, à hauteur de 95 %, les 5 % restants sont les déchets ultimes. Le genre de matériau chaud et hautement radioactif dont on ne sait que faire sinon de les vitrifier et de les enfouir aussi profondément qu’il est possible de le faire. Les seules avancées significatives dans ce domaine, c’est la réduction de cette part de déchet ultime que les scientifiques cherchent désespérément à faire passer à 4… voire 3 % dans le meilleur des cas. En fait, non seulement cette technologie ne fait montre d’aucune avancée significative, mais surtout la production de déchets est croissante, la plupart perdureront très certainement longtemps après la disparition de l’humanité. Enfin, il faut également garder à l’esprit que le nucléaire, est également une technologie qui emploie des ressources naturelles, la matière fissible, laquelle n’est pas en quantité infinie sur Terre. Le si pratique Uranium 235 viendra à son tour à manquer un jour.

Il demeure les énergies renouvelables, où plutôt, renouvelées. Les panneaux solaires et les éoliennes nous paraissent comme le nec plus ultra en matière de production d’énergie. Ce n’est pas écologique du tout car personne ne sait comment recycler les cœurs des cellules photovoltaïques. Ce n’est pas efficace : vous pourrez construire des milliers d’hélices, s’il n’y a pas de vent, les villes seront dans le noir. De plus, c’est une énergie purement locale, les parcs éoliens du Midi ou en Charente profitent au Midi et à la Charente : l’énergie est produite et consommée sur place. Ainsi, des régions sans vents puissants continuent à se chauffer grâce aux charbons et au nucléaire. Enfin, ces techniques n’ont rien de révolutionnaires. Le moulin-à-vent est sans doute plus vieux que la roue, et les peuples antiques maîtrisaient très bien un savoir-faire architectural pour bâtir des lieux se jouant du climat tout en tirant parti. Les bâtiments vendus comme HQE ne sont qu’un remake des premières constructions de l’humanité, et nous assistons même à une forme de régression puisque nous commençons à sacrifier un peu de notre confort, engendré par notre science, notamment en évitant la climatisation systématique des édifices.

Le salut électrique ne se manifestera pas par des technologies que nous possédons actuellement. La solution miracle serait la fusion. Aujourd’hui, les centrales nucléaires fonctionnent selon la technologie qui consiste à casser les atomes pour libérer l’énergie qui lie les particules : la fission nucléaire. Entre la découverte de la radioactivité et la première centrale nucléaire, il s’est écoulé trente ans seulement, et c’était il y a 60 ans. Or, une autre technologie permet de produire beaucoup plus d’énergie, de manière plus sûre (la réaction s’arrête d’elle-même si elle échappe à tous contrôles, évitant les incidents genre Tchernobyl) et il n’y a pas de déchets hormis une émission de neutrons : la fusion thermonucléaire, la même qui opère dans le cœur des étoiles. Si la théorie est bien connue, son application peine à venir. Les Russes ont bien élaboré des tokamaks, les Britanniques et les Français ont conçu chacun de leur côté des réacteurs expérimentaux, mais le record de durée de maîtrise de la réaction ne dépasse pas le quart d’heure. Les scientifiques préparent un générateur de nouvelle génération à Cadarache en France, qui, s’il fonctionne, ce qui n’est pas dit, permettrait de maîtriser la technique de fusion d’ici une trentaine d’années, et son exploitation commerciale d’ici cinquante. Cette estimation sera malheureusement contrariée par des retards de chantiers et/ou de probables problèmes budgétaires si bien que la première ville alimentée par la fusion ne se produira très certainement pas avant la fin de ce siècle, soit presque deux cents ans après la découverte de la radioactivité.

 

CE N’EST PAS LA TAILLE QUI COMPTE

 

Le champ qui façonne le plus l’illusion du progrès est l’informatique. Là, encore, force est de constater que les plus éminentes avancées tendent à être âgées d’un siècle. De nos jours, les ordinateurs personnels possèdent une puissance de calculs que l’on pourrait qualifier de phénoménales en comparaison des calculateurs des années 40 qui occupaient des immeubles entiers. Si les capacités de calculs augmentent assez régulièrement, la technologie demeure la même.

Un ordinateur a un fonctionnement très simple selon l’alternance de deux informations : oui et non, 1 et 0, c’est le système binaire. Les programmes constituant les grands ouvriers capables de gérer quantité de ces états pour calculer de grands chiffres. Pour passer d’un état à l’autre, le transistor fut inventé. Initialement, il était aussi gros qu’une ampoule (pour anecdote, les calculs se faussaient lorsque des insectes se glissaient dans lesdites ampoules et les mécanismes complexes, en anglais ; des bugs), aujourd’hui, il fait quelques nanomètres de larges. Le progrès s’est simplement échiné à miniaturiser ce transistor afin d’en mettre un maximum sur une plaque de silice et ainsi accroître les capacités de calcul. Malheureusement, le silicium qui est à la base de toute cette technologie possède des limites physiques qui posent bien des soucis aux grands constructeurs de composants électroniques, car nous sommes arrivés au point de saturation. La preuve, c’est que les capacités des processeur sont bloqués, et que pour y pallier, ils sont montés en série, ce qui donne les « duo core » et compagnie, alors qu’en soi, cela donne des systèmes plus instables. Quant aux ordinateurs quantiques, sensés nous apporter l’intelligence artificielle qu’on attend depuis 20 ans et la singularité technologique, ils demeurent à l’état d’équation dans des laboratoires qui n’ont souvent plus l’argent pour financer les recherches nécessaires.

MIROIR, MON BEAU MIROIR

En médecine, l’imposture est flagrante. Nous vivons certes plus longtemps, mais pas en meilleur santé. Il y a belle lurette que les gouvernements du monde entier ont déclaré la guerre au cancer. Quel résultat ? Aujourd’hui paraît-il, on guérit un cancer sur deux… enfin, on soigne avec une survie de plus de cinq ans. Et avant ? Avant, on ne dépistait pas. Certains cancers se guérissaient spontanément sans que le malade soit au courant de sa maladie. Les guérisons spontanées existent toujours aujourd’hui, mais ces guérisons sont mises sur le compte de « l’efficacité de la médecine moderne ». Une médecine qui en vingt-cinq ans, n’a pas réussi à soigner le SIDA. Une médecine toujours impuissante contre la malaria. Une médecine qui maintenant court partout en gloussant comme un poulet décapité à cause des risques… de grippe !

Les automobiles modernes ont beau être bourrées d’ordinateurs, les moteurs qui les animent ont le plus souvent une vingtaine d’années, et si la carrosserie est plus ronde et plus jolie, avec des phares au xénon et des radars de proximité, les châssis sont les mêmes depuis des lustres.

AND BEYOND

 

Il existe le très fort préjugé que la science spatiale est le théâtre de la technologie la plus avancée. En fait, les progrès sont rares en matière de fusée, quand il y en a.

Il y a cinquante ans, le 4 octobre 1957, l’URSS lançait Spoutnik 1 et l’humanité entrait dans l’âge de l’espace. Tirée de Baikonour, une fusée Semiorka plaça en orbite le premier satellite artificiel. Ne riez pas : le monde libre fut impressionné et à la fois effrayé par une machine qui tournait autour de la Terre qui faisait bip. Depuis, la fusée Semiorka vole toujours. La fusée R7, à l’origine conçue dans le noble but de de pilonner les américains, s’est révélée n’être qu’un piètre missile stratégique, mais a envoyé en orbite Laïka, Gagarine et tous les cosmonautes russes (et pas mal d’autres nationalités), ainsi qu’une quantité prodigieuse de satellites civils ou militaires. Comme c’est cette fusée qui lance les vaisseaux Soyouz, on l’appelle « la fusée Soyouz ». Elle a un peu changé depuis 1957, évidemment. On a rajouté des étages supérieurs plus ou moins puissants selon ce que l’on veut faire. On a raboté les moteurs du premier étage pour les rendre (un peu) plus performants. On a rajouté de l’électronique moderne pour contrôler le tout. Mais dans l’ensemble, c’est bien le même pétard fumeux.

Pour peu qu’elle puisse être qualifié d’antiquité, la fusée Soyouz a pourtant un très bel avenir devant elle. En effet, quelque part dans le petit village de Sinnamary pas loin de Kourou en Guyane, se montent d’étranges constructions. Fatigué d’entretenir leur vieux spatiodrome de Baikonour qu’ils louent une fortune aux Kazakstan, les russes bâtissent en collaboration avec l’Europe un nouveau pas de tir pour permettre à ce vénérable chalumeau soviétique conçu sous Staline de s’élever glorieusement dans le ciel de l’Amérique du Sud. Pourquoi ? Cette année, la glorieuse navette spatiale américaine a accompli sa dernière mission après trente années de missions moins nombreuses et plus périlleuses que prévues. Le remplaçant, le vaisseau Orion, ne sera pas opérationnel avant 2014 (disons 2016 avec les menues récessions qui s’annoncent). Entre temps, l’humanité en général, n’aura plus d’autre solution pour aller en orbite que de prendre le bon vieux Soyouz (ou de demander aux Chinois) et ainsi ravitailler la Station Spatiale Internationale. L’édifice orbitale n’a lui-même rien a envier : les plans sont un recyclage du projet Skylab des américains et de la station Mir2 des russes avec une pincée de technologies européenne, laquelle ne diffère pas beaucoup de celle développée par la NASA. Deux projets élaborés à la fin des années 70.

Les Semiorka sont assemblées par de vieux ingénieurs qui n’ont fait que ça de toute leur vie. Elles sont fabriquées à la chaîne dans les mêmes usines depuis Brejnev. Le carburant n’a rien d’exotique, c’est du kérozène/oxygène liquide. Il n’y a rien qui coûte bien cher dans ces fusées. Les Russes en ont tiré plus de 1600, à comparer avec la centaine de vols de navettes ou la trentaine d’Ariane V. Tous les problèmes qui pouvaient se poser ont été résolus depuis des lustres. C’est la fusée la plus fiable du monde, et la plus économique, bien loin des 400 millions de dollars le lancement de navette. Le fond du problème, c’est l’argent et la volonté politique. L’avenir n’est pas reluisant. L’époque où la NASA bénéficiait de 4 à 5 % du PIB des Etats-Unis est révolu. A présent, la noble agence dispose d’une enveloppe pour 2012 de 20 milliards de dollars. A titre de comparaison, c’est ce qu’a coûté la climatisation des tentes des soldats américains en Iraq, la moitié du budget annuel de Harvard, autrement dit pas grand chose quand il s’agit de renouveler une technologie vielle d’un demi siècle.

Le temps de la conquête est terminé. Les seules raisons qui justifient l’exploitation spatiale dont désormais des intérêts économiques qui se divisent en trois marché. Le premier, les satellites commerciaux, principalement de télécommunications. Le second, le tourisme spatiale pour riche fortunés qui rêvent plus du prestige engendré pour leur image que de la sensation de flotter dans l’espace, en très haute altitude (ou orbite basse selon la manière qu’on le voit). Et enfin, l’exploitation minière de la Lune. Celle-ci renferme dans son sous-sol un isotope naturel quasiment absent sur Terre, l’Hélium3, très pratique pour la fusion nucléaire.

Outre le fait que les techniques vieillissent, il ne faut pas oublier qu’elles vieillissent de concert avec les personnes qui en sont à l’origine. Prenons Peter, jeune stagiaire de la NASA qui, dans les années 60, apportaient le café à Brown tandis qu’il transformait ses vieux V, à présent dans leur propre bureaux, appréciant utiliser le savoir appris des décennies en fusées Apollo. Peter est désormais cadre, directeur adjoint d’un département de recherche. Peter est comme tout le monde, il tient à son poste ; il apprécie utiliser les techniques apprises 50 ans plus tôt, et regarde sceptique les idées et le savoir frais des nouveaux employés, en prenant soin de les écarter en arguant que ça coûte trop cher et que les jeunes n’y savent rien. Je caricacture ? C’est une guerre d’ego entre ingénieurs de la NASA qui coûta la vie à l’équipe de la navette Columbia.

Toujours est-il que la technologie est au point mort. La science n’évolue plus, elle est devenu un moyen de produire des gadgets de plus en plus sophistiqués ce qui nous maintient dans l’illusion que « le progrès » avance, mais ce n’est qu’une illusion. Tout est plus léger, plus petit, plus performant, mais rien n’est neuf. Si par un hasard de l’univers une personne du début du siècle passé venait à être transportée à notre époque, il demanderait très certainement « Où sont les voitures volantes ? » ce à quoi nous lui ririons au nez en lui répondant de prendre un vélo.

 

Laisser un commentaire