Aucun commentaire

réacteur nucléaire avec effet Cherenkov

Le bang supersonique

Le son se propage dans l’air à une vitesse d’environ 340 m/s (1 200 km/h). Les vibrations d’une molécule de l’air à une autre se propagent en effet à cette vitesse.

Quand un objet dépasse cette vitesse, le son produit par l’objet s’éloigne de l’endroit où il a été émis à la même vitesse que l’objet. Si cet objet, par exemple un avion, se déplace dans votre direction, vous le verrez s’approcher sans l’entendre : le son ne pouvant arriver plus rapidement que l’avion lui-même.

Parallèlement, le son étant continuellement émis par cet avion, les ondes sonores s’accumulent devant l’avion. Une onde sonore étant une fluctuation périodique et locale de la pression dans l’air, il apparaît juste devant l’avion une surpression suivie d’une dépression. La dépression ne pouvant être plus basse qu’une pression absolue égale à 0, ceci marque la frontière où une onde sonore devient une onde de choc : une variation très importante, brutale et violente dans la pression de l’air.

Un avion qui dépasse la vitesse du son et qui maintient une vitesse supersonique provoque donc une onde de choc. Si l’avion n’est pas trop près, cette onde de choc s’atténue et redevient une onde sonore caractéristique appelée « bang supersonique ». Et c’est elle que l’on entend quand un avion « dépasse le mur du son ».

Un autre effet de cette brusque variation de pression locale dans l’air, c’est la condensation de la vapeur d’eau dans l’air, faisant apparaître un sorte de bouclier de vapeur, appelé cône de Mach, sur un avion :

un avion avec le cône de Mach
Le cône de mach sur un avion en vol supersonic (image)

Bon, tout ceci concerne le son dans l’air et les objets se déplaçant plus rapidement que le son ne le fait dans l’air.

Avec la lumière : un flash superluminique ?

La vitesse de la lumière dans le vide est la limite pour une vitesse de déplacement.

Un objet, comme un vaisseau spatial, ne peut atteindre ou franchir cette vitesse. Il s’agit d’une vitesse absolue : la lumière se déplace toujours à la vitesse de la lumière. Donc même par rapport à un vaisseau spatial super-rapide, la lumière s’en éloigne à la vitesse de la lumière du point de vue du vaisseau (vu du sol, la lumière sera vu comme se déplaçant à la vitesse de la lumière aussi, et non le double de la vitesse de la lumière — c’est ce qu’on appelle la relativité, où ce n’est plus les vitesses qui s’additionnent, mais la structure de l’espace et du temps qui se déforment, mais ça sera pour un autre article).

Ce qu’il faut voir ici c’est que la vitesse de la lumière est infranchissable dans le vide.

Dans le vide.

Car quand un rayon lumineux se propage dans un autre milieu, par exemple dans l’eau ou le verre, la lumière est ralentie. Le rapport de ralentissement dépend du milieu qui se caractérise alors par un indice, dit indice de réfraction $n$ de la lumière qui traduit ce ralentissement.
Dans l’eau, le ralentissement est de l’ordre de 25 %. Dans le verre, autour de 33 %. Le ralentissement atteint même 60 % dans le diamant, où il est responsable de l’éclat si particulier de cette pierre précieuse.

Notez bien cependant : c’est la lumière qui ralentit dans ces milieux.
Si on envoie un faisceau d’électrons, de protons ou de toute autre particule sur du verre, l’indice de réfraction n’est pas appliqué et la particule peut aller à des vitesses proches de la vitesse de la lumière dans le vide.

On peut alors se retrouver dans une configuration où, dans le milieu (l’eau, le verre…), la lumière va moins vite que la particule… qui va moins vite que la vitesse de la lumière dans le vide :

$$\mathcal{V}_{\text{lumiere}_{eau}} \lt \mathcal{V}_{\text{particule}_{eau}} \lt \mathcal{V}_{\text{lumiere}_{vide}} $$

Maintenant, si la particule est chargée, comme c’est le cas d’un électron, d’un proton ou même d’un muon, alors le passage de la particule provoque une polarisation des couches électroniques des atomes du milieu transparent en question, de laquelle il résulte une émission de lumière par ces atomes.

Dans le cas où la particule se déplace dans le milieu plus vite que ne le fait la lumière, les interférences produites par cette lumière sont constructives et visibles (alors qu’elles sont destructives et invisibles quand la particule se déplace moins rapidement que la lumière).

La lumière que l’on peut alors observer lors d’un tel phénomène porte le nom d’émission de Vavilov-Cerenkov. On parle aussi de l’effet Vavilov-Cherenkov, ou plus simplement Effet Cherenkov.

Tout comme il résulte d’un avion supersonique la formation d’un cône de Mach, il résulte également ici l’apparition d’un cône lumineux autour de la particule :

Schématisation du fonctionnement de l’effet Cherenkov (source)

Et en vrai, on le voit par exemple dans les piscines des centrales nucléaires, où les particules émises par le combustible nucléaire traverse l’eau à une vitesse supraluminique (image d’en-tête).

Plus surprenant, l’effet Cherenkov peut également se produire dans les yeux (remplies d’eau), quand une particule cosmique la traverse. La personne observe alors un phosphène, une apparition d’un effet lumineux.
Cet effet a été rapporté par les astronautes, qui étaient alors soumis aux particules cosmiques voyageant à très haute vitesse.

image d’en-tête de Argonne National Laboratory

Lire la suite…

6 commentaires

une spirale exponentielle
En maths, un beau jour au lycée, on décide de vous parler de la fonction exponentielle : une fonction qui croît plus vite que les autres, dont la dérivée est égale à la fonction elle-même et que l’on retrouve soi-disant un peu partout en sciences. Sauf qu’on ne dit pas toujours d’où sort cette fonction, ou la constante $e$ qui lui est liée. Je trouve ça un peu dommage, car comme toute chose, en sciences ou ailleurs, son origine n’est pas le fruit du hasard.

Dans cet article, à la façon dont j’avais expliqué l’origine géométrique des fonctions trigonométriques, je vais tenter d’expliquer d’où sort la constante $e$ ainsi que la fonction exponentielle qui en découle.

Une croissance « exponentielle » ?

« Exponentielle » est un terme associé généralement à une idée de croissance (ou une décroissance) : on parle alors de « croissance exponentielle ». L’idée derrière ça est celle d’une variation bien particulière : d’une population, d’une quantité d’argent, d’une quantité d’atomes, d’une masse…

Toutes les fonctions varient, mais certaines vont un peu plus loin : ce sont celles qui traduisent la variation d’une valeur et dont le taux de variation dépend de la taille de cette valeur. Ces fonctions, donc, varient selon les valeurs qu’elles prennent et non plus seulement selon une grandeur arbitraire, telle une constante.

Exemple : les intérêts bancaires

Prenons l’exemple du système des intérêts bancaires. Quand on parle du taux d’intérêt d’un livret d’épargne, on parle de la quantité d’argent que la banque nous donne, chaque année. On sait que cette quantité dépend directement de la somme que nous avons placé sur ce livret : plus on a d’argent, plus les intérêts sont importants, et donc plus la croissance du montant est elle aussi importante.

Le système utilisé est une forme de fonction exponentielle : les intérêts dépendent de la somme sur le livret. De plus, si vous ne touchez pas à votre argent, alors les intérêts vont, d’année en année, produire des intérêts aussi, et donc augmenter d’autant plus votre épargne, et ainsi de suite. Pour le dire plus simplement : plus vous êtes riches, plus votre richesse augmente.

Cette méthode de calcul, bien qu’étant la même pour tous les épargnants, n’est donc ni équitable ni égalitaire au sens propre : elle a tendance à donner plus à ceux qui ont déjà plus. Du point de vue de la banque cependant, cette méthode récompense d’avantage ceux qui lui fournissent plus de fonds sur les livrets, ce qui peut également se comprendre.

La constante $e$

Le nombre $e$, base de la fonction exponentielle, ne sort lui-même pas de nulle part.
On va essayer de le retrouver, toujours avec l’exemple des intérêts bancaires.

Imaginons une banque avec un taux d’intérêt de 100 % et un compte où se trouve juste 1 € le jour de l’an et auquel on ne touche pas.
Au 31 décembre, les intérêts sont calculés : 100 % de 1 € donnent 1 € et le compte capitalise un total $\text{T}$ de 2 € :

$$\text{T} = 1 + 1 = 2$$

Maintenant, gardons le même 1 € sur le compte et le même taux d’intérêt, mais changeons la méthode de calcul. Plutôt que de calculer une fois en fin d’année, calculons de façon semestriel : on calcule les intérêts sur 50 % du montant au bout de 6 mois et sur 50 % du moment en fin d’année. Le calcul devient :

$$\text{T} = \left( 1 + \frac{1}{2} \right)^2 = 2,25$$

C’est mieux, on gagne 0,25 € en plus !
Ceci provient du fait que la première moitié des intérêts, celle calculée au premier semestre, est prise en compte pour le calcul de la seconde partie des intérêts. Les $0,25$€ correspondent donc aux intérêts à la fin de l’année pour les intérêts reçus en milieu de l’année.

C’est bien, mais on peut faire mieux : on peut calculer les intérêts à chaque fin de mois. Dans ce cas là, on effectuera 12 calculs avec à chaque fois $\frac{1}{12}$ du montant :

$$\text{T} = \left( 1 + \frac{1}{12} \right)^{12} = 2,613$$

Les intérêts sont encore plus importants : chaque mois sont calculés les intérêts sur les intérêts déjà reçus des mois précédents.

Et si on faisait les calculs encore plus souvent ?

Par exemple, tous les jours : $$\text{T} = \left( 1 + \frac{1}{365} \right)^{365} = 2,7146$$
Toutes les minutes : $$\text{T} = \left( 1 + \frac{1}{365 \times 24 \times 60} \right)^{365 \times 24 \times 60} = 2,718279\ldots$$
Toutes les secondes : $$\text{T} = \left( 1 + \frac{1}{365 \times 24 \times 60 \times 60} \right)^{365 \times 24 \times 60 \times 60} = 2,71828179\ldots$$

On pourrait faire le calcul en plus fréquemment, mais on va s’arrêter pour cet exemple.

Déjà, que constate t-on ?

  1. que l’on calcule les intérêts chaque jour, minute ou seconde, la différence n’est plus aussi importante qu’entre calculer chaque année, mois, jour. Il semble donc qu’on tende de façon asymptotique vers une limite.
  2. que la limite semble être autour de 2,718. Autrement dit, la limite du taux d’intérêt quand les calculs sont fait de plus souvent semble être $e$.

Euler prouvera au XVIIIe siècle que cette limite est bien $e$ :

$$\lim\limits_{n \rightarrow \infty} \left( 1 + \frac{1}{n} \right)^{n} = e$$

$e$ représente l’accroissement d’un phénomène qui croît continuellement en fonction de sa propre taille.

L’intérêt de $e$

$e$ est une constante intrinsèque de la nature. Quand une grandeur varie en fonction de sa propre taille, cette variation fait intervenir cette constance.

On le retrouve dans le mode de calcul des intérêts bancaires, mais également partout dans la nature : par exemple dans l’accroissement d’une population. Si une population voit naître d’avantages d’individus qu’il n’en meurt, alors la population augmente, et cette augmentation (dépendant directement du nombre d’individus) se fait de façon exponentielle.

Autre exemple, quand on tend un fil entre deux poteaux, chaque portion du fil baisse d’autant plus que le poids total du fil jusqu’à cet endroit est important. Or, plus on s’éloigne du point d’attache, plus le poids de la portion de fil est important et plus il baisse. Encore une exponentielle. D’ailleurs, la courbe dessinée par les fils électriques entre leurs poteaux est celle d’une fonction faisant intervenir des exponentielle (et non une parabole) !

Les exemples sont nombreux : de la probabilité de réaction chimique entre deux réactifs, à la décroissance radioactive d’un échantillon de matériel radioactif, à la charge électrique d’un condensateur, au nombre de débris spatiaux (syndrome de Kessler), à la concentration des étoiles dans une galaxie, la diffusion des épidémies…

Tous ces phénomènes font intervenir des grandeurs physiques dont la variation dépend de leur propre valeur et ce sont donc des fonctions à croissance exponentielles.

La fonction exponentielle

tracé de la fonction exponentielle
À partir du nombre $e$ il a été établi la fonction exponentielle :

$$f(x) = e^x$$

Où $e$ est la base de l’exponentielle trouvée précédemment.

Ce type de fonction, qui croît en fonction de sa propre taille, croît plus rapidement que n’importe quelle autre. Les fonctions polynômes, de la forme $\sum x^a$ avec $a$ réel et $x$ la variable) croissent de plus en plus quand $a$ est grand, mais l’exponentielle a toujours une croissance plus grande lorsque $x$ est grand.

On aurait pu prendre n’importe quelle valeur à la place de $e$, toutes seraient des exponentielles, mais la fonction ayant spécifiquement $e$ comme base est la fonction exponentielle « naturelle ». La définition de cette fonction $e^x$ a des propriétés uniques, dont les plus importantes sont par exemple que la variation en $x$ de cette fonction est égale à la valeur de $e^x$ elle-même. En d’autres termes, la dérivée de la fonction est la fonction elle-même. Réciproquement, l’intégrale de la fonction (l’aire sous la courbe) est aussi égale à la fonction elle-même (et donc à la variation aussi).

La fonction $f(x) = e^x$ est la seule à avoir ces propriétés.

Dans la nature, ceci peut s’interpréter par une force de constance, ou d’uniformité. Peu importe le nombre d’individus de départ dans un population donnée d’être vivants : l’évolution de cette population suivra toujours la même courbe : une courbe exponentielle. Bien-sûr, tous les êtres vivants ne se multiplient pas à la même vitesse, mais ceci ne correspond toujours qu’à des paramètres constants dans la fonction exponentielle « naturelle » :

$$f_1(x) = C_1 \times e^{C_2 \times x} + C_3$$

Pour conclure

La fonction exponentielle ne sort pas de nulle part : c’est une fonction dont la croissance dépend de sa propre valeur. De plus la fonction exponentielle naturelle a pour base le nombre $e$ qui est la valeur limite d’une fonction exponentielle qui évolue de façon continue dans le temps.

Là aussi, loin d’être juste un jouet mathématique, cette fonction est une particularité intrinsèque de la nature, et on la retrouve dans un grand nombre de phénomènes naturels, que ce soit en biologie, en chimie, en physique…

Ressources

image de Pokey’s dad

Lire la suite…

3 commentaires

appareil à IRM
À la différence de l’imagerie par rayon-X qui fonctionne en envoyant des rayons donnant de vous une image à la façon d’un pochoir, l’IRM, ou l’imagerie par résonance magnétique fonctionne grâce à des propriétés quantiques de l’hydrogène et d’importants dispositifs magnétiques.

Pour fonctionner, on place le patient dans un puissant champ magnétique : 100 000 fois le champ magnétique terrestre, ce qui est suffisant pour que les noyaux d’hydrogène s’orientent tous dans le même sens.
Le corps humain étant majoritairement composé d’eau, et l’eau majoritairement composé d’atomes d’hydrogène, ceci concerne environ 60 % des atomes de notre corps.

On envoie ensuite des impulsions magnétiques (appelées radiofréquences, transversales au champ principal) qui vont détourner les atomes d’hydrogène de leur alignement. Le changement d’orientation des noyaux d’hydrogène va induire un bref courant électrique dans les capteurs de l’appareil :

i
Schématisation du fonctionnement d’un appareil d’imagerie par RMN ↑

Ce sont ces courants électrique qui vont permettre de produire une image. En effet, les différents tissus dans les divers organes du corps sont plus ou moins denses en hydrogène et la réponse électrique de chaque région du corps est donc différente. Chaque région du corps apparaît donc distinctement sur les images finales. Connaissant la cartographie d’un corps « sain », on repère rapidement la présence de choses inhabituelles, comme une tumeur.

L’appareil à IRM ne détecte que les atomes d’hydrogène. La structure particulière du noyau d’hydrogène lui confère un moment magnétique nucléaire non nul, c’est à dire que leur noyau agit comme de petits aimants. L’appareil à IRM ne fait alors qu’exciter ces petits aimants et en détecter la réponse (un courant induit).
Pour accentuer l’effet obtenu à l’écran, on injecte parfois au sujet une solution contenant des éléments sensible aux impulsions magnétique comme du gadolinium, des oxydes de fer ou du manganèse.

L’imagerie basée sur l’orientation des atomes d’hydrogène soumis à un champ magnétique intense fait partie de ces technologies issues de l’astronomie et de l’exploration spatiale. Les nuages d’hydrogène présents dans l’espace sont parfois soumis à des vents stellaires et d’autres sources de champs magnétiques intenses, et ils réagissent à ça. Si de la lumière nous arrive en traversant cet hydrogène, elle est légèrement altérée (par effet Zeeman ou effet Stark), et ces altérations sont interprétables par les astrophysiciens.

Comme pour tant d’autres choses, donc, si vous êtes sauvés aujourd’hui grâce à la découverte d’une tumeur au moyen d’un appareil à IRM, c’est grâce aux investissements faits il y 50 ans dans l’astronomie.

Ressources :

image d’en-tête de Liz West

Lire la suite…

9 commentaires

heat pump
On dépeint parfois les pompes à chaleur comme des dispositifs ayant un rendement supérieur à 1, ou « sur-unitaire ».
Ceci est bien évidemment faux car un rendement, en physique, ne peut pas être supérieur à l’unité. Aucun système ne produit plus qu’il ne consomme, et ceci est particulièrement vrai quand on parle d’énergie.

Alors d’où vient cette idée à propos des pompes à chaleur ?

Ce dont on parle avec les pompes à chaleur n’est pas un rendement énergétique, mais un coefficient de performance (COP). Ce nombre peut, lui, très bien être supérieur à l’unité, et il n’est pas synonyme de rendement, comme on va le voir.

Le cas du rendement ordinaire

Quand on veut se chauffer, une forme d’énergie est transformée en chaleur. Dans le cas du chauffage électrique, c’est de l’énergie électrique qui est convertie. Si l’on consomme 1 000 Wh d’électricité, alors on produira 1 000 Wh de chaleur. Le rendement maximal sera unitaire, et l’on récupère sous la forme de chaleur ce que l’on injecté en électricité.

Pour le chauffage au gaz ou au bois, le calcul est le même, sauf que l’énergie initiale est sous forme chimique : on brûle le gaz et le bois qui sont transformé en $CO_2$ et d’autres produits en libérant de la chaleur, mais la quantité de chaleur récupérée ne sera jamais supérieure à la quantité d’énergie chimique présente initialement dans le produit.

C’est aussi simple que cela.

Le cas d’une pompe à chaleur

Pour une pompe à chaleur, dans des conditions propices, on peut récupérer 1 000 Wh de chaleur quand on ne dépense que 100 Wh d’électricité. Le COP de l’installation est alors de 10.

Ce que le COP indique, c’est simplement que la pompe à chaleur est 10 fois plus viable économiquement pour chauffer votre maison que ne le serait un chauffage électrique. Pour qu’une pompe à chaleur soit rentable à l’usage, il suffit que son COP soit supérieur à 1, et bien-sûr, plus le COP est grand, plus il est rentable par rapport à une installation ordinaire de chauffage électrique.

La question qui vient maintenant, c’est de savoir comment on peut récupérer 1 000 Wh de chaleur avec seulement 100 Wh d’électricité ?

La réponse réside dans le rôle d’une pompe à chaleur : une pompe à chaleur ne transforme pas l’électricité en chaleur, contrairement à un chauffage électrique. Elle déplace de la chaleur, qu’elle prend dehors et dépose à l’intérieur de la maison.
Et c’est ça qui permet d’être aussi rentable : déplacer de la chaleur ne consomme pas beaucoup d’énergie, en l’occurrence avec notre exemple, déplacer 1 000 Wh de chaleur déjà existante ne consomme que 100 Wh d’électricité.

Une pompe à chaleur ne produit pas de chaleur et ne convertit par l’électricité en chauffage. Une pompe à chaleur est là pour déplacer de la chaleur déjà existante.

Quant à l’origine de cette chaleur, qu’il fasse chaud ou froid, il y a de la chaleur (des calories thermiques) dans le sol et dans l’air. La pompe à chaleur est un appareil destiné à la capter et à la transporter. Le sol dehors est refroidit et votre maison est réchauffée. Comme le sol est virtuellement une ressource illimitée de chaleur gratuite, on peut très bien s’en servir pour chauffer tout en polluant moins et en réduisant les factures d’électricité.

Et pour information, votre réfrigérateur fonctionne comme une pompe à chaleur (en fait, d’un point de vue thermodynamique, les deux sont le même appareil). Un circuit de fluides capte la chaleur à l’intérieur du frigo pour l’évacuer sur la grille au dos du frigo : l’intérieur alors appauvri en chaleur, refroidit (et l’extérieur est réchauffé).

Image de Gary Cziko

Lire la suite…

12 commentaires

the very large array telescope

Deux possibilités existent : soit nous sommes seuls dans l'univers, soit nous ne le sommes pas. Les deux hypothèses sont tout aussi effrayantes.
— Arthur C. Clarke

Une des plus grandes questions existentielles qui soient est « sommes nous seuls dans l’univers ? ».
Au vu de l’immensité inimaginable de l’Univers, je pense qu’il faut être incroyable égocentrique pour penser que oui, mais qu’est-ce que la science a à dire là-dessus ?

L’équation de Drake

Dans l’hypothèse de l’existence de civilisations extra-terrestres, on ne retiendra que celles qui peuvent technologiquement communiquer avec nous.
D’un point de vue scientifique, on peut toujours essayer d’estimer le nombre de ces civilisations présentes dans notre galaxie. On se base alors sur divers paramètres comme le nombre de planètes habitables et la probabilité qu’une de ces civilisations soit contemporaine à la nôtre.

Ce problème et cette méthode de calcul a été transcrit mathématiquement par Frank Drake dès 1961. Son équation initiale — l’Équation de Drake — est celle-ci :

$$N = R^{*} \times f_{p} \times n_{e} \times f_{l} \times f_{i} \times f_{c} \times L$$

où :

  • $N$ est le nombre de civilisations ;

et :

  • $R^*$ est le nombre d'étoiles en formation par an dans notre galaxie ;
  • $f_p$ est la fraction de ces étoiles possédant des planètes ;
  • $n_e$ est le nombre moyen de planètes potentiellement propices à la vie par étoile ;
  • $f_l$ est la fraction de ces planètes sur lesquelles la vie apparaît effectivement ;
  • $f_i$ est la fraction de ces planètes sur lesquelles apparaît une vie intelligente ;
  • $f_c$ est la fraction de ces planètes capables et désireuses de communiquer ;
  • $L$ est la durée de vie moyenne d'une civilisation, en années.

À partir de ces facteurs, estimées de la façon la plus réaliste possible et en se basant sur le niveau de connaissance actuelle, donne un résultat égal à $10$ civilisations avec laquelle nous pourrions techniquement entrer en contact, rien que dans notre galaxie.

La première conclusion très importante est que ce nombre n’est pas nul.
Ceci ne concerne que notre galaxie, la Voie Lactée. Si on considère qu’il y a environ le même nombre de civilisations dans chaque galaxie, alors le nombre de civilisations dans l’univers visible serait d’environ mille milliards.

Le paradoxe de Fermi

Aujourd’hui pourtant, toutes nos tentatives visant à détecter l’existence de ces civilisations — en cherchant de leur part ce que nous même laissons comme « trace », c’est à dire principalement des ondes radio ou des traces de composés chimiques dans l’atmosphère des planètes (oxygène, méthane…) — ont été infructueuses.

D’où le paradoxe suivant : « si les civilisations sont si nombreuses dans l’univers, où sont-elles ? ». Ce paradoxe est connu sous le nom de Paradoxe de Fermi.

Plusieurs solutions relativement simples à comprendre peuvent apporter des éléments de réponse.

La première c’est que les civilisations extraterrestres intelligentes sont bien là, mais qu’elles ne nous ont pas trouvés (c’est un peu notre cas).
Ceci peut s’expliquer par la taille incommensurable de l’univers. Par exemple, nos émissions radio, les ondes radio que nous avons émis depuis leur découverte il y a environ un siècle, ont parcouru dans l’univers l’équivalent de 100 années lumières autour de la Terre. Ça semble beaucoup, mais ça ne représente que 0,1 % du rayon de notre galaxie…

Une autre hypothèse c’est que les civilisations sont là mais elles ne nous perçoivent pas comme « intelligents ».
Ceci est simple à comprendre : prenons nos ancêtres les plus proches : les chimpanzés. L’intelligence de leur individus les plus malins leur permet de faire un peu de langage de signes et de reconnaître des formes géométriques. Pourtant, l’ADN de l’humain est identique à 98 % à leur ADN. C’est ce dernier 2 % qui nous permet de parler, écrire, calculer, d’envoyer des fusées en orbite… Alors imaginez comment une civilisation juste 2 % plus avancée que nous nous percevrait-elle, si nous même ne voyons pas les chimpanzés comme intelligents ? Même question pour des civilisations 5 %, 10 % ou 50 % plus évolués que nous ?

Inversement, nous ne percevons peut-être pas forcément les signaux extraterrestres car ils sont trop avancés pour nous. Si elles communiquent avec des ondes radio (comme nous), leurs communications sont peut-être suffisamment chiffrées et compressées qu’ils ne semblent à nos yeux que du bruit, sans signification. C’est en tout cas ce que pense Ed Snowden.

Enfin une autre explication est que les civilisations ne sont pas éternelles. Une civilisation qui a existé il y a 50 millions d’années ne peut plus être détectée. Parlant d’immortalité, notre espèce ne l’est pas non plus et si nous ne nous en rendions pas compte assez rapidement, nous nous éteindrons avant de pouvoir garantir notre survie dans l’univers, réduisant à néant la possibilité de rencontrer un jour une civilisation autre que la nôtre.

Si nous voulons découvrir de la vie extra-terrestre, il faut écouter, aller voir ailleurs et perfectionner notre technologie pour faire tout ça. Pour ça, nous ne pouvons nous permettre de rester à notre stade actuel avec les problèmes que l’on rencontre : climat, IA, etc. Ce serait la fin de l’humanité et nous en serions notre propre cause. C’est là ce que pense Stephen Hawking : notre espèce est condamnée si elle n’avance pas sur la plan scientifique.

image de Diana Robinson

Lire la suite…