2 commentaires

i
À un moment donné dans vos études en sciences, vous arriverez à un cours sur l’analyse dimensionnelle. Je n’ai personnellement jamais trouvé ces cours très clairs et leur finalité ne m’a pas non plus réellement convaincu : je vois l’intérêt maintenant, mais sur le coup, ces cours sont plutôt tombé comme un cheveux sur la soupe.

Je vais tenter d’y remédier ici, et expliquer pourquoi l’analyse dimensionnelle est plutôt utile.

Distinguer les grandeurs physiques des unités

Lorsque l’on additionne plusieurs termes d’une équation, il faut que ces termes soient compatibles entres-eux.

Par exemple, une distance s’additionne uniquement avec des distance. Il n’est pas possible d’additionner une durée avec une distance : cela n’a aucun sens. L’idée sous-jacente ici est celle exprimée par la phrase « on ne peut pas sommer des choux et des patates ».

Notez que j’ai employé le mot « termes » (d’une somme) et non « facteurs » (d’un produit). Dans une équation, ce sont les termes qui doivent être compatibles. Multiplier ou diviser des grandeurs n’est en effet pas un problème : on change alors juste de type de grandeur. C’est d’ailleurs comme cela que l’on fabrique des grandeurs dites « dérivées ». Ainsi, diviser une distance par un temps correspond une vitesse, ou multiplier une distance par une autre distance correspond à une surface.

Notez également que je n’ai pas mentionné les unités
On peut tout à fait additionner des centimètres avec des pieds ou des yards, ce n’est pas un problème, il suffit de faire une conversion. Parfois, même la conversion n’est pas nécessaire : lorsque l’on exprime l’heure sous la forme « 19h25 », l’on mélange deux unités différentes : les heures et les minutes. L’on aurait très bien pu dire « 19,41 heures » ou « 1165 minutes » mais l’on préfère utiliser un système avec 2 unités différentes. Cela ne pose pas de problèmes.
Les américains d’ailleurs, mesurent la taille d’une personne en pieds + pouces et ça ne pose pas de problèmes.

Les unités sont sans importance car ce qui compte, ce sont les grandeurs physiques : durée, longueur, vitesse…

Pour tout cela, quand il s’agit de comparer les grandeurs et non les unités on utilise un autre système : celui des dimensions, et l’analyse de tout ça s’appelle l’analyse dimensionnelle.

Les dimensions

Pour chaque grandeur physique de base il existe une dimension associée.

Ainsi, l’on dit que les mètres, les pouces ou les ångström sont toutes de la dimension d’une longueur. La dimension de ça se note $L$.
Que l’on ait des heures, des années ou des lustres, on parle de durées et cela a la dimension d’un intervalle de temps, notée $T$.
Autre exemple : que l’on ait des kilogrammes, des livres ou une tonne impériale, l’on parle toujours de la même dimension : celle d’une masse. Sa notation est $M$.

En pratique, on utilise surtout ces trois dimensions ($L$, $T$, $M$), mais il en existe d’autres :

  • $I$ : pour l’intensité électrique ;
  • $N$ : pour les quantités de matière ;
  • $\theta$ : pour les températures ;
  • $J$ : pour l’intensité lumineuse.

Enfin, notez qu’un nombre « pur » est dit « sans dimension ». Par exemple, $4$ est un nombre pur : ce n’est ni une longueur, ni une intensité, c’est juste $4$. Ces nombres sans dimension suivent cependant la même règle : on peut les multiplier avec ce qu’on veut, mais on ne peut pas additionner des nombres purs avec des grandeurs qui ne le sont pas.

Chaque grandeur physique, quelle qu’elle soit, peut être exprimée à l’aide d’une dimension, ou d’une combinaison de dimensions.

Ainsi, la vitesse est toujours le rapport d’une distance parcourue sur une durée mise pour la parcourir. Sa dimension peut donc être notée de la façon suivante : $\frac{L}{T}$, ou mieux encore $LT^{-1}$.
Ou bien des surfaces (que ce soit en m², en hectares…) sont toujours une longueur multipliée par une autre longueur. La dimension d’une surface est donc $L^2$.

Plus compliquée, l’énergie (que ce soit des joules, des watt-heure, des électron-volt…) ça sera $ML^2T^{-2}$.

Comment sait-on que l’énergie est $ML^2T^{-2}$ ?
C’est simple : on peut retrouver ça à partir d’une formule donnant une énergie quelconque. Par exemple l’énergie cinétique :

$$E_c = \frac{1}{2} m v^2 $$

On sait que la masse $m$ la la dimension d’une masse : $M$.
Par ailleurs, la dimension de la vitesse $v$ est $LT^{-1}$, qu’il faut élever au carré : $L^2T^{-2}$.
Le $\frac{1}{2}$ ici, n’a pas de dimension.

Du coup, la dimension d’une énergie, notée $[E]$, vaut $ML^2T^{-2}$.

De même, l’on trouvera que la dimension d’une quantité de mouvement $[p]$ donne $ML^2T^{-1}$

Celle d’une force ? En utilisant par exemple la formule donnant le poids à partir de la masse d’un objet et de l’accélération du champ de pesanteur, on finit par trouver $[F] = MLT^{-2}$.

Je vous laisse essayer par vous même, ce n’est pas très compliqué. C’est juste parfois un peu farfelu, surtout pour les grandeurs électriques : la dimension d’une tension électrique, par exemple, se trouve être $[U] = ML^2I^{-1}T^{-3}$.

À quoi sert l’analyse dimensionnelle ?

L’intérêt est multiple.

Vérifier la validité d’une équation

Le premier intérêt est celui que l’on présente à l’école, et que l’on pratique dans les exercices : c’est celle que j’ai décrite au dessus avec « on ne peut pas additionner des choux et des patates ».

Si l’on résout un exercice et qu’on a trouvé une équation, il faut vérifier que tous les termes soient bien additionnables entre eux. Pour cela, on exprime les dimensions de chaque terme et on regarde si elles sont identiques.

Si elles ne sont pas identiques, alors votre équation ne peut pas être juste. Ce n’est alors même pas la peine de continuer : votre équation est fausse.
Si les dimensions sont bonnes, cela signifie que l’équation a une chance d’être juste. Tous les termes sont de la même grandeur : on dit alors que l’équation est homogène.

Une équation qui satisfait à l’analyse dimensionnelle a une chance d’être juste, mais une équation qui n’y satisfait pas n’en a aucune.

Comprendre la relation entre les différentes grandeurs physiques.

Le second intérêt que je vois personnellement (mais qui m’a été mis de côté en classe), c’est que ça permet de voir comment les grandeurs physiques sont reliées entre-elles.

Exemple 1 : relation entre une énergie et une force

Quelle est la relation entre une énergie et une force ? Pour répondre à ça, utilisons l’analyse en dimension.

La dimension d’une énergie est $[E] = ML^2T^{-2}$.
Celle d’une force est $[F] = MLT^{-2}$.

On remarque que l’énergie peut s’écrire aussi comme $MLT^{-2} \times L$, autrement dit $[F] \times L$ : une force multipliée par une longueur.

Cela montre que l’énergie dépensée lors d’une action est égale à l’intensité de la force multipliée par la distance sur laquelle la force est appliquée.
En gros, l’on dépensera une énergie équivalente en courant une courte distance qu’en marchant une longue distance.

Exemple 2 : relation entre l’énergie et la puissance

On applique le même raisonnement.

La dimension d’une puissance est $ML^2T^{-3}$.
Exprimée en fonction de l’énergie, cela donne : $ML^2T^{-2} \times T^{-1}$, soit $[E] \times T^{-1}$.

On voit que la puissance correspond à un débit d’énergie au cours du temps.

Une puissance donnée peut ainsi être obtenu en dépensant une grande quantité d’énergie sur un temps très long, ou alors une quantité d’énergie raisonnable sur un temps plus court.

Une petite explosion (peu d’énergie sur très peu de temps) est ainsi bien plus dévastatrice qu’une combustion très lente (beaucoup d’énergie sur très beaucoup de temps).

Exemple 3 : comprendre la la tension électrique

Une première approche utilise l’énergie.

La dimension d’une tension électrique U est $[U] = ML^2I^{-1}T^{-3}$. On peut l’écrire sous une première forme $ML^2T^{-2} \times I^{-1} \times T^{-1}$.
En remarquant que l’intensité du courant électrique $I$ correspond à un débit de charges électriques $C$, l’on peut dire que la charge électrique correspond au produit d’une intensité par une durée : $[C] = I \times T$

L’écriture de la tension électrique devient alors $[U] = [E] \times [C]^{-1}$, et l’on peut lire là dedans que la tension électrique correspond à l’énergie données aux charges électriques. Si l’on se place dans le vide (comme un tube cathodique), la tension utilisée définit la vitesse (énergie cinétique) des électrons, et différentes tensions permettent alors différentes applications pour le jet d’électrons.

Une seconde approche utilise une force.

L’on peut aussi écrire $[U] = MLT^{-2} \times (IT)^{-1} \times L$, soit $[U] = [F] \times [C]^{-1} \times L$, que l’on peut lire comme la tension électrique correspond à une force appliqué aux charges électriques sur une distance donnée.
Ceci est d’ailleurs la définition de l’unité du volt : un volt est égal la tension électrique qui accélère une charge de 1 coulomb avec une force de 1 newton sur une distance de 1 mètre.

Toutes ces lectures différentes d’une même écriture correspondent à des interprétations d’une grandeur physique donnée.
L’analyse dimensionnelle permet tout ça en manipulant des grandeurs physiques plutôt que des unités (ce qui est souvent beaucoup plus intuitif). Utilisée dans ce cadre, l’analyse dimensionnelle permet de mettre des mots sur une équation, une grandeur physique ou une unité.

Et au delà de l’exactitude des équations que l’on découvre, une bonne part de ce qui fait un scientifique provient de la façon dont il comprend et se représente le fonctionnement de la nature. Comprendre précisément les grandeurs mises en jeu lors d’un phénomène permet à la fois de voir directement la nature opérer sous ses yeux, mais également de prédire le résultat d’un phénomène voire d’en découvrir ou d’en expliquer d’autres.


Pour conclure, j’espère avec cet article que l’analyse dimensionnelle est devenue quelque chose de clair, ce qui ne devrait pas être difficile, mais surtout quelque chose d’utile. L’analyse dimensionnelle est un outil puissant qui se révèle utile pendant les calculs, en permettant de vérifier l’homogénéité des équations, ainsi que dans notre image mentale que l’on se fait des phénomènes physiques auxquels l’on a à faire.

image d’en-tête de Catalina Olavarria

Lire la suite…

5 commentaires

hurricane from space
Avec les cyclones Irma, Harvey qui se présentent en ce moment au niveau des Caraïbes, on parle souvent de la force de Coriolis, comme étant la force qui donne le sens de rotation à ces cyclones. J’avais déjà parlé de la force de Coriolis dans mon article sur le sens de rotation des tourbillons dans les éviers, qui est d’avantage un phénomène aléatoire.

La force de Coriolis est en revanche bien réelle est c’est bien elle qui donne son sens de rotation aux cyclones : horaire dans l’hémisphère sud et anti-horaire dans l’hémisphère nord.

La notion de « force » est plutôt mal choisie dans l’expression « force de Coriolis ». En effet, on définit une force comme une interaction entre deux corps, avec un point d’application, un sens, une direction et une intensité. Or, pour la « force » de Coriolis, on n’a rien de tout ça. C’est pour cela que je préfère employer le terme de « effet de Coriolis » (calqué de l’anglais « Coriolis Effect »). L’expression exacte en physique n’est d’ailleurs pas non plus « force de Coriolis » mais « accélération complémentaire de Coriolis ».

L’effet de Coriolis intervient à chaque fois que l’on considère un mouvement par rapport à un référentiel en rotation : que l’on marche sur un manège qui tourne, que l’on considère une fusée vis à vis d’un astre en rotation ou bien, plus spécifiquement, quand on regarde le déplacement des masses atmosphériques par rapport à la rotation de la Terre.
C’est dans ce dernier cas que l’on va se placer ici, pour cet article.

L’origine de l’effet de Coriolis

L’origine de la force de Coriolis vient de la sphéricité et de la rotation de la Terre.
Notre planète effectue une rotation sur elle même en 24 heures. Cela signifie que, où que l’on se trouve sur le globe, l’on effectue un tour en 24 h.
Or, tous les points du globe ne parcourent pas la même distance au cours de cette rotation : en effet, le cercle formé par l’équateur est beaucoup plus grand que celui formé sur les parallèles plus proches des pôles :

i
Plus on s’approche des pôles, plus la distance parcourue durant une rotation est petite. (source clipart)

La distance parcourue variant avec la latitude, mais pas la durée de rotation, il en résulte que la vitesse de déplacement varie également avec la latitude : à l’équateur, une rotation en 24 heures sur 40 000 km correspond à une vitesse d’environ 1 700 km/h vers l’est. À Paris, ville située à 48° Nord, la distance parcourue est moindre et la vitesse est plutôt de 1 100 km/h vers l’est également. À 5 km du Pôle Nord, la vitesse de déplacement vers l’est n’est plus que de 0,65 km/h, et au pôles, cette vitesse est nulle.

Ceci est quelque chose de fondamental en météorologie : une masse d’air proche de l’équateur — et donc animée d’une vitesse de 1 700 km/h — qui remonte vers le le nord va en effet conserver sa vitesse. Si, hypothétiquement, elle arrive au niveau de Paris, toujours avec sa vitesse latérale de 1 700 km/h, elle va se trouver au dessus d’une ville qui ne se déplace qu’à 1 100 km/h, soit une différence de 600 km/h. Évidemment, il y a une perte de vitesse au cours du déplacement des masses d’air, mais elle n’est pas totale et il subsiste une différence.

Ce qui en résulte est que les masses d’air remontant de l’Équateur vers le Nord vont plus vite que le sol dans leur déplacement d’ouest vers l’est, et par rapport à la Terre (au sol), c’est comme s’ils déviaient de leur course vers le nord :

i
Une déviation a lieue vers la droite quand on se déplace de l’équateur vers le Nord (source carte)

À l’inverse, une masse d’air qui descendrait du nord vers l’équateur accumulerait un « retard » sur la rotation terrestre et se retrouverait à aller moins vite vers l’est : sa déviation se ferait vers l’ouest.

La formation et la mise en rotation d’un cyclone

Imaginons une région très chaude et humide (conditions très souvent remplies au niveaux de l’équateur et dans toute la région intertropicale) : l’air se charge d’humidité, se réchauffe puis amorce une ascension dans l’atmosphère où il va se former un nuage puis une dépression. Il se crée un vide d’air au niveau du sol : l’air situé partout aux alentours va venir s’engouffrer sous le nuage.

Or, comme on l’a vu, si l’air est en provenance du nord, il va être dévié vers l’ouest, et l’air en provenance du sud est dévié vers l’est. Ces mouvements latéraux des masses d’air vont finir par s’imprimer à même la dépression :

i
Les déviations de Coriolis des masses d’air finissent par mettre la dépression en rotation et à former un cyclone rotatif (source carte)

Au final, c’est toute la dépression qui se met en rotation, formant un cyclone.

Le sens de rotation dépend de l’hémisphère : au nord, les déviations sont comme indiquées sur les schémas ci-dessus.
Dans l’hémisphère sud, la déviation est toujours vers l’est lorsqu’on s’éloigne de l’équateur (et vers l’ouest lorsqu’on s’en approche), mais comme l’on s’éloigne de l’équateur dans l’autre sens, la rotation des cyclones se fait dans l’autre sens.

En somme, dans l’hémisphère nord la rotation des cyclones se fait en sens anti-horaire, et dans l’hémisphère sud elle est de sens horaire.

Quelques mots sur l’énergie d’un cyclone

Le cyclone tire son énergie dans la chaleur du Soleil : c’est lui qui réchauffe les océans et provoque l’évaporation de l’eau. La vapeur d’eau se trouvant être moins dense que l’air, elle s’élève, produisant une dépression au niveau du sol. Cette dépression va être comblée par une arrivée d’air partout autour. En fonction de l’origine de cet air (nord ou sud), les courants d’air subissent une déviation due à l’effet de Coriolis qui va mettre l’ensemble de la dépression en rotation, donnant naissance à un cyclone.

Le cyclone continuera d’être alimenté tant qu’il sera au dessus de régions chaudes et humides (typiques des régions tropicales). Une fois que le cyclone est au dessus des continents (ou d’une mer plus froide), il n’est plus alimenté en air humide, le cyclone cesse de grossir et finit par « s’évanouir » une fois que toute l’humidité accumulée se sera déversée lors des pluies.

Dans son ensemble, une telle formation peut faire la taille de la France et produire des vents de plus de 300 km/h.

L’énergie totale d’un cyclone est également chiffrable : un cyclone constitue non seulement un importante masse d’air en rotation (donc une somme d’énergie cinétique très grande), mais aussi et surtout une gigantesque quantité d’eau chaude en altitude. L’énergie (chaleur, chaleur latente…) contenue dans l’eau d’un cyclone représente d’ailleurs près de 400 fois l’énergie cinétique du cyclone. Pour le dire autrement : les vents produits par ces phénomènes n’est que 0,25 % de l’énergie totale véhiculée par le cyclone…

Au total, on estime (source) qu’un cyclone « moyen » transporte et dégage en un seul jour 4 à 5 fois la quantité d’énergie électrique produite par les USA en une année.

Autres articles sur le sujet

Image d’en-tête de Jonathan Naumann

Lire la suite…

5 commentaires

i
Le but ici est de tracer un pentagramme à la règle (non-graduée) et au compas, sur un papier vierge. Ça peut sembler un exercice trivial, mais ça ne l’est pas : l’angle du pentagramme fait $72 \deg$ : vous savez le faire, ça (plot twist : c’est possible !) ?

En fait, toutes les figures régulières ne sont pas traçables à la règle (non graduée) et au compas. Le triangle et le pentagone régulier sont traçables, mais pas l'heptagone ou l'ennéagone par exemple. Ici je vais m’attarder sur le pentagone, et plus précisément le pentagramme (qui n’est autre qu’un pentagone étoilé).

Le pentagramme est une figure haute en symbolisme, mais je ne parlerai pas de ça ici.

Quand on le trace à main levé, on voit en fait un petit pentagone central avec des triangles isocèles juxtaposés sur ses côtés. Ces triangles sont bien particuliers : leur angle au sommet mesure $36 \deg$ et leurs angles à la base chacun $72 \deg$, soit le double de l’angle au sommet.
Cette dernière propriété est remarquable et en fait un triangle d’or (le rapport des longueurs des côtés vaut par ailleurs $\phi$, le nombre d’or).

Le nombre d’or, le triangle d’or et le pentagramme sont intimement liés, et la plupart des méthodes pour tracer un pentagramme de façon exacte font intervenir le tracé intermédiaire d’un triangle d’or.

Ma méthode pour tracer un pentagramme débute elle aussi par le tracé d’un de ces triangles d’or (à partir du rectangle d’or). Ce triangle d’or va constituer une des branches du pentagramme.
Ce n’est pas la méthode la plus rapide et encore moins la seule, mais c’est celle que j’ai mise au point et que j’utilise :

i
J’y vois quelques avantages :

  • On part du rectangle d’or, que tout le monde connaît et qui est très simple à tracer, puis du triangle d’or qui vient alors naturellement.
  • L’orientation et la taille du rectangle d’or initial donnent directement l’orientation du pentagramme et la taille d’une des branches de l’étoile. Les autres méthodes (comme celle d’Euclide) partent d’un triangle d’or qui n’est pas dans l’orientation du pentagramme final (il n’en fait même pas partie) ni n’a la taille du pentagramme ou d’une de ses branches, ce qui rend son orientation et le calcul de sa taille un peu plus compliqués.

Un inconvénient de ma méthode :

  • beaucoup de tracés intermédiaires, donc un bon nombre de risques d’imprécisions. La méthode décrite sur Wikipédia ici est bien plus rapide et précise (mais que je vous rassure : les imprécisions éventuelles sont imperceptibles dans le résultat final).

Bref, commençons.

Tracé du rectangle d’or

Comme je l’ai dit, on débute par tracer un rectangle d’or. Pour ça, on commence par tracer un carré.
(pour ceux qui ne savent pas comment on fait ça : tracez un cercle, puis un diamètre ; tracez la médiatrice du diamètre (au compas) : vous avez alors deux des quatre côtés reliés par un angle droit ; il suffit ensuite de tracer le quatrième point du carré avec le compas).

i
Ensuite, trouvez le point E, milieu de AD (avec la méthode du tracé de la médiatrice du segment AD), et tracez l’arc de cercle de centre E et de rayon EC. Ceci permet de trouver le point F :

i
Tracez — toujours avec la méthode de la médiatrice — la perpendiculaire à l’axe horizontal passant par F ; l’intersection de cette perpendiculaire avec la droite BC donne le point G :

i
Le rectangle ABGF est un rectangle d’or :

i

Tracé du triangle d’or, première branche de l’étoile

Le triangle d’or aura pour base le segment AB, et les deux autres côtés auront la longueur du rectangle. Il suffit de tracer le point H au compas, de telle sorte que AH = BH = AF :

i
Voilà, la partie la plus difficile est passée : créer la première branche du pentagramme.

Tracé des branches 2 et 3 du pentagramme

Pour ça, on va tracer les premiers côtés du pentagone inscrit au pentagramme puis les deux branches de l’étoile.
Tracez la droite portée par le côté BH du triangle d’or, puis repérer le point I sur cette droite, tel que AI = AH :

i
Faites pareil de l’autre côté, pour obtenir le point J :

i
Repérer le point K, tel que IK = BK = BH :

i
On a alors la seconde branche du pentagramme.

Faites pareil de l’autre côté pour obtenir le point L, troisième sommet du pentagramme, et tel que que AL = IL = AH :

i
On a alors la troisième branche.

Tracé des branches 4 et 5 du pentagramme

On a presque terminé.
Il suffit de tracer les droites portées par les segments KI et LJ :

i
L’intersection de KI et LJ donne le point M, dernier sommet du pentagone central.
Les intersection de KI et AH, et de LJ et BH donnent les derniers sommets du pentagramme et donc les deux branches manquantes :

i

Obtention du pentagramme final

Notre pentagramme HNLKO est terminé :

i
Comme vous voyez, c’est la dimension du rectangle d’or initial qui donne environ le taille d’une branche.
Je reprécise également que ceci est une méthode exacte, pas approchée. Mathématiquement, le pentagone ici est exact.


Pour ceux que ça intéresse, pour réaliser les schémas/figures, j’utilise l’outil JSXGraph qui permet de tracer graphiquement des figures et autres courbes/formules en JavaScript. J’utilise une version améliorée au moyen de mon propre outil, par exemple visible ici.

image d’en-tête d’Avery Edison

Lire la suite…

6 commentaires

photo d’une carte-mère
L’informatique, c’est un tas de puces électroniques, de circuits imprimés et de câbles qui permettent à chacun de nous de communiquer avec d’autres personnes, de réaliser des graphiques ou de l’imagerie 3D, de jouer et créer de la musique et une infinité d’autres choses. Il n’en reste que ce n’est qu’une machine purement électronique : un assemblage de composants.

S’il est assez intuitif de se remémorer ou de comprendre les lois physiques comme la loi d’Ohm ou les lois de Norton ou Thévenin sur les circuits électriques d’une part, et qu’on peut également arriver à créer ses propres programmes basiques (comme un « hello world ») dans un IDE tout fait d’autre part, ce qui est longtemps resté mystérieux pour moi, c’est le passage d’un monde électronique (un tas de composants électroniques) à un monde logiciel remplis de programmes (une suite de lignes de code). Le mystère tient en fait en une simple ligne : comment un circuit électrique est-il capable de calculer en binaire et de faire en temps réel ce qu’on lui demande ?

Je vais tenter de répondre à cette question relativement importante. Que nous le vouliez ou pas, le monde entier tourne grâce à l’informatique et l’électronique, et pour comprendre le monde, il faut comprendre l’informatique.

J’avais déjà écrit des articles sur la nature d’un semi-conducteur et sur le fonctionnement d’un transistor (constitué d’un métal semi-conducteur, et constituant la brique de base d’un ordinateur). Je vous conseille de les lire si vous voulez réellement partir de zéro en ce qui concerne le fonctionnement de votre PC. Dans le cas contraire, on supposera que le transistor est un composant que vous connaissez.

Introduction

Expliquer un PC contenant cent milliards de transistors, des fils partout et des centaines de millions de lignes de code est — vous l’aurez compris — beaucoup trop compliqué. On va plutôt commencer par étudier un système électronique et un programme simplistes.

Pour cela, quelques rappels.

Le transistor

Comme suggéré dans l’introduction, je vous propose de lire cet article qui explique son fonctionnement.
Pour le résumer, il s’agit d’un composant électronique à trois bornes où l’état électrique (allumée ou éteinte) de la borne de sortie « E » dépend de l’état électrique (allumées ou éteintes) des deux autres bornes d’entrée « C » et « B ».

Les deux entrées contrôlent donc la borne de sortie :

shéma et symbole du transistor
Schéma et symbole du transistor

L’ensemble se fait en appliquant des tensions électriques (généralement on parle de 5 V) aux différentes bornes d’entrée.

Le binaire

Le binaire est un mode de calcul qui au lieu d’utiliser dix chiffres comme on a l’habitude, n’en utilise que deux : $0$ et $1$.
Vous pouvez apprendre à compter en binaire si vous voulez, j’ai un joli cours pour ça, mais ce n’est pas ce qui nous intéresse ici.

Plutôt que de parler d’appliquer 5 V à une borne et 0 V à une autre borne, on dit qu’on met les bornes à $1$ et à $0$ respectivement. Mathématiquement, on pourrait dire qu’il s’agit d’un changement de variable. Utiliser une notation avec des 0 et des 1 est plus rapide, c’est pour ça qu’on utilise ce système dans l’électronique et donc dans l’informatique en général.

Un programme (informatique)

Dans la vie de tous les jours, par exemple lors d’un festival ou un concert, vous pouvez obtenir un « programme » : il s’agit de la liste des représentations ou des activités qui seront données ce jour là. Chaque ligne du programme correspond à un événement, chaque événement suit le précédent.

Une recette de cuisine, c’est également un programme : chaque ligne correspond à une instruction à opérer, et l’ensemble des des instructions doivent être effectuées dans l’ordre si on veut obtenir le résultat attendu. Si l’on ne fait pas ça dans l’ordre, le résultat sera plus ou moins comestible.

Un dernier exemple, les instructions données sur un distributeur automatique constituent également un programme : il faut insérer la carte, puis taper son code, puis reprendre sa carte, puis prendre les billets. Ici chaque instruction appelle une action de la part de l’utilisateur. Si l’utilisateur n’agit pas, alors le distributeur automatique reste bloqué sur l’étape en cours.

En informatique, c’est plus ou moins la même chose : un programme représente une suite de tâches à effectuer pour l’ordinateur : l’ordinateur accomplit les tâches les unes à la suite des autres, dans l’ordre où elles sont écrites.
On reviendra sur la notion de « programme informatique » un peu plus tard, notamment ce qu’on entend par « instruction » ou « les unes à la suite des autres ».

Notre ordinateur simpliste

Connaissant le fonctionnement d’un transistor et sachant que l’on peut brancher les transistors les uns à la suite des autres (tout ceci est expliqué dans mon article sur le transistor) pour former des portes logiques (portes ET, portes OU…), on va utiliser le branchement électrique composé de plusieurs portes logiques suivant :

schéma d’un additionneur avec retenu
Les entrées sont A et B, les sorties sont S et Rs (on ignore Re, il n’est pas essentiel ici).

Notre programme simpliste

Je l’ai dit, un programme c’est une suite d’instructions. Notre suite d’instructions à appliquer sur notre ordinateur est ceci :

  1. Brancher la borne A à du 5 V ;
  2. Brancher la borne B à du 5 V.

Ou, en terme binaires :

  1. Mettre la borne A à 1 ;
  2. Mettre la borne B à 1.

Et c’est tout.

Lors de l’exécution de ces tâches (de ce programme) on va laisser faire le circuit électrique et regarder ce qui se passe sur les bornes S et Rs. Il ne s’agit ici que de physique : loi d’Ohm, effet transistor, circulation du courant, etc.

Exécution du programme

Maintenant que l’on dispose du matériel et du logiciel, on va pouvoir mettre tout ça en route.

Initialement, on n’a encore rien branché : les bornes A et B sont à 0 et 0. Les sorties, elles, sont ici à 0 et 0 aussi.
On peut tout mettre ça dans un tableau :

ABRsS
0000

Mettons la sortie A à 1. On obtient ceci :

ABRsS
1001

Mettons la sortie B à 1 (notons qu’il est dit nul part de remettre A à 0, donc on n’y touche pas et on laisse A à 1) :

ABRsS
1110

On peut regrouper les trois lignes successives dans un même tableau. Pour un système simple, ce tableau, représentant les états des sorties en fonction des entrées et regroupant l’ensemble des états possibles, porte le nom de « table de vérité » :

ABRsS
0000
1001
1110

Ajoutons deux colonnes :

  • une qui juxtapose les valeurs de Rs et de S en « RsS », formant donc des nombres à deux chiffres en binaire ;
  • une où j’aurais arbitrairement convertit la valeur binaire de RsS en décimal.
ABRsSRsS(bin)RsS(déc)
0000000
1001011
1110102

Qu’est ce qu’on observe ? On observe que pour chaque ligne du tableau, quand on fait A+B on obtient RsS !

  • 0+0 = 0
  • 0+1 = 1
  • 1+1 = 2

Le montage utilisé ici, avec les portes logiques branchées telles qu’elles le sont là est un montage de type additionneur : il affiche en binaire sur les sorties Rs et S la somme des valeurs en entrée sur A et B.
Ce type de montage est un vrai montage qui est réellement utilisé en électronique.

Exécution du programme sur l’ordinateur un peu moins simpliste

Bon, je vous ait menti : le montage ci-dessus est sûrement trop simpliste pour être utilisé en vrai. À la place, on utilise plutôt un montage similaire mais beaucoup plus gros, avec 5, 10, 1000 entrées et plein de sorties également.

Le montage, correctement branché permettra alors de faire l’addition (en binaire) des entrées : en gros, il comptera le nombre d’entrées à 1, donc celles que l’on aura soumis à une tension de 5 V. La suite de 1 ou 0 constituée des valeurs affichées sur les sorties correspondra alors à la valeur en binaire du nombre d’entrées qui seront à 1.

Pour aller plus loin, maintenant, si on allume successivement les entrées l’une après l’autre, le montage va « afficher » sur les sorties les nombres en binaire correspondant à 1, 2, 3, 4… On aura alors réalisé un montage qui compte tout seul !
Or, il est tout à fait possible, avec des condensateurs et des bobines (qui sont capables de retarder l’établissement du courant), de faire en sorte que nous n’ayons qu’à appuyer une seule fois sur un bouton et les entrées s’allumeront de façon séquentielle. Ajoutons une petite LED à chaque sortie et on aura un compteur en binaire avec des LED.

Voilà notre premier ordinateur capable de réaliser de façon autonome une opération « compliquée »

Et un vrai ordinateur ?

Les vrais ordinateurs fonctionnent comment ? C’est simple : on appuie sur « On » et il nous ouvre le système d’exploitation, récupère nos e-mails, nous affiche le bureau, se met à jour, le tout sans que nous n’ayons encore touché à quoi que ce soit.
Le principe est exactement celui de notre ordinateur compteur : une fois qu’on l’a allumé, il effectue des actions dictées par un circuit électrique capable d’activer les entrées séquentiellement dans le temps.

En pratique, quand on appuie sur le bouton « On » de l’ordinateur, un petit programme très basique (le BIOS et/ou le POST, similaires dans l’idée à ce qu’on a vu au dessus) va mettre sous tension les différents composants et commencer à détecter les données qui sont inscrites dessus, sous forme binaire.

Ensuite, ce sont les données du disque dur qui sont envoyées au CPU, un assemblage de milliards de transistors et de portes logiques qui va utiliser les données présentes sur le disque dur comme entrées et utiliser la sortie pour modifier l’état des pixels sur votre écran ou des bits dans la mémoire.

C’est comme ça que des programmes présentes sur votre disque dur vont aller afficher le bureau ou l’écran de connexion sur votre moniteur, sans que nous n’ayons rien à faire à part appuyer sur « On ».

Dans un vrai ordinateur, où des milliards de transistors sont assemblés entre eux, les sorties de certains circuits sont rebranchés sur les entrés d’autres circuits. Ainsi, une fois que certains transistors de la mémoire sont mis à « 1 », ces données vont servir de valeur d’entrée à une nouvelle série de calcul.

Vous avez sûrement déjà entendu parler de la fréquence du processeur (les « 2,3 GHz » du processeur, ou le « 1 333 MHz » de la mémoire). Il s’agit ici de la fréquence d’horloge du processeur. Les opérations sont effectuées les unes à la suite des autres, séquentiellement, et « 2,3 GHz » signifie que le processeur est capable d’effectuer jusqu’à 2,3 milliards de cycles de calculs par seconde.

Et les programmes ?

Pour qu’un ordinateur puisse afficher votre bureau, il suffit que le système d’exploitation (Windows, Linux, ou OS-X…) soit installé sur votre disque dur. Si c’est fait correctement, alors le système d’exploitation s’ouvrira tout seul après l’allumage de l’ordinateur.

Ceci dit, un système d’exploitation (SE) seul ne permet pas de faire grand chose : il ne permet ni de surfer (c’est Firefox ou Chrome qui font ça) ni de taper une lettre (comme Word ou Writer). Ceci est le rôle des programmes. Ces programmes sont accessibles quand on clique sur leur icônes.

Les icônes sont un moyen facile de lancer des programmes, mais là-aussi tout se fait de façon binaire au niveau de transistors : en bougeant la souris sur une partie de l’écran, la position de la souris est calculée par une sous-partie du SE appelé le « pilote ». Les coordonnées sont mises en relation avec les données servant à afficher l’image du bureau et les coordonnées correspondant à l’image d’une icône sont retenues : à ce moment là, une liste d’instructions correspondant à l’icône sont envoyées au processeur et l’ordinateur exécute le programme sur lequel on vient de cliquer.

En fait, quoi qu’on fasse, que ce soit déplacer la souris, presser une touche du clavier ou cliquer sur la souris, l’ordinateur effectue des calculs binaires et réagit en conséquence (appuyer sur la touche « A » provoque la modification des pixels de l’écran qui vont aller vous afficher la forme d’une lettre « A »).

Bien-sûr, chaque programme étant différent, un clic n’aura pas le même effet partout : dans le navigateur, il peut signifier « changer de page web », alors que dans un jeu vidéo c’est plutôt « donner un coup d’épée ».

Et programmer ?

Programmer, c’est imaginer, inventer, écrire puis donner une suite d’instructions à l’ordinateur.
C’est faire un programme informatique : quand on sait comment fonctionne l’ordinateur et qu’on a commencé à apprendre son langage (un langage de programmation), on peut lui faire faire ce qu’on veut. Ainsi, quand on cliquera sur l’icône de son propre programme, ce seront vos instructions à vous qui seront exécutées par l’ordinateur.

Choisir convenablement les bonnes instructions et le bon ordre dans lequel exécuter ces instructions, ainsi que savoir comment écrire ces instructions dans une autre langue (celle de l’ordinateur), ça correspond au travail du programmeur. Non seulement écrire des programmes demande des connaissances dans le langage informatique donnée, mais il faut également savoir comment interpréter les actions de l’utilisateur (clic de la souris, touche du clavier…). Mieux encore, il s’agit aussi de créer une interface graphique pour le programme : créer des menus, dessiner des icônes, gérer les transitions et les animations.

Pour les suites logiciels plus imposants, il s’agit parfois de découper le programme en plusieurs sous-programmes qui vont chacun être responsables d’une tâche. Généralement il y a alors différentes personnes travaillant sur les différentes parties du programme. Il convient alors au chef de projet de faire en sorte que tout le monde utilise bien les mêmes spécifications, dans le but de pouvoir à la fin « assembler » chaque partie du programme.
Le plus souvent même, les différents programmes sont écrits et créés par des entreprises ou des groupes de personnes différentes : le logiciel The GIMP est édité par la fondation Gnome, mais peut fonctionner sur Windows (édité par Microsoft), le tout avec du matériel créé par l’entreprise Intel.

Toutes ces choses spécialisées : architecture d’un programme, codage, design, 3D, interaction avec l’utilisateur… font partie des métiers de l’informatique, et généralement chaque personne est spécialisée dans un domaine précis (avec tout de même des capacités ou des connaissances dans les autres domaines).

image d’en-tête de Frankieleon

Lire la suite…

11 commentaires

panneau positionnant le tropique du capricorne
Tout le monde a déjà vu un globe terrestre, ou une carte, et systématiquement on peut y voir marqué divers cercles ou lignes : l’équateur, les tropiques du Cancer et du Capricorne, ainsi que les cercles polaires Arctiques et Antarctique.

L’équateur marque le cercle où l’on passe d’un hémisphère à un autre : il est facile à comprendre. Mais les autres ? D’où sortent-ils, et pourquoi sont-ils placés où ils sont ?

Les cercles tropicaux

Les tropiques du Cancer et du Capricorne sont nommés d’après des constellations dans le ciel les jours de solstice d’été. Leurs noms sont totalement arbitraires (le capricorne vient de la mythologie et le cancer est un genre de crabe), vu que les constellations ne sont que le fruit de l’imagination de nos ancêtres.

Par rapport à l’équateur, les tropiques sont situés à 23° de part et d’autre de l’équateur. Cet angle ne sort pas de nulle part : il correspond à l’angle d’inclinaison de la Terre avec le plan de l’écliptique : la Terre est inclinée d’environ 23°.

Du fait de cette inclinaison, les rayons du Soleil n’arrivent pas à la verticale partout tout le temps : seules certaines régions, proches de l’équateur, ont cette particularité. En France métropolitaine par exemple, cela n’arrive jamais. Mais en descendant progressivement vers l’équateur, il arrive une latitude où, au moins une fois dans l’année, le Soleil se trouve au zénith (à 90° dans le ciel) : cette latitude (+23°), c’est le tropique du Cancer. En continuant vers le sud, on passe par le tropique du Capricorne, au sud de l’équateur, qui est alors la latitude négative (−23°) la plus basse où l’on peut espérer voire le soleil au zénith. Entre les deux tropiques, le Soleil se trouve au zénith deux fois par an.

position des tropiques
Position des tropiques par rapport à l’équateur à cause de l’inclinaison terrestre (image)

Les cercles arctiques

De même, ces cercles ont une origine induite par l’inclinaison de la Terre : lors du solstice d’été, le cercle polaire passe par le point qui reçoit les rayons du Soleil de façon parallèle, le plus au nord possible. Donc quand quelqu’un est placé du côté du Soleil sur un tropique un jour de solstice à midi et reçoit les rayons de Soleil de façon perpendiculaire avec le sol, quelqu’un situé sur le cercle polaire dans le même hémisphère mais du côté nuit à minuit, alors les rayons du Soleil seront parallèles avec le sol.

De plus, à l’inverse de l’équateur qui marque la région où les jours et la nuit durent constamment la même durée de 12 h, le cercle polaire marque la région où l’écart entre la nuit et le jour sont le plus grand. Sur le cercle arctique, au solstice d’été, la nuit dure exactement 0 s et le soleil ne se couche pas du tout.
Aller d’avantage vers le nord signifie donc qu’il existe des périodes de plusieurs jours où le Soleil ne se couche pas. Au pôle Nord, cette période dure même 6 mois entiers (l’inverse a lieu pour le pôle sud).

position des cercles polaires
Position des cercles polaires par rapport à l’équateur à cause de l’inclinaison terrestre (image)

Pour résumer

Les tropiques sont les régions les plus éloignées de l’Équateur et où le Soleil arrive, au moins une par an, à la verticale dans le ciel.

Le cercle polaire est la région la plus éloignée de l’équateur où il existe une alternance quotidienne entre jour et nuit. Au delà, certaines nuits et certains jours ne sont pas marqués par le coucher ou le lever du Soleil.

Pour l’anecdote, sachez que l’inclinaison de la Terre varie très légèrement au fil des siècles.
La position des tropiques et des cercles arctiques varient donc également très légèrement (quelques mètres) au fil des ans. Leur position est d’ailleurs recalculée tous les ans.

Enfin, je rappelle (mais j’espère que c’est inutile) que les saisons ne sont dues qu’à l’inclinaison de la Terre, et pas du tout au fait que la Terre se trouve plus ou moins prés du Soleil. Ceci arrive, mais la variation est trop faible, en plus d’être inversée : dans l’hémisphère nord est on plus éloigné du Soleil en été et plus rapproché en hiver.

image d’en-tête de Santiago Medem

Lire la suite…