des micro-led
Depuis quelques années, le fabriquant de smartphones Apple vend des appareils avec des écrans qu’il qualifie de « rétina ». L’argument de vente est alors que l’appareil dispose d’un affichage plus beau. D’autres marques utilisent d’autres dénominations : « infinity », « super amoled », etc. pour désigner des produits aux caractéristiques similaires.

À quoi correspond un écran rétina ? Sur quel critère un écran devient-il « rétina » ?

Définition ou résolution ?

Pour commencer, ne confondons pas définition de l’écran et la résolution.

La première correspond à la géométrie de l’écran : 1920x1080 correspond à la définition d’un affichage full-HD. Peu importe si un tel écran mesure 15 cm sur un téléphone ou 105 cm sur une télé : cet écran est full-HD grâce à sa définition. La définition détermine le nombre de pixels total dans l’écran, et donc la quantité d’information portée par l’image que cet écran affiche.

La seconde, la résolution, détermine la densité de pixel : par exemple 326 dpi (pour dot per inch, ou points par pouce, ppp). Cette information détermine le nombre de pixels par unité de longeur (le pouce, donc par 2,54 cm).
L’écran d’un smartphone a une résolution type autour de 320 pixels par pouce. Un écran de télé full-HD qui mesure 50 pouces de large a donc 1920 pixels pour 50 pouces, donc une résolution de 38 ppp.

Ce qui fait qu’un écran est « rétina » c’est la résolution et non la définition. Mais ce n’est pas tout…

Rétina et résolution de l’œil

Un écran est « rétina » quand, en usage normal, un œil humain ne peut pas distinguer les pixels.
Par exemple, en utilisant un smartphone doté d’un écran rétina, la densité de pixels est trop importante pour l’œil : un pixel est si petit qu’il apparaît comme un simple point et non comme un petit carré unitaire de l’image.

L’œil dispose d’une résolution propre (variant un peu d’un individu à l’autre). La résolution de l’œil détermine ce si l’on peut voir quelque chose en fonction de sa taille et sa distance. Pour un œil d’acuité 10/10, un carré de 1 cm n’est vu comme un objet ponctuel qu’à partir de 34,38 mètres. Plus proche, on distingue le carré et la forme, plus loin, on ne voit qu’un point.

Pour revenir à l’écran : il faut donc savoir si le pixel d’une taille donnée est vue comme un point ou comme un carré à « une distance de téléphone ». Et il se trouve que pour l’écran rétina, c’est bien le cas : les pixels sont suffisamment petits pour n’être que des points à une distance de smartphone (Apple a fixé ça à 12 pouces, soit 30 cm) pour un œil standard avec 10/10 (source).

L‘idée des fabricants est donc respectée et l’image affichée est on ne peut plus nette, sans être pixelisée… pour une personne moyenne : chaque personne disposant d’une vue différente, une personne peut parvenir à voir les différents pixels sur un écran rétina s’il a une vue particulièrement bonne.

Mais du coup… On comprend tout de suite que n’importe quel écran peut être « rétina » si on le regarde de suffisamment loin ! Sur une télé de 50 pouces en full-HD, on distingue les pixels si on est juste devant, mais si on s’assoie à 4 mètres, on ne les distingue plus.

L’argument « rétina » n’est donc valable que selon l’usage et la personne.

Pourquoi aller au delà ?

Si un écran avec environ 300 pixels par pouces est qualifié de « rétina » à 30 cm, on peut se demander quel est l’intérêt d’avoir des écrans avec des résolutions plus hautes. Et en effet, on a raison de se poser la question, car il n’y en a pas vraiment.

Certains téléphones ont des écrans 4K sur 5,5 pouces, et une résolution atteignant 801 ppp (source). D’un point de vue pratique, ceci n’est qu’un argument commercial : à part si on tient le téléphone à 10 cm des yeux, ou si l’on dispose d’une vue exceptionnelle, l’image ne sera ni plus jolie ni plus lisse par rapport à un écran avec ~300 ppp.

Un autre argument commercial parfois rencontré concerne la définition. La définition « ultra HD 4K », par exemple, est très à la mode en 2018 : elle contient quatre fois plus de pixels (8 294 400 pixels) que la full-HD (2 073 600 pixels).

Si l’image est effectivement plus précise et donc également plus agréable sur un écran de lecture (moniteur de PC ou écran de tablette ou de liseuse), là où l’on ne se focalise toujours que sur une petite portion de l’écran, la 4K n’est en revanche pas réellement avantageuse sur un écran destiné à regarder des films ou des jeux vidéos.
En effet, quand on regarde un film, l’écran tout entier devient le centre d’attention, et donc le point observé par l’œil. Or, ce dernier ne dispose que de 3~4 millions de cônes, ces cellules sur la rétine au fond de l’œil qui permettent de voir les couleurs !

Au delà de 4 millions de pixels, un œil moyen ne peut donc pas voir tous les détails de l’image. La 4K et ses 8 millions de pixels sont donc un peu mieux que les 2 millions de pixels du full-HD, mais les normes 5K, 8K et tout ce qu’il y a au dessus deviennent inutiles par rapport au 4K, au moins pour ces applications.

Ceci peut cependant être relativisé : l’œil ne voit jamais une image en entier d’un seul coup : tout comme un capteur photo numérique d’ailleurs, l’œil balaye le champ de vision dans un instant très bref et le cerveau reconstitue l’image entière ensuite. On pense alors que l’image finale reconstituée par le cerveau dépasse l’équivalent de 500 millions de pixels.
Mais là encore, il n’est pas certain que ce sont l’équivalent de 500 millions de pixels qui sont captés par l’œil lors de chacun des 30 images par seconde lors d’un film…

De plus, si l’œil dispose de 3 à 4 millions de cônes capables de distinguer les différentes couleurs, les bâtonnets, qui permettent de distinguer la luminosité sont bien plus nombreux : autour de 100 millions ! L’œil est bien plus sensible aux variations de luminosité qu’aux variations de couleurs, ce qui enfonce le clou aux écrans >4K.

Conclusion

Une fois de plus, la connaissance d’un minimum de culture scientifique permet de faire tomber certains arguments commerciaux sur certains produits, et permettre ainsi éventuellement de réaliser des économies (en n’achetant pas forcément le dernier téléphone avec un trillion de pixels, par exemple).

Pour finir, si vous souhaitez réellement avoir un écran meilleur, je ne peux que vous conseiller d’aller vers les écrans de type OLED. Ici, le pixel n’est plus un matériau coloré puis rétro-éclairé, mais une diode auto-éclairante.
L’avantage principal est un contraste d’affichage très élevé : en effet, sur les écrans classiques, les noirs sont des pixels quasi-opaques mais qui restent éclairés. Sur les écrans OLED, les mini-Led sont tout simplement éteints.

Si l’on ajoute à ça que la technologie utilisée en OLED permet des écrans beaucoup plus fins, voire flexibles, on ne doute plus un instant que le futur se situe là. Et même si seuls les modèles de smartphones ou d’écrans haut de gamme (et donc chers) se réservent le luxe de l’affichage OLED, ils seront voués à remplacer tous les écrans dans le futur.
Pensez également à comparer la fidélité de restitution des couleurs à l’écran : un écran super précis peut ne pas rendre les couleurs fidèlement, ce qui peut ternir l’image.

Comme on s’y attends, donc, ce n’est pas forcément la quantité de pixels qui rend ici l’affichage meilleur, mais bien la technologie utilisée.

image d’en-tête de JB-Displays HK

14 commentaires

gravatar
Jonas écrit :

Bonjour
Article intéressant, mais l'argument des écran 4k ne porte-t-il pas sur le nombre de lignes et colonnes affichables et non pas de points ? Auquel cas le calcul sur la résolution de l'oeil est il toujours valable ?
(Disclaimer : je viens à peine de passer a la HD et regarde encore principalement des DVD donc la 4k pour moi c'est loin...)

gravatar
Le Hollandais Volant écrit :

@Jonas : la 4K signifie qu’il y a 4096 pixels de larges (même s’il est reconnu qu’un écran 3840x2160 soit du 4K aussi).
Si tu veux, un écran 4096x1 est donc du 4K selon cette définition.

Ceci dit, les écrans sont aujourd’hui généralement en 16/9, d’où le nombre de pixels de haut autour de 2 000. Au final, on se retrouve à peu près à 8 millions de pixels. Les deux sont donc bien liés.

gravatar
John Doe écrit :

Pour le cas des smartphones, il faut également noter que plus il y a de pixels sur la dalle, plus l'affichage consommera de la batterie. Donc non seulement, c'est un pauvre argument commercial, mais en plus votre batterie tiendra moins longtemps.

Selon moi, il faut viser à l'achat un écran ayant entre 300ppp et 500ppp : en-dessous votre écran sera "moche", au-dessus ça ne fera que diminuer la capacité de votre batterie sans avantage visible.

L'OLED est clairement l'avenir pour ses propriétés de taux de rafraichissement, contraste, luminosité, et fidélité des couleurs. Par contre, il faut savoir que les écrans OLED sont encore fortement sujets au burn-in (affichage qui reste imprimé sur l'écran après un temps trop long). Cela ne pose pas de problèmes sur les smartphones où l'affichage est très dynamique quand l'écran n'est pas éteint ou sur les TV où l'image varie beaucoup également, mais ce n'est pas le cas sur les PC. C'est pourquoi, associé à des coûts de production plus élevés que les technologies LCD ou IPS, il n'y a pas encore beaucoup (voire pas du tout) d'écrans de PC OLED et on se dirige plutôt vers des solutions intermédiaires comme QLED.

gravatar
Le Hollandais Volant écrit :

@John Doe : Tout à fait !

Vrai aussi pour le burn-in ! C’est un problème inhérent à cette technologie, et assez ironiquement, c’était aussi le cas des vieux écrans CRT. On va peut-être voir revenir des économiseurs d’écran ?
Sur un téléphone, faut aussi noter que si tu change de téléphone tous les 6 mois ou même tous les ans, ce n’est pas plus un problème que celui de la défaillance des mémoires SSD : la durée de vie du produit est alors largement inférieur à celle du composant.

Je ne connais pas le QLED, je vais voir ce que c’est.

gravatar
Oli écrit :

Bonjour merci pour l'article.

Ayant fait des études liées à la vision, je voudrais apporter qq précisions. L'information sur la couleur n'est pas très importante, le cerveau peut comprendre une image en se basant uniquement sur l'information en niveaux de gris fournies par les ~100M de bâtonnets. De plus, le cerveau "repeint" les couleurs manquantes (surtout en vision périphérique) en se basant sur son expérience.
Donc, l'information importante provient des 100M de bâtonnets. Mais ce n'est pas tout. Les bâtonnets sont concentrés dans le centre du champs de vision (la fovéa). Donc, une bonne partie des 100M de bâtonnets sera concentrée sur une petite partie de l'écran regardé. Sur cette partie, même avec un écran 4K, la précision de l'oeil dépasse la résolution de l'écran.
Mais, ce n'est pas tout. L'oeil vibre en permanence avec une amplitude très faible et une haute fréquence. Donc, chaque bâtonnet accumule des informations en continue sur plusieurs parties de l'image. Ainsi, chaque bâtonnet peut "lire" plusieurs pixels.
Et bien sûr, nous avons deux yeux, et le cerveau recoupe les informations provenant de chaque oeil.

Au final, un être humain peut distinguer un trait noir sur fond blanc avec un résolution de 0.5 secondes d'arc (https://fr.wikipedia.org/wiki/Acuit%C3%A9_visuelle) soit 2.5e-6 radians. À 30cm, ça fait 0.8 micro mètres. Pour un écran à 300 pixels par pouce, un pixel fait 83 micro mètres. Donc l'oeil humain bat encore largement la résolution des smartphonnes.

Bien sûr, j'ai pu me tromper, et je serai ravi qu'on me montre mes éventuelles erreurs.

gravatar
Le Hollandais Volant écrit :

@Oli : merci pour ces nombreuses précisions, en particulier pour l'anatomie de l'œil, qui n'est pas uniforme !

Juste, es-tu sûr pour les 0,5 seconde d'arc? Wiki dit bien ça, mais d'autres sources (ex) parlent plutôt de 30 secondes d'arc, soit 0,5 minute d'arc.

0,5 seconde, c'est vraiment petit.

Et 0,8 micromètre à 30 cm, ça me semble carrément surréaliste : un cheveu, c'est déjà 40 à 100 micromètres.

Toujours selon wiki, la taille d'une cellule procaryote est de 0,5 à 2 micromètres.
Ça voudrait dire qu'on pourrait distinguer une cellule à 30 cm ?

Aussi, selon la source de wiki, les 0,5 seconde d'arc correspondent à la limite de visibilité pour un bon œil entraîné dans des conditions idéales, pas la limite de séparation.

Autrement dit, si le pixel mesure 0,5 micromètre, une rangé de pixels noirs sur fond blanc sera visible. Par contre, deux rangées de pixels noirs séparées par une rangé de pixels blancs (pour un total de 1,5 micro-mètre) ne seraient pas séparées par l'œil, et l'on verrait seulement un trait.

gravatar
Oli écrit :

@Timo, Après réflexion, je pense en effet que les 0.5 secondes d'arc sont très optimistes. En gros, une ligne noir sur fond blanc de 0.5 secondes d'arc est visible. La rétine doit être capable d'intégrer sur toute la longueur de la ligne et détecter que la luminosité est légèrement inférieur. Mais, la précision sur la luminosité est qq chose de différent de la résolution.

En refaisant le même calcul avec 30 secondes d'arc, on obtient: 1e-4 radians soit à 30cm, ça fait 3e-5m = 30 micro mètres.

C'est toujours un peu mieux qu'un écran à 300ppp, mais du même ordre de grandeur.

gravatar
Le Hollandais Volant écrit :

@Oli : Que la ligne noire soit juste "visible", je veux bien l’admettre : après tout, on voit bien des poussières minuscules quand on regarde la lumière à contre jour. De là à voir leur forme précise…
Il faut que j’essaye en plaçant un écran à une distance telle que chaque pixel fasse 0,5 seconde d’arc, et ensuite afficher un texte en conservant la résolution native. Je sais que ma vie n’est pas une référence, mais elle me donnera une idée.

Les 30 micro-mètres me semblent déjà bien plus réalistes concernant la séparabilité.

ÉDIT : je viens de faire quelques calculs.
J’ai un écran 4K dont la densité de pixels est 163 ppi. Chaque pixel fait donc 0,15 mm.

Pour qu’une rangée de pixels soit vue sous un angle de 0,5 minutes, je dois me mettre à 1,03 m.
Pour qu’une rangée de pixels soit vue sous un angle de 0,5 secondes d’arc, je dois me mettre à 61,88 mètres (!).

À environ 5 mètres, je vois très bien un trait noir sur fond blanc. Je ne peux pas reculer davantage, mais je pourrais le voir de bien plus loin. De là à le voir à 60 mètres… J’ai comme un doute quand-même.

Si je fais deux traits noirs séparés par un trait blanc (tous faisant 1 px de large), je vois qu’il y a deux traits jusqu’à environ 1 mètre. Au delà, je vois juste un trait gris indiscernable.

gravatar
Oli écrit :

@Timo, J'adore ce genre d'expérience pratique! On peut discourir pendant longtemps sur les capacités théoriques des yeux, mais rien ne vaut une vrai expérience.

Donc pour tes yeux, la séparabilité correspond à: 1m et 163ppp <-> 1m et 6520pixels/m <-> 1.5e-4 radians <-> 30 secondes d'arc <-> 30cm et 543ppp

Pour tes yeux, tu pourrais distinguer 543pixels par pouce à 30cm. Mais bon, regarder un téléphone à 30cm pendant un période prolongée mène à d'autres problèmes: strabisme, myopie.

gravatar
Le Hollandais Volant écrit :

@Oli : totalement : même une expérience "à la louche" donne une bonne idée de quoi on parle :)

Autrement, si je comprends, je suis à un peu moins du double du "retina" (largement au dessus de 10/10, et donc de la moyenne).

On se retrouve dans l'article : 800 dpi, c'est purement commercial. Parfaitement inutile pour les gens avec un œil moyen, et même ceux avec une bonne vue^^

gravatar
unclbarn écrit :

cet article est très intéressant et me viens une question qui n'est pas en lien direct, mais :
combien faut-il de millions de pixels pour qu'un appareil photographique atteignent l'équivalence de la définition de l'œil humain ?

gravatar
Francis 4 écrit :

Bonjour,
tout d'abord merci pour l'article d'une grande qualité mais je tenais à vous dire de faire attention lorsque vous donnez des conseils sur quel écran acheter. En effet, moi même très intéressé par tous les avantages de la technologie OLED, je ne souhaites pas acquérir un écran doté de cette technologie car elle émet beaucoup plus de lumière bleu que les autres technologie d'écran. Je vous laisse vous renseigner sur la dangerosité de la lumière bleue sur notre vision (danger encore plus accrue chez les jeunes).

gravatar
Le Hollandais Volant écrit :

@Francis 4 : Bonjour,
En effet, il semble que les écrans OLED aient une plus importante empreinte au niveau de la lumière bleue.

Il existe cependant des solutions, comme un filtre (logiciel) de couleur rouge : cela rougit légèrement la couleur de l’écran (elle abaisse la température de la lumière émise). Ça réduit la lumière bleue, en particulier la nuit.

Android dispose d’un tel outil nativement, et il existe des filtres comme ça sur Windows aussi et sur les différentes plateformes. Je pense que c’est donc un problème corrigible de façon logiciel.

gravatar
AlxV écrit :

Article extrêmement intéressant et qui est souvent cité dans les discussions dans les forums, donc bravo

Rien à jeter dans tout qui est dit, c'est parfaitement expliqué et, exercice difficile, bien décrit et facile à comprendre. Ce n'est pas le cas de tous les traitement de ce sujet un poil compliqué

Si je peux me permettre une critique qui n'en est pas vraiment une : l'article pourrait être plus détaillé concernant les moniteurs d'ordinateurs.

Le taf est fait, je dis pas, sur les smartphones : il aborde la notion de densité de pixels et le lie à la notion de distance par rapport à l'écran. Sur cette partie, je ne peux qu'envoyer des fleurs tellement c'est bien expliqué. Alors que nombre d'articles sur le sujet écarte la notion de distance, pourtant indispensable, ici elle est présente

Mais l'article fait un peu l'impasse sur la catastrophe que sont les écrans PC.

Dans ce domaine, Apple poursuit son travail de qualité élevée quelle que soit le modèle, quelle que soit la diagonale : 220ppp pour tout le monde
Donc pour 24'', 220ppp c'est une dalle 4K
pour 27'', 220ppp c'est une dalle 5K
pour 32'', 220ppp c'est une dalle 6K
Tout est pris en compte, c'est du sur mesure total pour proposer à l'utilisateur la qualité parfaite dans tous les cas

Le marché PC est différent, et pas dans le bon sens du terme. Car pour afficher plus de 4K, il faut une connectique adaptée (HDMI 2.1, Thunderbolt 3,...) qui n'existe PAS sur la majorité des machines.
Et aucun constructeur d'écran PC ne sortira un modèle qui ne peut pas être relié à la majorité des PC
Donc choix est fait de limiter la définition des dalles à 4K, le maximum de pixels qui peut être pris en compte par la majorité des utilisateurs
Et ce... quelle que soit la diagonale.

Si l'on se réfère à votre excellent article, alors c'est la cata. 27'' en 4K c'est 160ppp. Il vaut mieux être loin, vraiment loin de l'écran dans ces conditions. Mais si on tape dans les diagonales supérieures, c'est encore pire, on arrive à 130ppp pour du 32", autant dire qu'on est pas loin des écran d'il y a 20 ans niveau qualité

Ainsi, même si l'on achète un écran ultra-haut de gamme à la colorimétrie irréprochable sur tous les espaces colorimétrique (Adobe RBG, etc) commes les Nec et Eizo à plus de 4000€ l'écran, on aura un ppp de piètre qualité là où un écran pour Mac comme le LG UltraFine 5K à 1200€ ou le Studio display 5K à 1700€ seront parfait

En gros, sur PC, plus on a un grand écran, plus on a une qualité pourrie

Sur Mac on est parfait dans toutes les conditions ... mais c'est pas les mêmes prix


Votre commentaire sera visible après validation par le webmaster.