Depuis quelques années, le fabriquant de smartphones Apple vend des appareils avec des écrans qu’il qualifie de « rétina ». L’argument de vente est alors que l’appareil dispose d’un affichage plus beau. D’autres marques utilisent d’autres dénominations : « infinity », « super amoled », etc. pour désigner des produits aux caractéristiques similaires.
À quoi correspond un écran rétina ? Sur quel critère un écran devient-il « rétina » ?
Définition ou résolution ?
Pour commencer, ne confondons pas définition de l’écran et la résolution.
La première correspond à la géométrie de l’écran : 1920x1080 correspond à la définition d’un affichage full-HD. Peu importe si un tel écran mesure 15 cm sur un téléphone ou 105 cm sur une télé : cet écran est full-HD grâce à sa définition. La définition détermine le nombre de pixels total dans l’écran, et donc la quantité d’information portée par l’image que cet écran affiche.
La seconde, la résolution, détermine la densité de pixel : par exemple 326 dpi (pour dot per inch, ou points par pouce, ppp). Cette information détermine le nombre de pixels par unité de longeur (le pouce, donc par 2,54 cm).
L’écran d’un smartphone a une résolution type autour de 320 pixels par pouce. Un écran de télé full-HD qui mesure 50 pouces de large a donc 1920 pixels pour 50 pouces, donc une résolution de 38 ppp.
Ce qui fait qu’un écran est « rétina » c’est la résolution et non la définition. Mais ce n’est pas tout…
Rétina et résolution de l’œil
Un écran est « rétina » quand, en usage normal, un œil humain ne peut pas distinguer les pixels.
Par exemple, en utilisant un smartphone doté d’un écran rétina, la densité de pixels est trop importante pour l’œil : un pixel est si petit qu’il apparaît comme un simple point et non comme un petit carré unitaire de l’image.
L’œil dispose d’une résolution propre (variant un peu d’un individu à l’autre). La résolution de l’œil détermine ce si l’on peut voir quelque chose en fonction de sa taille et sa distance. Pour un œil d’acuité 10/10, un carré de 1 cm n’est vu comme un objet ponctuel qu’à partir de 34,38 mètres. Plus proche, on distingue le carré et la forme, plus loin, on ne voit qu’un point.
Pour revenir à l’écran : il faut donc savoir si le pixel d’une taille donnée est vue comme un point ou comme un carré à « une distance de téléphone ». Et il se trouve que pour l’écran rétina, c’est bien le cas : les pixels sont suffisamment petits pour n’être que des points à une distance de smartphone (Apple a fixé ça à 12 pouces, soit 30 cm) pour un œil standard avec 10/10 (source).
L‘idée des fabricants est donc respectée et l’image affichée est on ne peut plus nette, sans être pixelisée… pour une personne moyenne : chaque personne disposant d’une vue différente, une personne peut parvenir à voir les différents pixels sur un écran rétina s’il a une vue particulièrement bonne.
Mais du coup… On comprend tout de suite que n’importe quel écran peut être « rétina » si on le regarde de suffisamment loin ! Sur une télé de 50 pouces en full-HD, on distingue les pixels si on est juste devant, mais si on s’assoie à 4 mètres, on ne les distingue plus.
L’argument « rétina » n’est donc valable que selon l’usage et la personne.
Pourquoi aller au delà ?
Si un écran avec environ 300 pixels par pouces est qualifié de « rétina » à 30 cm, on peut se demander quel est l’intérêt d’avoir des écrans avec des résolutions plus hautes. Et en effet, on a raison de se poser la question, car il n’y en a pas vraiment.
Certains téléphones ont des écrans 4K sur 5,5 pouces, et une résolution atteignant 801 ppp (source). D’un point de vue pratique, ceci n’est qu’un argument commercial : à part si on tient le téléphone à 10 cm des yeux, ou si l’on dispose d’une vue exceptionnelle, l’image ne sera ni plus jolie ni plus lisse par rapport à un écran avec ~300 ppp.
Un autre argument commercial parfois rencontré concerne la définition. La définition « ultra HD 4K », par exemple, est très à la mode en 2018 : elle contient quatre fois plus de pixels (8 294 400 pixels) que la full-HD (2 073 600 pixels).
Si l’image est effectivement plus précise et donc également plus agréable sur un écran de lecture (moniteur de PC ou écran de tablette ou de liseuse), là où l’on ne se focalise toujours que sur une petite portion de l’écran, la 4K n’est en revanche pas réellement avantageuse sur un écran destiné à regarder des films ou des jeux vidéos.
En effet, quand on regarde un film, l’écran tout entier devient le centre d’attention, et donc le point observé par l’œil. Or, ce dernier ne dispose que de 3~4 millions de cônes, ces cellules sur la rétine au fond de l’œil qui permettent de voir les couleurs !
Au delà de 4 millions de pixels, un œil moyen ne peut donc pas voir tous les détails de l’image. La 4K et ses 8 millions de pixels sont donc un peu mieux que les 2 millions de pixels du full-HD, mais les normes 5K, 8K et tout ce qu’il y a au dessus deviennent inutiles par rapport au 4K, au moins pour ces applications.
Ceci peut cependant être relativisé : l’œil ne voit jamais une image en entier d’un seul coup : tout comme un capteur photo numérique d’ailleurs, l’œil balaye le champ de vision dans un instant très bref et le cerveau reconstitue l’image entière ensuite. On pense alors que l’image finale reconstituée par le cerveau dépasse l’équivalent de 500 millions de pixels.
Mais là encore, il n’est pas certain que ce sont l’équivalent de 500 millions de pixels qui sont captés par l’œil lors de chacun des 30 images par seconde lors d’un film…
De plus, si l’œil dispose de 3 à 4 millions de cônes capables de distinguer les différentes couleurs, les bâtonnets, qui permettent de distinguer la luminosité sont bien plus nombreux : autour de 100 millions ! L’œil est bien plus sensible aux variations de luminosité qu’aux variations de couleurs, ce qui enfonce le clou aux écrans >4K.
Conclusion
Une fois de plus, la connaissance d’un minimum de culture scientifique permet de faire tomber certains arguments commerciaux sur certains produits, et permettre ainsi éventuellement de réaliser des économies (en n’achetant pas forcément le dernier téléphone avec un trillion de pixels, par exemple).
Pour finir, si vous souhaitez réellement avoir un écran meilleur, je ne peux que vous conseiller d’aller vers les écrans de type OLED. Ici, le pixel n’est plus un matériau coloré puis rétro-éclairé, mais une diode auto-éclairante.
L’avantage principal est un contraste d’affichage très élevé : en effet, sur les écrans classiques, les noirs sont des pixels quasi-opaques mais qui restent éclairés. Sur les écrans OLED, les mini-Led sont tout simplement éteints.
Si l’on ajoute à ça que la technologie utilisée en OLED permet des écrans beaucoup plus fins, voire flexibles, on ne doute plus un instant que le futur se situe là. Et même si seuls les modèles de smartphones ou d’écrans haut de gamme (et donc chers) se réservent le luxe de l’affichage OLED, ils seront voués à remplacer tous les écrans dans le futur.
Pensez également à comparer la fidélité de restitution des couleurs à l’écran : un écran super précis peut ne pas rendre les couleurs fidèlement, ce qui peut ternir l’image.
Comme on s’y attends, donc, ce n’est pas forcément la quantité de pixels qui rend ici l’affichage meilleur, mais bien la technologie utilisée.