Passer du Full HD au 4K
Paris, le 10 juin 2019
Quand j'étais petit garçon, je repassais mes leçons devant une télévision noir et blanc, sur un écran cathodique. Et bien des années plus tard, je chassais mes idées noires devant une télévision couleur. Mais avec toujours ce fameux écran cathodique bombé au format 4/3. Et cette télévision m'a duré des années, des années. Tant qu'elle marchait, je refusais de la jeter. Elle vieillissait quand même et les couleurs tiraient vers le vert dans un coin. J'ai fini par la donner à un étudiant sans le sou, loin de chez lui. Et par m'acheter un grand écran plat, 40 pouces - soit 101,6 cm de diagonale - Full HD... Pour moi, ce fut une orgie de pixels et de grand écran.
Et comme le temps s'accélère, je n'ai mis qu'un peu plus de 10 ans à basculer vers la 4K. J'ai évité l'écueil de la 3D, mais voilà que se pointe la 8K. Et pourquoi pas la 16K bientôt ? A quoi rime cette course au pixel et à la haute définition ? Faisons une pause et prenons un peu de recul.
Une histoire de format et de pixels
L'écran cathodique de mon enfance avait une définition standard (en anglais Standard Definition, SD ou 480p), soit 720 pixels x 480 pixels. Les pixels sont les petits carrés qui composent une image (voir photo ci-contre). Plus ils sont nombreux, à taille d'image constante, et plus l'image est détaillée. Détail qui a son importantce, l'écran cathodique avait un format 4/3, nombre qui désigne les proportions de l’image ou de l'écran de télévision. Soit le rapport entre la largeur et la hauteur. 4/3 représente donc 1 cm de hauteur pour 1,33 cm de largeur. Ce format correspond au format historique des films de cinéma muet et a donc été simplement repris par la télévision à sa naissance.
Pour répondre à l’arrivée de la télévision et conserver ses parts de marché, l’industrie du cinéma américaine a eu recours à d'autres formats, plus larges. Ainsi est né le cinémascope avec un ratio de 24/9. Ainsi que les fameuses bandes noires en haut et en bas du petit écran quand on ne retaillait pas le film pour le passer à la télévision. Cette différence de format est simplement dû à une petite guéguerre entre industries et non à une volonté de meilleure qualité ou que sais-je encore.
En parallèle, l'industrie a développé un nouveau format d’image pour mieux s’adapter à la vision humaine et à la diffusion de films, le format 16/9. On a vu certains écrans cathodiques adopter ce format mais ce dernier a vraiment décollé avec l'arrivé des écrans plats (et aux coins vraiment carrés).
-
Les premiers écrans HD accessibles au format 16/9 avaient une définition dite de 720p, correspondant à la norme d'affichage HD Ready (1280 x 720 pixels). Soit une belle arnaque quand même de la part des fabricants, puisque l'image avait une définition de moitié inférieure au vrai HD. On aurait du l'appeler Half HD, mais ce n'est pas très vendeur...
-
Les écrans dit Full HD ont une définition de 1080p (1920 pixels en largeur x 1080 pixels en hauteur)
-
Les écrans 4K ou UHDTV1 (appelée aussi UHD-4K) ont une définition de 2160p (3840 x 2160 pixels), soit 2 fois plus de pixel en hauteur et 2 fois plus en largeur qu'un full HD.
-
Les écrans 8K ou UHDTV2 (appelée aussi UHD-8K) ont une définition de 4320p (7680 x 4320 pixels). soit 2 fois plus de pixel en hauteur et 2 fois plus en largeur qu'un 4K
Certains cinéphiles diront que les écrans 4K et 8K ne sont que UDH et pas vraiment 4K (8K), parce qu'il leur manquent des pixels, mais c'est simplement la guéguerre de format entre cinéma et télévision qui se poursuit. Faisons un petit aparté pour clore ce débat plus qu'inutile.
L’industrie du cinéma numérique a d’abord commencé à travailler en 2K (image filmée avec une résolution de 2048 x 1080 pixels avec un ratio d'environ 17/9 - je dis environ car 2048/1080 ça ne fait pas 17/9 ) puis en 4K avec une image filmée en 4096 x 2160 pixels et un ratio de 17/9. Ce format d’image en 17/9 est ensuite travaillé et recoupé afin d’obtenir le fameux format cinémascope (24/9).
Un écran de télévision 4K a une définition de 3840 pixels en largeur pour 2160 pixels en hauteur. 2160 pixels en hauteur avec un ratio de 16/9 font bien 3 840 pixels en largeur (2 160 * 16/9 = 3 840). Mais le cinéma utilise un ratio de 17,07/9, soit donc 4096 pixels en largeur (2 160 * 17,07/9 = 4 096) ! Notons que cette différence a toujours existé, même en Full HD : le monde du cinéma travaillait en 2K avec une définition de 2048 x 1080p (soit un ratio d'environ 17,07/9 là encore) alors que nos écrans de TV étaient en 1920 x 1080p (16/9). Nous avons donc bien le même nombre de pixels en cinéma 4K ou en télévision 4K, au format prêt. Ouf.
Notons qu'il ne faut pas confondre la définition d'un écran, qui se compte en nombre de pixels, quelle que soit la taille de l'écran et sa résolution qui est le produit du nombre de pixels en hauteur par le nombre de pixel en longueur. Ce qui va varier avec la taille de l'écran, c'est la densité de pixels (DPI ou PPI). Un écran 4K a une résolution de (2160 * 3840) = 8,3 MPixels. Mais la densité de pixel sur un petit écran de 40 pouces sera beaucoup plus importante que sur un écran de 55 pouces.
Maintenant que le nombre de pixels des écrans n'a plus de secrets pour vous, voyons ce qu'a apporté chaque norme (Full HD, 4K, 8K) par rapport à la référence qu'est le SD au format 4/3 de nos télévisions cathodiques.
Les apports du Full HD
Ne revenons pas sur la norme HD Ready, qui n'était là que pour vendre des équipements qui n'étaient pas encore prêts pour le Full HD. Cette dernière norme a permis de passer des 480 pixels de la SD à 1080 pixels, soit 2,25 fois plus de pixels. Et avoir plus de pixels a 2 intérêts majeurs :
-
Avoir une image d'une meilleure définition. A taille d'image identique, la densité de pixel augmente (Pixel per Inch ou PPI). L'image est plus réaliste et plus proche de la vision humaine. Avouons que les images SD que nous pouvons encore visionner piquent les yeux... Notons enfin qu'avec le passage du 4/3 au 16/9, on est aussi plus proche de l'angle de vision humaine. Mais cela n'a rien à voir avec le nombre de pixel à proprement parler.
-
Avoir une taille d'écran plus grande, à distance égale entre le spectateur et l'écran. Si on augmentait la taille de l'écran sans augmenter le nombre de pixels, le spectateur situé à la même distance de l'écran distinguerait les pixels. L'image serait alors dégradée. Ce phénomène tient essentiellement à la résolution de l'oeil humain, c'est à dire la capacité de l’œil à discerner deux points contigus entre eux. imaginez-vous à la plage en train d’observer le sable sur la plage. En regardant de près, vous pouvez facilement en discerner les grains qui la compose. Par contre, plus vous regardez au loin, plus il vous devient difficile, voire impossible, de distinguer chacun des grains. La perception de la résolution tient donc principalement dans la distance.
Les tests menés par Que Choisir sur la distance idéale entre le spectateur et l'écran ont montré que :
-
Pour une même taille d’écran, la distance optimale dépend peu de la résolution d’image (Full HD ou UHD).
-
Le rapport entre la distance optimale et la taille de l’écran est toujours à peu près le même quelle que soit la taille de l’écran. Il est d'environ 2,2 pour le 40" et de 2,3 à 2,7 pour le 55".
-
Grâce à la HD, on a donc pu adopter de plus grands écrans et dire adieu la petite voire minuscule lucarne de l'écran cathodique ! Et avoir ainsi une expérience plus immersive, plus proche de celle du cinéma, tout en ayant des images de meilleure qualité. Que du bonheur. Ou presque. Parce qu'avec la cure de minceur qu'ont suivi les écrans, on a perdu en qualité de son. Il a fallut recourir aux systèmes de home cinéma (comme ci-dessous) ou aux barres de son pour retrouver un vrai son.
En 2004, la taille moyenne des écrans cathodiques était de 27 pouces. En 2014, la taille moyenne des écrans plats étaient de 37 pouces. En 2015, elle était de 40 pouces et de 45 pouces en 2018 (source statista.com). On devrait atteindre les 50 pouces (en moyenne) en 2022. Mais peut-on réellement aller au delà ? Sachant que dans le même temps, la surface moyenne de nos logements à tendance à se réduire comme peau de chagrin...Bien sûr que non. Car plus votre écran est grand, plus il vous faut du recul pour englober la totalité de l'image. Vous ne regardez pas l'écran de 6 pouces de votre smartphone à la même distance que votre télévision de 55 pouces, non ? Sans parler de l'effet désastreux d'un écran trop grand dans une pièce trop petite...
Mais il n'y a pas que la taille qui joue ! Le 1080p a permis d’offrir aux consommateurs une solution enfin conforme aux formats du cinéma (j'exclue la période du cinéma muet où il n'y avait pas de télévision), de la production au visionnage. Les masters des films et séries étant en 2K (2048 x 1080p), il suffisait de couper un peu les bords à droite et à gauche pour faire un film qui soit adapté aux téléviseurs Full HD (1920 x 1080 pixels) avec un résultat optimal sans traitement de l'image (mise à l'échelle). Le blu-ray, média physique du Full HD, s’est ainsi popularisé très naturellement, après le DVD qui lui était au format SD et donc dégradé par rapport au format 2K du cinéma.
Les apports de la 4K
La 4K apporte 2 fois plus de pixels que le Full HD, tant dans la hauteur que dans la largeur. Soit 4 fois plus de pixels en tout...Ce qui permet encore une fois d'améliorer et qualité de l'image et taille de l'écran. On peut donc passer à des tailles de l'ordre de 55 à 77 pouces en passant par les 65 pouces. D'ailleurs ne cherchez pas de téléviseur 4K d'une taille inférieur à 55 pouces. Cela n'existe pas car cela n'a pas d'intérêt. A 40 pouces, vous ne verrez pas de différence entre un Full HD et une 4K. Et avec un 55 pouces, la différence ne sera pas fulgurante.
Mais comme je l'ai dit, la course à la taille a ses limites, celles de nos salons. Alors est-ce vraiment si intéressant que cela de passer à la 4K ? En soi pas tellement, mais il y a plusieurs choses qui peuvent vous faire craquer :
-
Le HDR ou High Dynamic Range : C'est l'apport n°1 de la 4K. Le HDR permet d'afficher une image avec des écarts de luminosité plus marqués entre sa partie la plus sombre et sa partie la plus claire qu'avec les téléviseurs standards (SDR). Et comme l’œil humain est extrêmement sensible aux variations d'intensité lumineuses, le résultat à l'image est immédiatement perceptible : on observe grâce au HDR un contraste intra-image plus important, plus de gradation dans l'échelle de luminosité, donc également dans les couleurs, et plus de détails visibles dans les parties les plus lumineuses comme dans les parties les plus obscures de l'image.
Le SDR, utilisé par le Full HD notamment, est calé sur la limite physique du tube cathodique. Il utilisait un codage couleurs sur 8 bits, soit 256 valeurs possibles, couvrant environ 35% du spectre visible par l’œil humain (soit pas grand chose au final). Alors que le HDR s'approche de la sensibilité réelle de l’œil humain au contraste et autorise une large plage de luminance. Techniquement, la norme HDR impose une profondeur de couleurs codée sur 10 bits minimum, un espace colorimétrique ayant capacité à afficher 90% ou plus de l'espace colorimétrique DCI-P3 (espace colorimétrique utilisé pour le cinéma numérique, couvrant environ 85% du spectre visible par l’œil humain) et une luminosité maximale d'au moins 1000 cd/m² avec un niveau de noir inférieur ou égal à 0,05 cd/m² pour les téléviseurs LED ou une luminosité maximale d'au moins 540 cd/m² avec un niveau de noir inférieur ou égal à 0,0005 cd/m² pour les téléviseurs OLED (norme SMTPE ST2084 EOTF).
Le HDR se décline en :
-
HDR10 (standard ouvert, libre de droit, appelé HDR 10 parce qu'il utilise une échelle de quantification des couleurs sur 10 bits).
-
HDR HLG (Hybrid Log Gamma) pour la diffusion du streaming en 4K développé conjointement par la BBC et la NHK.
-
Dolby Vision : Dolby Vision est une norme propriétaire et une version amélioré du HDR, permettant de définir le HDR frame par frame et non plus pour tout le film. Elle propose une quantification sur 12 bits des couleurs (soit 1024 possibilités). C'est une contrainte pour toute la chaîne de production et de diffusion de l'image, mais c'est ce qui garantit que l'affichage final sera véritablement conforme à l'originale voulue par le réalisateur; C'est un complément naturel du Dolby Atmos (son 3D).
-
HDR10+ : Standard développé par l'UHD Alliance pour concurrencer le Dolby Vision et qui a l'avantage d'être gratuit alors que le Dolby Vision est payant. Comme ce dernier, le standard HDR10+ exploite des métadonnées dynamiques intégrées au flux vidéo pour que le diffuseur compatible (TV, vidéoprojecteur) puisse en optimiser l'affichage, scène par scène. Ce standard ouvert est soutenu notamment par la 20th Century Fox, Panasonic Corporation et Samsung.
-
HDR Pro ; ce n'est pas un label ni une norme. Il est censé être supérieur au SDR, mais de combien, personne ne le sait...
-
-
Les technologies LED et OLED. Ces technologies ne sont pas propres à la 4K mais si vous aviez un vieil écran LCD (Liquid-Crystal Display) ou un écran Plasma très énergivore, vous pourriez être tenté d'adopter l'OLED (Organic Light Emitting Diode).
Sur une ancienne TV LCD, les cristaux liquides étaient illuminés par des tubes fluorescents situés à l'arrière de l'écran. Sur les TV LED, les cristaux liquides sont toujours présents mais sont illuminés par des diodes électroluminescentes (LED). Cela permet de diminuer l’épaisseur de l'écran, son poids, d’apporter des meilleurs niveaux de contrastes, des couleurs plus riches, des noirs plus profonds, et aussi de diminuer la consommation d’électricité. A l’inverse d’une TV LED, sur une TV OLED, chaque pixel va produire sa propre lumière pour générer l’image. Cela permet ainsi d'atteindre un niveau de noir sans égal (il est possible d’éteindre complètement le pixel) et donc des niveaux de contrastes très élevés, d'éviter le phénomène de « clouding » que l’on voit fréquemment sur les TV LED (le clouding est dû au rétroéclairage des LED qui n’est pas uniforme sur la dalle, provoquant des « nuages » gris sur les images sombres), d'avoir un angle de vision étendu et un très bon temps de réponse (on parle de 0.1 ms de temps de réponse contre 2 ms pour les meilleures TV LED). Enfin, la technologie OLED permet de réduire encore l’épaisseur de l’écran (se réduisant ainsi à seulement quelques mm d’épaisseur comme sur la LG Signature), et de diminuer toujours plus la consommation électrique.
Seul défaut à l'OLED, le risque de burn-in. Sur l’OLED, chaque pixel est indépendant et génère sa propre lumière. Dans le cadre d'une utilisation normale, les pixels vont s’user de manière à peu près homogène dans le temps. Mais en cas d’image fixe (comme le logo de la chaîne si vous n'en regardez qu'une par exemple), certains pixels vont s’user plus rapidement que d’autres. Ils n’ont alors plus le même niveau de luminosité, ce qui provoque un marquage de l’image.
Quant à la technologie QLED (Quantum-LED), ce n'est juste qu'une technologie LED de plus contrairement à ce qu'affirme Samsung, c'est à dire un système de rétroéclairage Edge-LED, avec tous ses inconvénients. La seule nouveauté est l'adoption d'un filtre Quantum-Dot plus perfectionné qui permet d'étendre l'espace colorimétrique pour afficher 100 % du spectre colorimétrique DCI-P3 et d'améliorer le rendement du système de rétroéclairage afin d'atteindre un pic lumineux plus élevé. Et c'est une technologie plus simple à maîtriser que l'OLED (que seul LG arrive à fabriquer à l'échelle industriel en ce qui concerne les grands écrans) et donc moins coûteux.
-
Le design de l'écran. L’écran incurvé n’améliore en rien la qualité d’image et peut même s’avérer gênant à cause des réflexions qu’il génère. Mais si vous aimez son design, pourquoi pas. Plus révolutionnaire, vous trouverez maintenant des téléviseurs ultra plats, avec processeur, haut-parleurs et connectique séparés de l'écran comme le LG Signature, ou le LG Signature OLED TV R, dont l'écran s'enroule pour se faire discret. Bien sûr ces technologies sont encore hors de prix et sont encore réservées à une portion congrue de personnes.
Le contenu suit-il ?
C'est bien beau d'avoir un écran 4K, encore faut-il que le contenu suive, qu'on puisse en profiter. Même si les capacités de mise à l'échelle (upscale) des écrans ont bien progressé (plus vite que ceux des amplificateurs audio-vidéo), pour profiter du 4K et de son apport principal, le HDR, il faut des sources 4K natives incluant le HDR. Jouer un blu-ray Full HD sur un écran 4K vous apportera une belle image, mais sans HDR.
Seuls les blu-ray UHD-4K (les vrais, gravés avec un master 4K et non 2K) vous procureront ce plaisir, avec un débit constant que ne vous permettra pas le streaming par exemple et qui est souvent nécessaire au HDR. Le bitrate d'un blu-ay 4K est en moyenne de 60 à 70Mbps (certains sont à 50, d’autres à 90 Mbps). Contre 30 à 40 Mbps pour un Full HD. Encore faut-il disposer d'un lecteur blu-ray 4K. La vente des médias physiques étant en chute libre, le nombre de constructeurs de bons lecteurs se fait rare. Mais j'aurais l'occasion d'y revenir dans un autre article.
Notons que si le 4K se généralise dans les films, le 2K est encore malheureusement de mise dans beaucoup d'effets spéciaux (appelés VFX dans le monde du cinéma, ou trucages pour les non-initiés). Ce qui fait que les effets spéciaux se verront beaucoup plus sur une télévision 4K ou 8K que sur une Full HD bien mieux adaptée au 2K. Car la 4K est impitoyable : on voit mieux les détails et donc les trucages aussi...Et pour distinguer un blu-ray 4K authentique d'un ersatz, certains sites comme senscritique vous indiqueront s'il s'agit d'un blu-ray avec master 4K ou pas. Pratique pour éviter de surpayer un disque pas vraiment 4K.
Quant à la télévision, si la TNT ne prévoit pas de diffuser de la 4K avant 2020, vous pouvez d'ors et déjà disposer de certaines émissions en 4K grâce à votre box TV. Il faut bien sûr disposer de la fibre et d'une box compatible (Orange, Free, SFR et Bouygues en proposent tous une). Sachez toutefois que seules quelques chaînes diffusent en 4K à ce jour : TF1, Canal+, OCS, Eurosport...Pour que toutes les chaînes s'y mettent, il faudra encore patienter.
Il existe aussi quelques rares sources de streaming émettant partiellement en 4K comme Youtube, OCS (Orange Cinéma Séries), Amazon Prime Video ou Netflix, qui supporte le HDR10 et le Dolby Vision. Encore faut-il disposer du bon abonnement Netflix (celui à 4 écrans qui permet d'avoir 4 écrans HD ou un écran 4K) et d'une liaison par fibre optique. Mais quand on regarde les débits affichés par Netflix, on déchante un peu : la 4K utilise des débits allant de 7 Mbps à 12 Mbps et la 4K HDR des débits de 9 Mbps à 15 Mbps selon les programmes. Le codec utilisé par Netflix, le HEVC, est toutefois presque 2 fois plus efficient que le codec des « anciens » bluray Full HD. On peut donc comparer les 15Mbps du 4K HDR de de Netflix aux 30 Mbps et à la qualité d’un blu-ray en 1080p. Aie oui ! un streaming 4K HDR équivaut peu ou prou à une qualité Full HD d'un blu-ray, le HDR en plus. On est encore loin du 4K HDR+.
Et la 8K ?
La 8K apporte 2 fois plus de pixels que la 4K, tant dans la hauteur que dans la largeur. Ce qui permet encore une fois d'améliorer et qualité de l'image et taille de l'écran... En 65 pouces et en deçà, la différence entre la 4K et la 8K ne se ressent pas, : à supposer que vous ayez un contenu 8K à afficher, pour une télévision de 50 pouces, il vous faudra vous asseoir à 60 centimètres ou moins de l’écran pour en voir les détails en pleine résolution. Mais à 60 cm, vous ne voyez évidemment plus l'image en entier. Il vous faudrait plutôt être à 2,5 m...
La 8K est bien plutôt destinée à des tailles d'écran allant de 77 pouces et au-delà....c'est à dire pour un marché de professionnels plus que de particuliers. Mais contrairement à la 4K qui apportait le HDR avec elle, le 8K n'apporte rien de plus que sa multiplication de pixels. Pire, elle pourrait ne pas supporter le HDR, les débits nécessaires à sa diffusion étant à ce jour inaccessibles.
En conclusion
Si la 4K a indéniablement apportée son lot d'innovations et d'améliorations, la 8K nous laisse à ce jour un peu dubitatif. N'aura-t-on droit qu'à une simple augmentation de pixels, un peu comme le faisaient les appareils photos numériques avant l'avènement des appareils hybrides qui ont secoué le marché ? Ou à de véritables innovations ? Seul l'avenir nous le dira. En attendant, la 4K suffira simplement au bonheur des plus nombreux, que ce soit grâce au streaming et son succédané de 4K, à la future TNT UHD ou aux rares blu-ray UHD-4K qui font encore figurent de derniers résistants face à la dématérialisation inéluctable. Mais qui disparaîtront un jour ou l'autre comme les SACD...