Czy zamierzasz kupić ekran LED i nie wiesz, jak ważny jest termin HDR (High Dynamic Range, od angielskiego skrótu)?
Nie martw się, tutaj to wyjaśnimy. HDR to, w skrócie, część Twojego ekranu LED, która odpowiada za dostarczanie scen z bardziej realistycznymi kolorami i wyższym kontrastem.
Kontrast mierzy się różnicą między najjaśniejszymi białymi a najciemniejszymi czerniami, jakie może wyświetlić ekran LED, mierzoną w kandeli na metr kwadratowy (cd/m2): tak zwane NITS.
Istnieje wiele formatów HDR, ale obecnie dwóch głównych graczy: zastrzeżony format Dolby Vision i otwarty standard HDR10. Dolby było pierwsze, które dołączyło do zabawy z prototypem telewizora zdolnym do wyświetlania do 4000 nitów jasności. Przez krótki czas Dolby Vision było zasadniczo synonimem HDR, ale nie wszyscy producenci chcieli przestrzegać zasad Dolby (lub płacić ich opłaty) i wielu zaczęło pracować nad własnymi alternatywami.
Dwa główne formaty HDR używają metadanych, które biegną wzdłuż sygnału wideo przez kabel HDMI, metadanych, które pozwalają źródłowemu wideo „powiedzieć” wyświetlaczowi LED, jak wyświetlać kolory. HDR10 używa dość prostego podejścia: wysyła metadane od razu i na początku filmu, mówiąc coś w stylu: „Ten film jest zakodowany przy użyciu HDR i powinieneś go tak traktować”.
HDR10 stał się bardziej popularny z tych dwóch formatów. Przede wszystkim jest to otwarty standard: producenci ekranów LED mogą go wdrażać za darmo. Jest również zalecany przez UHD Alliance, która generalnie preferuje otwarte standardy w stosunku do zastrzeżonych formatów, takich jak Dolby Vision.