Kult obrazu

Fot. Piotr Sokołowski
Rozdzielczość 4K to nie to samo, co UHD. Standard HDR sprawia, że filmy wyglądają fantastycznie, ale to nie żaden standard, tylko kilka różnych technologii. W dodatku wcale nie jest łatwo znaleźć film nagrany tak, żeby móc skorzystać ze wszystkich tych możliwości. Zagubiony? Przeczytaj!

Bogata kolorystyka, duże kontrasty, imponująca szczegółowość. Każda wizyta w sklepie z telewizorami dostarcza wrażeń nieporównywalnie lepszych od tych sprzed kilku lat. Dziś nawet średniej klasy telewizor 4K/UHD oferuje znacznie lepszy obraz, niż model klasy premium sprzed sześciu-siedmiu lat.

Każdy kto zastanawia się nad kupnem nowego telewizora i podniesieniem jakości oglądanych filmów, seriali czy programów telewizyjnych we własnym domu, zwraca zwykle uwagę przede wszystkim na rozdzielczość 4K/Ultra HD. Owszem, Ultra HD to czterokrotnie więcej pikseli niż w przypadku Full HD, więc naturalne, że obraz w wyższej rozdzielczości będzie bardziej szczegółowy – oczywiście pod warunkiem, że dysponujemy odpowiednim źródłem, czyli materiałem dostosowanym do tak wysokiej rozdzielczości.

Mimo to, w rzeczywistości sama rozdzielczość ma mniejszy wpływ na jakość obrazu niż mogłoby się wydawać. Nie decyduje ona o kolorach, wyższym kontraście, płynnych przejściach tonalnych i innych efektach podnoszących jakość obrazu. Wszystko to stanowi rezultat stale ulepszanych algorytmów optymalizacji obrazu, jakie wbudowywane są w elektronikę telewizorów. Wyższa głębia bitowa (czyli opisywanie barw podstawowych za pomocą większej liczby bitów) czy HDR to techniki zauważalnie podnoszące jakość oglądanego obrazu. Pytanie tylko czym tak naprawdę jest HDR? O co w nim chodzi, jakie są różne metody optymalizacji tą techniką? Zacznijmy jednak od rozdzielczości.

Wysoka rozdzielczość – jaki ma naprawdę wpływ?

Pojęcia „4K” oraz „UHD” lub „Ultra HD” są często używane zamiennie w tym samym kontekście, jednak technicznie rzecz biorąc rozdzielczość 4K odnosi się również do starszego standardu obrazu znanego z kinematografii profesjonalnej. Standard ten zdefiniowany przez DCI (Digital Cinema Initiative) określa nie tylko rozdzielczość, która dla właściwego 4K, czy też 4K DCI wynosi 4096 x 2160 pikseli, ale również kompresję, szybkość transmisji czy głębię koloru. Standard 4K DCI wywodzi się z jeszcze starszych standardów 2K charakteryzujących się rozdzielczością 2048 x 1080 pikseli). Łatwo zauważyć, że tak jak 2K jest rozdzielczością wyższą od najpopularniejszego dziś Full HD (1920 x 1080 pikseli), tak samo 4K DCI ma nieznacznie wyższą rozdzielczość niż telewizory UHD (3840 x 2160 pikseli). Właśnie pod nazwą UHD (Ultra HD) kryje się oficjalny standard rozdzielczości ekranów TV i monitorów, następca 1080p Full HD. Warto pamiętać o tym, że mimo tego, iż bardzo wiele telewizorów jest reklamowanych jako 4K, to tak naprawdę większość z nich jest telewizorami Ultra HD. Producenci mieszają oba pojęcia uznając, że różnica jest na tyle niewielka, że konsument jej nie dostrzeże. Telewizorów, które faktycznie są w stanie wyświetlić obraz 4K zgodny 4K DCI jest bardzo niewiele. W zasadzie taką rozdzielczość mają monitory studyjne używane na planach zdjęciowych. Konsumentom zostaje wybór pomiędzy różnymi modelami telewizorów Ultra HD.

schemat rozdzielczości

Różnice pomiędzy rozdzielczościami dostępnych dziś filmów (rys. CHIP)

Jak wcześniej wspomnieliśmy, wysoka rozdzielczość Ultra HD jest tylko częściowo odpowiedzialna za jakość obrazu. Najbardziej dostrzegamy różnice pomiędzy rozdzielczościami Full HD i Ultra HD wtedy, gdy mamy możliwość porównania z bliskiej odległości takich samych materiałów wyświetlanych w obu rozdzielczościach. Tymczasem raczej nigdzie nie ma takiej sytuacji, gdy przed – na przykład – 50-calowym telewizorze siedzimy w odległości mniejszej niż metr. Zwykle pomiędzy widzem a ekranem odległości wynosi 2-3 lub więcej metrów.

Kluczowa jest jakość materiałów wideo. Profesjonalnie zmasterowany film na płycie Blu-ray może okazać się znacznie lepiej wyglądający niż film w rozdzielczości UHD przesyłany strumieniowo z Sieci przy przesadnej kompresji danych. Zwłaszcza, że algorytmy interpolacji czy też raczej upscalingu stosowane we współczesnych telewizorach Ultra HD znacznie lepiej poradzą sobie z optymalizacją obrazu Full HD z dobrej jakości źródła (Blu-ray). W efekcie mamy sytuację, w której obraz w niższej rozdzielczości prezentuje się lepiej od obrazu w wyższej rozdzielczości. Trudno o lepszy dowód twierdzenia, że „rozdzielczość to jednak nie wszystko”. Co zatem przyczynia się do efektu „Wow!” gdy oglądamy nowe modele telewizorów w profesjonalnych salonach RTV? Odpowiedź: HDR.

HDR – zobaczyć więcej

W największym skrócie: HDR (High Dynamic Range) to obraz o większej jasności, lepszym kontraście i lepszych kolorach. Fajnie, ale to za mało. Bardziej szczegółowo, HDR jest to technika optymalizacji obrazu, by tenże obraz charakteryzował się zakresem luminancji porównywalnym z tym, jakiego doświadcza człowiek patrzący na naturalny (a nie generowany na ekranie) obraz rzeczywistości. W tym kontekście zakres luminancji należy rozumieć jako stosunek najjaśniejszego punktu do najciemniejszego. Nasz zmysł wzroku pozwala nam dojrzeć szczegóły zarówno w bardzo jasny, słoneczny dzień, jak i po zapadnięciu zmroku. Ludzki wzrok doskonale radzi sobie z wyławianiem szczegółów obrazu o bardzo szerokiej rozpiętości luminancji. Na przykład patrząc na drzewo, zza którego, spomiędzy liści przebijają się promienie słońca, człowiek jest w stanie dojrzeć szczegóły znajdujące się po spodniej, ocienionej stronie liści. W erze kinematografii sprzed HDR uzyskanie obrazu o porównywalnym zakresie dynamiki (luminancji) było, może nie niemożliwe, ale niezwykle trudne. Jeszcze do niedawna żadne urządzenie sztucznie generujące obraz nie było w stanie choćby zbliżyć się do szerokiego zakresu dynamiki tonalnej właściwej dla ludzkiego wzroku. Obecnie się to zmienia, głównie właśnie za pomocą techniki HDR.

HDR znajduje zastosowanie nie tylko w filmach, z tej techniki ulepszania obrazu korzystają również gry. Warto zaznaczyć, że termin HDR odnosi się do ogólnych zasad tej techniki, ale gdy mowa o praktycznych zastosowaniach to na rynku możemy spotkać różne metody jej implementacji. Mamy więc HDR10, Dolby Vision, Advanced HDR czy opracowany przez BBC i NHK (jeden z japońskich operatorów telewizyjnych) format HLG (Hybrid-Log Gamma) HDR. Każda z tych metod ma swoje zalety i wady. Nieformalnym (nigdy dotąd takiego nie ogłoszono) standardem HDR jest HDR10. To najczęściej spotykana metoda implementacji techniki HDR w telewizorach UHD czy odtwarzaczach UHD Blu-ray. Oprócz telewizorów i odtwarzaczy Blu-ray, z obsługą HDR10 radzą sobie również konsole do gier, m.in. PS4 Pro czy Xbox One S.

Każde urządzenie multimedialne oznaczone widocznym powyżej logo jest zdolne do odtwarzania obrazu zgodnie z HDR10.

HDR10 został opracowany przez firmy Samsung i Sony jako niedrogie, otwarte rozwiązanie. Konkurencyjnym dla HDR10 „standardem” jest Dolby Vision (celowo użyliśmy słowa „standard” w cudzysłowie, ponieważ formalnie nie istnieje żaden standard HDR). Zaletą Dolby Vision jest przede wszystkim to, że w przypadku oglądania filmu przygotowanego zgodnie z wymogami tej techniki, każda klatka filmu jest dynamicznie optymalizowana pod kątem zakresu luminancji. To spora różnica w stosunku do HDR10, w którym zakres dynamiki jest statyczny dla całego filmu. Niestety Dolby Vision nie jest formatem otwartym. Wymaga on po pierwsze dedykowanych układów dekodujących w urządzeniu, które ma być zgodne z Dolby Vision, a po drugie wymaga opłat licencyjnych, które z oczywistych względów są w końcowym etapie przerzucane na konsumenta/nabywcę telewizora z Dolby Vision. Kolejna różnica to kodowanie koloru. W przypadku HDR10 każdy podstawowy kanał barwny jest kodowany za pomocą 10 bitów. W przypadku Dolby Vision jest to 12 bitów na kanał barwny. W chwili obecnej mamy wśród urządzeń multimedialnych taką sytuację, że HDR10 jest najpopularniejszym rozwiązaniem, natomiast Dolby Vision spotyka się w sprzęcie klasy premium, przeznaczonym dla miłośników kina domowego, dodajmy – zamożnych pasjonatów kina w domu. Co więcej Dolby Vision jest „zgodny w dół” z HDR10. Oznacza to, że każdy sprzęt z Dolby Vision odtworzy również materiał zgodny z HDR10, gdyż Dolby Vision zapewnia obsługę podstawowych funkcji HDR10.

kadr z HDR i bez HDR

Przykładowy kadr filmu bez HDR (z lewej strony) i z HDR (po prawej). Oczywiście ilustracja jest poglądowa, niemniej pokazuje istotne różnice pomiędzy przekazem bez szerszej dynamiki tonalnej i z nią. (fot. CHIP)

Sytuacja ta może się skomplikować wraz z wprowadzeniem forsowanego przez Samsunga formatu HDR10+. W przypadku HDR10+ metadane skorelowane z zakresem dynamiki tonalnej nie są statyczne jak w HDR10, lecz generowane dynamicznie – podobnie jak w przypadku Dolby Vision. Ponadto HDR10+ potrafi także poprawiać jakość obrazu Full HD, a nie tylko Ultra HD. Dzięki temu HDR10+ niweluje dotychczasową przewagę Dolby Vision nad HDR10, ale… komplikuje życie konsumentom, ze względu na niezgodność pomiędzy obydwoma rozwiązaniami. Niemniej wydaje się, że HDR10+ ma pewną przewagę, polega ona przede wszystkim na tym, że HDR10+ nie jest dostępny wyłącznie dla nowych urządzeń. HDR10+ wymaga HDMI 2.0b, czyli innymi słowy w większości przypadków wystarczy aktualizacja oprogramowania wewnętrznego urządzenia – nie jest wymagany nowy sprzęt, ani żaden dodatkowy moduł podłączany do telewizora. Każdy posiadacz sprzętu z logo UltraHD Premium powinien również mieć dostęp do HDR10+. Pojawiają się już także tytuły przygotowane z myślą o HDR10+. W lipcu filmy HDR10+ pojawiły się w serwisie Amazon.

Ciekawym pomysłem jest wspomniany wcześniej HLG HDR. Pomysłodawcy tego standardu zauważyli, że optymalizacja strumienia wideo HDR wymaga odpowiednich metadanych dopasowanych do treści. Metadane – jak dane obrazu czy dźwięku – zajmują miejsce i przepustowość łącza, co może stanowić problem w przypadku ograniczonej przepustowości sieci. HLG jest systemem HDR przygotowanym specjalnie z myślą o tradycyjnych nadawcach telewizyjnych. Metadane HDR są w tym przypadku przesyłane tą samą drogą co tradycyjny sygnał telewizyjny, a optymalizacja HDR nie jest ani statyczna (jak w HDR10), ani poklatkowa (jak Dolby Vision) lecz metadane opisują kolejne sceny. HLG HDR jest zdefiniowany w specyfikacji HDMI 2.0b i może być wykorzystywany również przez operatorów online (takich jak np. Netflix czy Amazon), a nie tylko tradycyjnych operatorów telewizyjnych. Więcej szczegółów na temat HLG HDR można znaleźć na stronach serwisu internetowego BBC.

4K Ultra HD Blu-ray: media i odtwarzacze

Teoretycznie dostęp do treści HDR i 4K można uzyskać za pośrednictwem internetu. Jednak bardzo wysoka rozdzielczość oraz dodatkowe pasmo wymagane przez metadane oznacza, że jedynie nieliczni dysponują wystarczającą przepustowością sieci by bez przeszkód oglądać strumienie bardzo wysokiej jakości filmów wprost w Sieci. Dla pozostałych najlepszym dostępnym wyborem na rynku – przy założeniu, że interesuje nas przede wszystkim jakość – są filmy dystrybuowane na płytach 4K Ultra HD Blu-ray.

Film Marsjanin na Blu-ray Ultra HD 4K

Masz kiepski internet, a zależy Ci na jakości HDR? Pozostają Ci płyty 4K Ultra HD Blu-ray z HDR.

Choć najlepszym nośnikiem offline – w sensie jakości dystrybuowanych materiałów – pozostaje specjalne wydanie płyty Blu-ray, trzeba pamiętać, że filmy oznaczone jako zgodne z HDR, są – w przypadku płyt Ultra HD Blu-ray – zgodne tylko z formatem HDR10. Oznacza to, że metadane wskazujące algorytmom HDR sposób optymalizacji obrazu są statyczne. Po drugie płyty 4K Ultra HD Blu-ray z filmami są drogie. Ceny pojedynczych tytułów wahają się od ok. 120 do nawet 220 zł, a w przypadku wydań zbiorczych (np. Trylogia „Władca Pierścieni” itp.) kwota jest oczywiście jeszcze wyższa. Co prawda na rynku można znaleźć płyty 4K Ultra HD Blu-ray w cenie poniżej 100 zł, ale są to najczęściej albo produkcje nie pochodzące z głównego nurtu, albo po prostu filmy demonstracyjne. Nie należy również nabierać się na filmy na płytach Blu-ray oznaczone hasłem „Mastered in 4K”. Taki slogan absolutnie nie oznacza, że dany film jest w rozdzielczości Ultra HD, jest to zwykły film Full HD.

Samsung UBD-K8500 odtwarzacz blu-ray

Samsung UBD-K8500, najtańszy odtwarzacz 4K Ultra HD Blu-ray na naszym rynku. Kosztuje tyle co… kilka filmów (fot. CHIP)

Ponadto nawet wybierając filmy z puli 4K Ultra HD Blu-ray, zwracajmy uwagę na oznaczenie HDR. Jeżeli na opakowaniu nie ma informacji o HDR, stosowne metadane najprawdopodobniej nie zostały dodane do konkretnego tytułu. Ponadto chcąc oglądać filmy z takich płyt musimy dysponować również odpowiednim sprzętem. Poniżej lista pięciu modeli odtwarzaczy zdolnych do odtwarzania płyt 4K Ultra HD Blu-ray z HDR10:

  • LG UP970 – cena: 1499 zł
  • Oppo UDP-203 – cena: 3825 zł
  • Panasonic DMP-UB704EGK – cena: 1744 zł
  • Samsung UBD-K8500 – cena: 1100 zł
  • Sony UBP-X800 – cena: 1599 zł.

Ciekawostką jest fakt, że dwa pierwsze urządzenia wymienione na powyższej liście zgodne są również z Dolby Vision, jednak podaż płyt 4K Ultra HD Blu-ray z filmami z Dolby Vision jest wręcz znikoma. Niestety, ale pasjonaci domowego kina w najwyższej możliwej do osiągnięcia w domu jakości, tak naprawdę… nie mają z czego wybierać. Oczywiście każdy z wymienionych odtwarzaczy pozwala oglądać „zwykłe” filmy Blu-ray (których jest sporo), a także korzystać ze strumieniowych usług takich jak Netflix i inni. Urządzenia są wyposażone w interfejs sieciowy i stosowne aplikacje.

A może na komputerze PC?

Osoby, które chciałyby oglądać płyty 4K Ultra HD Blu-ray na komputerze mogą napotkać poważne problemy. Co prawda kwestię oprogramowania rozwiązuje firma Cyberlink, której program PowerDVD 17 radzi sobie z odtwarzaniem danych z najnowszych płyt 4K Ultra HD Blu-ray.

Ekran startowy programu Cyberlink PowerDVD 17

Odtwarzacz PowerDVD 17 poradzi sobie z płytami Blu-ray 4K Ultra HD z HDR – o ile tylko dysponujemy odpowiednimi komponentami komputera (fot. CHIP)

Kłopot jednak polega na tym, że cały łańcuch przekazywania danych z nośnika do programu musi być zgodny z nowym standardem ochrony antypirackiej AACS 2.0. Ponadto aby odtwarzanie przebiegało płynnie komputer musi być odpowiednio wyposażony – inaczej, dysponować odpowiednią wydajnością. Czego zatem potrzebujemy? Na początek system Windows 10 (64 bit), zainstalowany na komputerze pracującym pod kontrolą CPU klasy Intel Caby Lake oraz płyta główna z oprogramowaniem SGX (Software Guard Extension) Intela. Niezbędna jest również karta graficzna, która poradzi sobie z 4K. Paradoksalnie lepszym – w sensie kompatybilności – rozwiązaniem jest zintegrowane GPU Intela niż odrębne karty graficzne AMD lub Nvidii. Monitor (lub telewizor) musi być zgodny z HDCP 2.2, a połączenie z komputerem musi być realizowane poprzez HDMI 2.0.

pioneer_BDR-S11J-BK

Odtwarzacz płyt Blu-ray Pioneer BDR-S11J-BK jest zgodny z antypirackimi zabezpieczeniami AACS 2.0. Szkoda tylko, że jest dostępny póki co (oficjalnie) tylko w Japonii (fot. CHIP)

I tutaj napotykamy na najpoważniejszą przeszkodę: napędy Blu-ray obsługujące AACS 2.0 są obecnie dostępne tylko w Japonii, co prawda jeszcze w tym roku (niektórzy mówią nawet że latem) mają trafić do Europy. Tyle wysiłku by nie tylko uzyskać wysoką jakość z oryginalnego, legalnego nośnika, ale przede wszystkim by sprostać antypirackiej technologii. Wydaje się, że ochrona przed kopiowaniem w tym przypadku uderza przede wszystkim w konsumenta.

Netflix i Amazon – strumienie w 4K

Zarówno Amazon jak i Netflix oferuje całkiem sporą liczbę tytułów dystrybuowanych strumieniowo również w rozdzielczości 4K Ultra HD. Co więcej, niektóre filmy są dostępne również z techniką HDR. Trzeba tylko pamiętać, że dostęp do treści w najlepszej jakości w Netfliksie otrzymają abonenci, którzy zdecydują się na najdroższy wariant usługi.

netflix plany taryfowe

Możliwość oglądania filmów i seriali 4K via Netflix wymaga skorzystania z najdroższego planu taryfowego usługi (fot. CHIP)

Jednak nawet, gdy się zdecydujemy na wydatek rzędu 52 zł miesięcznie za treści strumieniowe w najwyższej rozdzielczości musimy spełnić jeszcze jeden warunek – przepustowość sieci nie mniejsza niż 25 Mbit/s. Mamy też dobrą i złą wiadomość. Netflix oferuje również treści z HDR, ale stosowna opcja dotycząca tej techniki pojawi się w interfejs aplikacji Netflix (na monitorze lub na telewizorze) tylko i wyłącznie wtedy, gdy posiadany przez użytkownika sprzęt (oraz oczywiście plan taryfowy – musi być najdroższy) spełniają wymagania jakościowe.

HDR z Netfliksa

Serial z Netflixa, o rozdzielczości 4K i z Dolby Vision. Wymaga to najdroższego abonamentu i odpowiedniego sprzętu (fot. CHIP)

W przypadku Amazona sprawa jest o tyle skomplikowana, że Amazon wciąż opiera się integracji swoich usług z polskim rynkiem. Formalnie Amazon oferuje klientom rynków, na których działa filmy 4K, również z HDR, ale w Polsce Amazon nie działa tak jak w Stanach Zjednoczonych, Wielkiej Brytanii, czy w Niemczech. Dlatego w poszukiwaniu jak najwyższej jakości lepiej poczekać na to, aż Amazon w końcu zdecyduje się do nas zawitać tak jak powinien.

4K z satelity

Dobrym źródłem informacji o kanałach satelitarnych nadających obraz w Ultra HD jest witryna KingOfSat, a w szczególności umieszczona na niej strona z tabelą aktualnych parametrów wszystkich satelitarnych stacji UHD na wszystkich dostępnych nad naszym rejonem satelitach. Większość spośród 31 kanałów UHD dostępnych w przekazie satelitarnym to programy stanowiące przekaz demonstracyjny lub prezentacje. Co prawda jest kilka wyjątków, jak np. francuski kanał muzyczny Clubbing TV 4K 360, czy sportowe Sky Sport UHD oraz Sky Sport Bundesliga UHD. O ile wymieniony kanał muzyczny to transmisja FTA (Free-To-Air – w paśmie niekodowanym) to sportowe kanały UHD Sky Sport są już zaszyfrowane.

Tutaj ponownie jednak mamy pewne warunki, które należy spełnić. Sama podaż stacji jest wciąż niewielka (przypomnijmy – zaledwie 31), ponadto odbiornik satelitarny musi dekodować HEVC (H.265) i być zgodnym z HDMI 2.0 oraz HDCP 2.2. Na szczęście wiele telewizorów klasy premium wyposażonych w tuner satelitarny spełnia te wymagania. Oczywiście w przypadku treści kodowanych potrzebna jest również odpowiednia karta dekodująca lub sprzętowy dekoder. Cóż, droga do uzyskania najwyższej jakości przekazu jest dziś dość trudna i kosztowna. Niestety nie można już dziś powiedzieć, że „wystarczy pójść do kina”. Jakość w wielu współczesnych kinach jest dziś znacznie gorsza niż to, co może uzyskać zdeterminowany miłośnik filmów za pomocą domowego sprzętu współpracującego z Ultra HD, HDR, Dolby Vision i odpowiednim nagłośnieniem. | CHIP