Poradnik: jak wybrać kartę graficzną do filmów?

Na komputerze robimy wiele rzeczy. Nie tylko pracujemy czy gramy, ale też oglądamy filmy. A te stały się ostatnio nieco bardziej wymagające, ze względu na nowe, zawarte w nich technologie.

Niedawno znajomy, zarządzający zespołem pewnej organizacji, poprosił mnie o pomoc w wybraniu komputerów dla swojego teamu. Zdziwiłem się nieco, gdy jego pierwotna myśl powędrowała w stronę laptopa z układem graficznym GeForce MX150. Mowa o laptopach mających służyć do pracy, a tym samym GeForce leżałby raczej odłogiem. Znajomy wyjaśnił to, że na laptopach mają być uruchamiane też prezentacje i filmy w … FullHD. To uświadomiło mi jak mało wiemy o możliwościach drzemiących we współczesnych układach graficznych, będących częścią procesora.

Jaką kartę graficzną do filmów wybrać?

Odpowiedź na pytanie zadane w śródtytule powstałym ze względu na SEO wcale nie jest taka prosta. Wszystko bowiem zależy od zapotrzebowanie na moc obliczeniową. Integry, poza nielicznymi wyjątkami, do gier się nie nadają. A najbardziej wymagające zadanie, które może je spotkać, to filmy w wysokiej rozdzielczości.

Karta graficzna dla użytkownika nie grającego w gry

Jeżeli w gry nie grywacie wcale, to właściwie jesteście w dobrej sytuacji. Wystarczy wam karta zintegrowana. I to wszystko? Niby tak, jest jednak kilka „ale”.

Przede wszystkim integry są różne. Różnice dzielące najsłabsze i najsilniejsze z nich są olbrzymie. Skoro jednak wybieramy grafikę dla nie-gracza, to co się dla nas liczy? Przede wszystkim obsługiwane rozdzielczości, częstotliwości odświeżania oraz wygodny i bezproblemowy sterownik.

Filmy oglądamy na różnych urządzeniach. Co ciekawe, coraz częściej telewizor zastępowany jest przez ekran laptopa. Youtube jednakże głównie oglądamy na urządzeniach przenośnych (fot. techradar)

Filmy w FHD obejrzymy na każdej współczesnej integrze bez większego problemu. Pomijam tu rzadko spotykane procesory Intel Atom, obecne już niemal wyłącznie w tanich chińskich tabletach i laptopach. Nawet jeżeli coś podkusi was, by kupić laptopa z biednym niczym etiopijski rolnik Celeronem N4000 to zintegrowany w nim układ graficzny Intel UHD Graphics 600 z filmami FHD da sobie radę bez problemu.

Oglądanie filmów w 4K na układzie zintegrowanym?

Z drugiej strony część miłośników filmów, szczególnie tych uzależnionych od Netflixa (wiem coś o tym) coraz częściej dysponuje ekranami 4K. Telewizory o tej rozdzielczości stały się dość popularne, a tym samym aż kusi, by podłączyć komputer do 50-cali wyświetlających obraz 4K. No i tu zaczyna się trudność słabszych kart zintegrowanych. Których? Tu możecie się zdziwić.

Jeśli mówimy o wyświetlaniu obrazu filmowego w 4K istotna jest także liczba klatek na sekundę. Framerate filmów jest różny. Typowy materiał filmowy kręcony jest w ledwie 24 klatkach na sekundę (tzn. kręcony jest w dużo większym framerate’cie, ale jest potem konwertowany do tzw. filmowego 24 fps). Filmy wyświetlające większą liczbę klatek na sekundę (np. Hobbit, Avatar) wydają się sztuczne. Nasze mózgi przywykły do klasycznych 24 klatek. Ale to nie znaczy, że takich filmów nie oglądamy. Technologia kręcenia filmów w 60 fps i 4K jest już dość powszechna. Efekt wspomnianej sztuczności pozostaje. Zerknijcie zresztą na ten film prezentacyjny Netflixa.

Jeżeli macie telewizor 4K o wysokim odświeżaniu i chcecie pod niego podłączać komputer to wybór kart graficznych macie dość szeroki. Poradzą z nim sobie wszystkie współczesne, oraz wiele starszych niezależnych kart graficznych, a także integry AMD i Intela. W przypadku kart Intela, dotyczy to wyłącznie układów zawartych w procesorach Core o generacji szóstek w górę i korzystających z tej samej architektury Pentiumów i Celeronów. W przypadku AMD dotyczy to właściwie wszystkich układów zintegrowanych od dość dawna. W obu przypadkach jednak trzeba spojrzeć na rodzaj wyjścia obrazu oferowanego przez płytę główną. By uzyskać 60 klatek na sekundę w 4K potrzeba gniazda DisplayPort lub HDMI 2.0. Starsze wersje HDMI mają ograniczenie do 30 fps. Teoretycznie w przypadku układów Intela da się skorzystać z płyty głównej z wbudowanym konwerterem DP→HDMI (nie mylić z przejściówką). A takie są niezbyt liczne i zwykle drogie.

Grafika zintegrowana do 4K HDR?

A co jeżeli zależy wam na 4K z HDR? Wówczas… także możecie ograniczyć się do układu zintegrowanego (chociaż nie zawsze, o czym poniżej). Konkretnie Radeonów Vega, obecnych w procesorach AMD Athlon 200GE, AMD Ryzen 3 2200G oraz AMD Ryzen 5 2400G.

Cztery rdzenie, osiem wątków i całkiem wydajna karta graficzna w środku. Ryzen 5 2400G pozwala na granie w wiele współczesnych tytułów bez niezależnej karty graficznej. Moją recenzję tego CPU w CHIP znajdziesz tutaj. 

Czyli wystarczy kupić prosty, tani komputer z układem iGPU Vega i można odpalać Netflixa w 4K 60 fps i HDR? Niestety… nie. Technicznie nie ma przeszkód, ale tu w grę wchodzą mechanizmy zabezpieczeń DRM PlayReady. Nie rozwodząc się: kwestia wzajemnych umów między Microsoftem, Netflixem i AMD sprawia, że Radeony Vega, zarówno zintegrowane, ale też wydajne i niezależne karty bazujące na tej architekturze, nie wspierają tego konkretnego zabezpieczenia przed kopiowaniem. Pechowo, z niego właśnie korzysta Netflix. Prowadzi to do kuriozalnej sytuacji w której 4K HDR 60 fps jest osiągalne np. dla Radeona RX580, ale już nie dla potężnego Radeona RX Vega 64. Starsze układy AMD (Polaris) radzą sobie bowiem z 4K HDR w Netflix.

W przypadku wciąż mało popularnych filmów 4K HDR 60 fps na YouTube to tu brak podobnego ograniczenia i zintegrowane Radeony radzą sobie dobrze. Przykład takiego właśnie filmu poniżej:

Czy kinomani powinni zatem wybrać konfigurację z układami AMD? W kategorii niskich cen z pewnością. Jeżeli jednak potrzebują także maszyny do grania, równie dobrze sprawdzą się komputery z GPU NVIDII. Odkąd jednak integry przeniosły się z chipsetu płyt głównych do procesorów, „zieloni” nie posiadają własnych układów zintegrowanych dla PC. Oczywiście trzeba pamiętać, że komputer PC lub laptop to nie jedyne urządzenia zdolne do pracy z filmami. Pozwalają na to także współczesne konsole oraz specjalne urządzenia budowane z myślą o współpracy z TV, jak choćby Apple TV czy NVIDIA Shield.