Przemysł gier wideo od zawsze był ściśle skorelowany z postępem technologicznym. Twórcy tworzyli takie gry, na jakie pozwalały ówczesne komputery i konsole. Różnice było widać już na pierwszy rzut oka. Początkowo gry były monochromatyczne, budowane z małej liczby pikseli, w niskiej rozdzielczości, standardowej dla ówczesnych wyświetlaczy. Potem stopniowo pojawiał się kolor, w coraz szerszej palecie odcieni mierzonej w bitach. Czy ktoś jeszcze pamięta przebój, jakim była dwuwymiarowa platformówka „Prince of Persia” oglądana na kineskopowym, małym monitorku świecącym w kolorze bursztynu? A słynny „Tetris”? Jego twórca Aleksiej Pażytnow, pierwszą wersję tej gry tworzył na prymitywnym radzieckim komputerze Elektronika 60, który nie miał nawet karty graficznej. Kwadraty, z których były zbudowane opadające wielościany, musiał zatem „rysować”, wykorzystując symbole obsługiwane przez klawiaturę: [ ].
Pojawienie się kart graficznych w komputerach, a potem w konsolach, zmieniło wszystko. Do dziś są one najważniejszym podzespołem odpowiedzialnym za wyświetlanie gier na ekranie. Stają się one nie tylko z roku na rok coraz potężniejsze, zdolne do coraz większej liczby obliczeń na sekundę. Nie mniej ważne jest to, że są wyposażane w coraz bardziej nowatorskie rozwiązania technologiczne, dzięki którym można dziś kreować obrazy niezwykle złożone i efektowne, co jeszcze wczoraj było niewyobrażalne. Co więcej, można te obrazy generować z taką częstotliwością, że wyświetlana gra odtwarzana jest z należytą płynnością, bez zacięć, co jest dla wymagającego odbiorcy warunkiem komfortowej rozrywki. I osiągane jest to nie dzięki brutalnej sile czystej mocy obliczeniowej – która, choć ważna, nie jest w stanie załatwić wszystkiego – ale dzięki sprytnym rozwiązaniom technologicznym bazującym na sztucznej inteligencji.
Śledzenie promieni w czasie rzeczywistym, czyli rewolucja w grafice gier wideo
Najważniejszą od wielu lat zmianą na polu grafiki w grach wideo było pojawienie się pierwszych kart graficznych wyposażonych w wyspecjalizowane układy obsługujące technologię śledzenia promieni (ang. ray-tracing) i dokonujące żądanych obliczeń w czasie rzeczywistym, czyli na bieżąco w trakcie gry. Zapowiedziana w 2018 roku przez firmę NVIDIA rewolucyjna technologia trafiła w pierwszej kolejności do kart graficznych GeForce RTX 2080 i GeForce RTX 2070. W tworzeniu grafiki komputerowej był to prawdziwy przewrót kopernikański, śledzenie promieni pozwalało bowiem na tworzenie scen przypominających charakterem oświetlenia świat rzeczywisty. Karta graficzna była w stanie – jak sama nazwa wskazuje – śledzić drogę, jaką pokonuje promień światła. Można było zatem dostrzec choćby odbicia neonów w kałużach lub chromowanych obramowaniach reflektorów przejeżdżającego samochodu. Nagle prezentowany na ekranie świat zaczął wydawać się dużo bardziej rzeczywisty, sugestywnie realistyczny.
Z pojawieniem się technologii śledzenia promieni wiązał się jednak jeden poważny problem. Obliczanie realistycznego oświetlenia danej sceny wymagało olbrzymiej mocy obliczeniowej. Co więcej, mniej więcej w tym czasie zaczęły zyskiwać na popularności monitory zdolne wyświetlać obraz nie w tradycyjnych 60 Hz, ale z częstotliwością znacznie większą: 120 Hz, 144 Hhz, z czasem przesuwając tę poprzeczkę nawet jeszcze wyżej. A gracze nie chcieli rezygnować z komfortu, jakim jest płynna, wyraźna projekcja możliwa dzięki wyświetlaniu tak wielu kadrów z gry na sekundę. Rzecz w tym, że komputer musiał te wszystkie kadry najpierw obliczyć, co stanowiło dodatkowe, bardzo poważne wyzwanie.
Było jasne, że nie da się tego problemu załatwić tradycyjnie, czyli siłowo – zwiększając wyłącznie czystą moc obliczeniową podzespołów. Owszem, zadbano i o to, ale to byłoby wciąż za mało przy tak tytanicznym wyzwaniu. NVIDIA stworzyła zatem technologie, które – dzięki wsparciu sztucznej inteligencji – były w stanie zapewnić wyświetlanie gry zarówno z działającą funkcją śledzenia promieni, jak i z satysfakcjonującą płynnością.
DLSS, czyli jak zjeść ciastko i wciąż je mieć
NVIDIA rozwiązała ten problem, tworząc technologię DLSS (Deep Learning Super Sampling), bazującą na technologii głębokiego uczenia sztucznej inteligencji. Pozwala ona generować dodatkowe kadry w oparciu o wiedzę, jak wyglądają sąsiednie kadry obliczone przez kartę graficzną w tradycyjny sposób. Dzięki temu komputer, który – nie korzystając z DLSS, wszystko obliczając siłowo – miałby problem z wygenerowaniem tylu klatek na sekundę, by projekcja na monitorze była płynna, bez „zacięć” i „szarpnięć”, jest w stanie zapewnić użytkownikowi pożądany komfort rozgrywki. Ta funkcja DLSS nazywa się Frame Generation.
NVIDIA nieustannie doskonali algorytmy DLSS. Najnowsza wersja tej technologii, DLSS 3.0, obecna w najnowszych kartach graficznych z serii GeForce RTX 4xxx (na rynku są już dostępne modele: 4090, 4080, 4070 Ti, 4070, kolejne w drodze), potrafi naprawdę wiele. Dzięki niej nawet relatywnie mniej potężna karta graficzna potrafi złapać drugi oddech i rozwinąć skrzydła.
Co więcej, najnowsza generacja kart graficznych NVIDIA obsługuje technologię DLDSR (Deep Learning Dynamic Super Resolution), której celem jest zapewnienie lepszej jakości wyświetlanego obrazu. Jest to osiągane dzięki temu, że grafika jest najpierw obliczana w wyższej rozdzielczości niż rozdzielczość ekranu, po czym algorytm SI zmniejsza ją do docelowej, natywnej rozdzielczości ekranu.
Kolejnym atutem kart graficznych NVIDIA jest rozwiązanie o nazwie NVIDIA Reflex, odpowiadające za to, by opóźnienie między chwilą, w której dany kadr zostanie obliczony, a chwilą, w której zostanie on wyświetlony na ekranie, było jak najmniejsze. Dlaczego jest to takie ważne? Wyobraźmy sobie, że prowadząc samochód w grze, widzimy zakręt, w którym musimy się zmieścić. Jeśli obraz zostanie wyświetlony z opóźnieniem, może się zdarzyć, że – zmyleni tym, co widzimy na ekranie – skręcimy kierownicą o ułamek sekundy za późno. Opóźnienie przekreśli także nasze szanse w grach sieciowych, jak „Counter-Strike 2”. Przeciwnik, który widzi obraz bez opóźnień, weźmie nas na cel o ułamek sekundy wcześniej, niż będziemy mieli szansę w ogóle go zauważyć.
Jak okiełznać grę „Cyberpunk 2077”
Sprawdźmy, jak wielkie wsparcie oferuje DLSS 3.0, testując komputer wyposażony w nową kartę graficzną GeForceNvidia RTX 4080 w wersji Gainward Phoenix (ustawienia fabryczne, bez podkręcania) w najbardziej dziś efektownej grze komputerowej, jaką jest „Cyberpunk 2077”. Ze względu na najróżniejsze, wymagające olbrzymiej mocy obliczeniowej fajerwerki wizualne, gra ta jest niezwykle trudnym wyzwaniem dla podzespołów komputerowych. Reasumując, jeśli dany komputer jest w stanie zapewnić płynny, detaliczny, efektowny obraz w „Cyberpunku 2077” – z włączonym trybem śledzenia promieni, rzecz jasna – to da sobie śpiewająco radę także z każdą inną grą.
Komputer, na którym sprawdzaliśmy wydajność najnowszych rozwiązań technologicznych firmy NVIDIA, wyposażony jest w procesor Intel Core i5-13600K oraz 32 GB RAM DDR5. System operacyjny to Windows 11. Monitor ma ekran o optymalnej rozdzielczości 2560x1440, co pozwala zachować balans między wydajnością ekranów 1080p i detalicznością ekranów 4K.
„Cyberpunk 2077” przy włączonej funkcji śledzenia promieni, w najbardziej obciążającym komputer, ale zarazem gwarantującym najwyższą jakość obrazu ustawieniu „ultra”, był wyświetlany przy średniej liczbie 165 klatek na sekundę. Teoretycznie, bo pułap możliwości wykorzystywanego monitora to 144 Hz, czyli 144 klatki na sekundę. W najtrudniejszych momentach płynność projekcji spadała do 74 klatek na sekundę, czyli wciąż znacznie powyżej granicy komfortu. Powyższe liczby pozwalają przyjąć za pewnik, że także w rozdzielczości 4K gra „Cyberpunk 2077” byłaby odtwarzana przy tej konfiguracji komputera z w pełni satysfakcjonującą wydajnością.
Karty GeForce RTX serii 3xxx wciąż mają sens
Czy w związku z postępem technologicznym, jaki przyniosła najnowsza generacja kart graficznych NVIDIA, należy wykreślić starsze modele z planów zakupowych? Nie, karty GeForce RTX serii 3xxx wciąż oferują satysfakcjonującą wydajność, a przy tym, jako modele starsze, mają atut niższej ceny. Co prawda technologia DLSS Frame Generation została zastosowana dopiero w najnowszej generacji GeForce’ów, ale starsze wersje DLSS, również zapewniające znaczący wzrost wydajności, działają zarówno w kartach serii GeForce RTX 3xxx, jak i jeszcze starszych GeForce RTX 2xxx. Technologia NVIDIA Reflex także jest obecna w kartach poprzedniej generacji. Jest więc z czego wybierać.
Materiał przygotowany przez NVIDIA