Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Od niepamiętnych czasów możliwości gamingowe komputerów i poszczególnych podzespołów systemu mierzono w klatkach na sekundę, a złotym standardem w testowaniu są długoterminowe benchmarki, które pozwalają porównywać różne urządzenia pod kątem zrównoważonej wydajności. Jednak w ostatnich latach na wydajność procesora graficznego zaczęto patrzeć z innej perspektywy. W recenzjach kart graficznych pojawiły się wykresy czasu renderowania poszczególnych klatek, zwrócono uwagę na kwestię stabilności FPS, a średnim szybkościom klatek towarzyszą obecnie zwykle wartości minimalne, przefiltrowane przez 99. percentyl czasu klatek. Ulepszenia metod testowych mają na celu znalezienie opóźnień, które znikają w średniej szybkości klatek, ale czasami są dość zauważalne gołym okiem użytkownika.

Jednak wszelkie programowe narzędzia pomiarowe działające w systemie testowym pozwalają jedynie pośrednio oszacować ukrytą zmienną, która ma decydujące znaczenie dla wygodnej gry – czas opóźnienia pomiędzy naciśnięciem przycisku klawiatury lub myszy a zmianą obrazu na monitorze. Trzeba kierować się prostą zasadą, która mówi, że im wyższy FPS w grze i im bardziej stabilna, tym krótszy będzie czas reakcji na dane wejściowe. Co więcej, część problemu została już rozwiązana przez szybkie monitory o częstotliwości odświeżania 120, 144 lub 240 Hz, nie mówiąc już o przyszłych ekranach 360 Hz.

Jednak gracze, zwłaszcza gracze w konkurencyjne gry wieloosobowe, którzy szukają najmniejszej przewagi sprzętowej nad swoimi przeciwnikami i są skłonni budować niestandardowe podkręcone komputery w imię kilkudziesięciu dodatkowych FPS w CS:GO, nie mieli jeszcze okazji bezpośrednio oceń opóźnienie wejściowe. Przecież tak precyzyjne i pracochłonne metody jak filmowanie ekranu szybką kamerą są dostępne tylko w warunkach laboratoryjnych.

Ale teraz wszystko się zmieni – poznaj LDAT (Latency Display Analysis Tool), uniwersalne narzędzie sprzętowe do pomiaru opóźnień w grach. Czytelnicy zaznajomieni z akronimami takimi jak FCAT mogą się domyślić, że jest to produkt NVIDIA. Zgadza się, firma zaoferowała urządzenie wybranym wydawnictwom IT, w tym redaktorom 3DNews. Zobaczmy, czy nowa technika pomiaru może rzucić nieco światła na tajemnicze zjawisko opóźnienia wejściowego i pomóc graczom w wyborze komponentów do zawodów e-sportowych.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

#LDAT – jak to działa

Zasada działania LDAT jest bardzo prosta. Sercem układu jest szybki czujnik światła wraz z mikrokontrolerem, który montowany jest w wybranym miejscu ekranu. Podłączana jest do niego zmodyfikowana mysz, a oprogramowanie sterujące poprzez interfejs USB wykrywa czas pomiędzy naciśnięciem klawisza a lokalnym skokiem jasności obrazu. Tak więc, jeśli umieścimy czujnik na lufie pistoletu w strzelance, otrzymamy dokładną wielkość opóźnienia potrzebną dla monitora, komputera i całego stosu oprogramowania (w tym sterowników urządzeń, gry, i system operacyjny), aby reagować na działania użytkownika.

Piękno tego podejścia polega na tym, że działanie LDAT jest całkowicie niezależne od tego, jaki sprzęt i jakie programy są zainstalowane na komputerze. Fakt, że NVIDIA zajmuje się produkcją kolejnego narzędzia pomiarowego, które w dodatku dostępne jest jedynie dla wąskiego kręgu dziennikarzy IT, sugeruje, że firmie zależy na podkreśleniu przewag własnych produktów na tle konkurencji (to miało to już miejsce w przypadku FCAT kilka lat temu). Rzeczywiście, wkrótce na rynku pojawią się monitory 360 Hz z obsługą G-SYNC, a twórcy gier zaczną korzystać z bibliotek NVIDIA Reflex mających na celu zmniejszenie opóźnień w grach obsługujących Direct3D 12. Jesteśmy jednak pewni, że sam LDAT nie zapewni żadnych ustępstw dla „zielonych” kart graficznych i nie zniekształca wyników „czerwonych”, ponieważ urządzenie nie ma żadnego dostępu do konfiguracji sprzętu eksperymentalnego, gdy jest podłączone kablem USB do innej maszyny z uruchomionym oprogramowaniem sterującym.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Nie trzeba dodawać, że LDAT otwiera ogromne perspektywy w obszarze zastosowań. Porównaj monitory do gier (a nawet telewizory) z taką czy inną częstotliwością odświeżania i różnymi typami matryc, sprawdź, jak technologie adaptacyjnej synchronizacji G-SYNC i FreeSync wpływają na opóźnienia, skalowanie klatek za pomocą karty graficznej lub monitora - wszystko to stało się możliwe. Najpierw jednak postanowiliśmy skupić się na bardziej szczegółowym zadaniu i przetestować, jak kilka konkurencyjnych gier zaprojektowanych z myślą o wysokim FPS i niskim czasie reakcji działa na kartach graficznych z różnych kategorii cenowych. A jeśli sformułujemy problem bardziej precyzyjnie, interesują nas dwa główne pytania: czy nadmierna liczba klatek na sekundę jest gwarancją niskich opóźnień i pod jakimi warunkami jest sens ją zwiększać (i w związku z tym kupować mocniejszą kartę graficzną). W szczególności, czy warto przekraczać liczbę klatek na sekundę odpowiadającą częstotliwości odświeżania ekranu, jeśli jesteś dumnym posiadaczem szybkiego monitora 240 Hz?

Do testów wybraliśmy cztery popularne projekty wieloosobowe – CS:GO, DOTA 2, Overwatch i Valorant, które są na tyle mało wymagające dla nowoczesnych procesorów graficznych, w tym modeli budżetowych, aby osiągnąć wydajność setek FPS. Jednocześnie wymienione gry pozwalają w łatwy sposób zorganizować środowisko do wiarygodnego pomiaru czasu reakcji, gdy najważniejsze są stałe warunki: ta sama pozycja postaci, jedna broń w każdym teście itp. Z tego powodu musieliśmy na razie przełożyć testy porównawcze w grach takich jak PlayerUnknown's Battlegrounds i Fortnite. PUBG po prostu nie jest w stanie odizolować się od innych graczy, nawet na poligonie testowym, a tryb Battle Lab dla jednego gracza w Fortnite nadal nie jest odporny na wypadki związane z łupami, przez co niemożliwe jest testowanie wielu procesorów graficznych przy użyciu tej samej broni w rozsądną ilość czasu.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Ponadto prezentowane gry mają tę zaletę, że działają w oparciu o interfejs API Direct3D 11, który w przeciwieństwie do Direct3D 12 umożliwia sterownikowi karty graficznej ustawianie limitów kolejki renderowania klatek, które procesor może przygotować do renderowania do procesora graficznego w potoku grafiki programowej .

W standardowych warunkach, zwłaszcza gdy wąskim gardłem systemu są zasoby obliczeniowe karty graficznej, kolejka klatek domyślnie zwiększa się do trzech, a jeśli aplikacja tego wymaga, nawet więcej. W ten sposób Direct3D zapewnia ciągłe obciążenie procesora graficznego i stałą szybkość renderowania. Ma to jednak skutek uboczny w postaci opóźnienia odpowiedzi na dane wejściowe, ponieważ API nie pozwala na wyrzucenie wcześniej zaplanowanych ramek z kolejki. Właśnie do walki z lagami mają służyć odpowiednie ustawienia w sterownikach kart graficznych, które spopularyzowała firma AMD pod marką Radeon Anti-Lag, a następnie NVIDIA wprowadziła podobną opcję Low Latency Mode.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Jednak takie środki nie są uniwersalnym lekarstwem na opóźnienia: na przykład, jeśli wydajność gry jest ograniczona możliwościami procesora centralnego, a nie procesora graficznego, krótka kolejka klatek (lub jej całkowity brak) jedynie zawęża wąskie gardło procesora. Oprócz reszty programu testowego zamierzamy dowiedzieć się, czy „technologie” Radeon Anti-Lag i Low Latency Mode przynoszą wymierne korzyści, w jakich grach i na jakim sprzęcie.

#Stanowisko badawcze, metodologia badań

Stanowisko badawcze
CPU Intel Core i9-9900K (4,9 GHz, 4,8 GHz AVX, stała częstotliwość)
Płyta główna ASUS MAXIMUS XI APEX
RAM G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 GB (3200 MHz, CL14)
ROM Dysk SSD Intel 760p, 1024 GB
Zasilacz Corsair AX1200i, 1200 W
Układ chłodzenia procesora Seria Corsair Hydro H115i
obudowa Stanowisko testowe CoolerMaster V1.0
Monitoruj NEC EA244UHD
System operacyjny Okna 10 Pro x64
Oprogramowanie dla procesorów graficznych AMD
Wszystkie karty graficzne AMD Radeon Software Adrenalin 2020 Edition 20.8.3
Oprogramowanie GPU NVIDIA
Wszystkie karty graficzne Sterownik NVIDIA GeForce Game Ready 452.06

Pomiary szybkości klatek i czasu reakcji we wszystkich grach przeprowadzono przy maksymalnych lub bliskich maksymalnych ustawieniach jakości grafiki, aby a) uwypuklić różnice pomiędzy porównywanymi urządzeniami, b) uzyskać wyniki zarówno przy dużej liczbie klatek na sekundę przekraczającej częstotliwość odświeżania ekranu, jak i nawzajem . Specjalnie na potrzeby tego artykułu pożyczyliśmy szybki monitor Samsung Odyssey 9 (C32G75TQSI) o rozdzielczości WQHD i częstotliwości odświeżania 240 Hz - maksimum dla współczesnych monitorów konsumenckich do czasu pojawienia się w sprzedaży standardowych ekranów 360 Hz. Technologie adaptacyjnej częstotliwości odświeżania (G-SYNC i FreeSync) zostały wyłączone.

Wyniki każdego pojedynczego testu (konkretnej karty graficznej w konkretnej grze z ustawieniem sterownika zapobiegającego lagowi lub bez) uzyskano na próbie 50 pomiarów.

Gra API Ustawienia Antyaliasing na pełnym ekranie
Counter-Strike: Global Offensive DirectX 11 Maks. Jakość grafiki (rozmycie ruchu wyłączone) 8x MSAA
DOTA 2 Najlepiej wyglądająca jakość Fxaa
Overwatch Epicka jakość, 100% skala renderowania Średni SMAA
Valorant Maks. Jakość grafiki (winieta wyłączona) MSAA x4

#Uczestnicy testu

Około. W nawiasach po nazwach kart graficznych podano częstotliwość podstawową i zwiększoną zgodnie ze specyfikacjami każdego urządzenia. Karty graficzne o konstrukcji innej niż referencyjna są dostosowywane do parametrów referencyjnych (lub zbliżonych do nich), pod warunkiem, że można to zrobić bez ręcznej edycji krzywej częstotliwości zegara. W przeciwnym wypadku (akceleratory z serii GeForce 16, a także GeForce RTX Founders Edition) stosowane są ustawienia producenta.

#Counter-Strike: Global Offensive

Wyniki testów pierwszej gry, CS:GO, dały wiele do myślenia. To najlżejszy projekt w całym programie testów, w którym karty graficzne takie jak GeForce RTX 2080 Ti osiągają liczbę klatek na sekundę przekraczającą 600 FPS, a nawet najsłabszy z ośmiu uczestników testu (GeForce GTX 1650 SUPER i Radeon RX 590) utrzymuje znacznie powyżej częstotliwości odświeżania monitor przy 240 Hz. Niemniej jednak CS:GO doskonale zilustrowało tezę, że zwiększanie FPS powyżej częstotliwości monitora wcale nie jest bezużyteczne w celu zmniejszenia lagów. Jeśli porównamy karty graficzne z najwyższej grupy (GeForce RTX 2070 SUPER i wyższe, a także Radeon RX 5700 XT) z niższymi modelami (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT i Radeon RX 590), mówimy tu o półtorakrotnej różnicy w ogóle czasu, jaki upływa od naciśnięcia przycisku myszy do pojawienia się lampy błyskowej na ekranie. W wartościach bezwzględnych wzmocnienie sięga 9,2 ms – na pierwszy rzut oka niewiele, ale np. prawie taką samą wartość uzyskujemy zmieniając częstotliwość odświeżania ekranu z 60 na 144 Hz (9,7 ms)!

Jeśli chodzi o porównanie opóźnień kart graficznych należących do tej samej szerokiej kategorii cenowej, ale opartych na chipach różnych producentów, nie znaleźliśmy znaczących różnic w każdej grupie. To samo dotyczy opcji w sterownikach akceleratorów zaprojektowanych w celu zmniejszenia opóźnień poprzez zmniejszenie kolejki ramek w Direct3D 11. W CS:GO (przynajmniej w tych warunkach testowych) z reguły nie mają one użytecznego efektu. W grupie słabych kart graficznych widać niewielkie przesunięcie czasu reakcji, ale tylko GeForce GTX 1650 SUPER uzyskał istotność statystyczną w wynikach.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Około. Ikony o nasyconych kolorach wskazują wyniki przy standardowych ustawieniach sterownika. Wyblakłe ikony wskazują, że włączony jest tryb niskiego opóźnienia (Ultra) lub funkcja Radeon Anti-Lag. Zwróć uwagę na skalę pionową - zaczyna się od zera.

Counter-Strike: Global Offensive
Domyślnie Tryb niskiego opóźnienia (Ultra) / Radeon Anti-Lag
Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms
GeForce RTX 2080 Ti 642 20,7 6,5 630 21 4,6
GeForce RTX 2070 SUPER 581 20,8 5 585 21,7 5,6
GeForce RTX 2060 SUPER 466 23,9 4,6 478 22,4 5,8
GeForce GTX 1650 SUPER 300 27,6 4,3 275 23,2 5,4
Radeon RX 5700 XT 545 20,4 5,8 554 21,5 4,4
Radeon RX 5500 XT 323 29,3 14 316 26,5 14,5
Radeon RX 590 293 29,3 5,8 294 27,5 4,9
GeForce GTX 1060 (6 GB) 333 29,6 7,9 325 28,2 12,9

Około. Statystycznie istotne różnice w średnim czasie reakcji (wg testu t-Studenta) zaznaczono na czerwono.

#DOTA 2

Chociaż DOTA 2 jest również uważana za grę mało wymagającą według obecnych standardów, utrudnia to nowoczesnym kartom graficznym osiągnięcie kilkuset klatek na sekundę. Tym samym wszystkie budżetowe rozwiązania biorące udział w porównaniu spadły poniżej liczby klatek na sekundę wynoszącej 240 klatek na sekundę, odpowiadającej częstotliwości odświeżania ekranu. Potężne akceleratory, począwszy od Radeona RX 5700 XT i GeForce RTX 2060 SUPER, wytwarzają tutaj ponad 360 FPS, ale w przeciwieństwie do CS:GO, DOTA 2 skuteczniej kieruje nadwyżkę wydajności GPU do walki z lagami. W poprzedniej grze karta graficzna na poziomie Radeon RX 5700 XT wystarczyła, więc nie było sensu dalej zwiększać wydajności ze względu na czas reakcji. W tym przypadku opóźnienie nadal maleje w przypadku mocniejszych kart graficznych, aż do GeForce RTX 2080 Ti.

Warto zaznaczyć, że pytania budzą wyniki Radeona RX 5700 XT w tej grze. Obecny flagowiec AMD znacznie przewyższa nawet GeForce RTX 2060 pod względem czasu opóźnień i nie radził sobie lepiej od młodszych modeli, pomimo wyższej liczby klatek na sekundę. Ale zmniejszenie kolejki renderowania klatek w DOTA 2 jest naprawdę przydatne. Efekt nie jest na tyle duży, aby zauważyli go nawet doświadczeni cybersportowcy, ale jest on istotny statystycznie w przypadku czterech z ośmiu kart graficznych 

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Około. Ikony o nasyconych kolorach wskazują wyniki przy standardowych ustawieniach sterownika. Wyblakłe ikony wskazują, że włączony jest tryb niskiego opóźnienia (Ultra) lub funkcja Radeon Anti-Lag. Zwróć uwagę na skalę pionową - zaczyna się od zera.

DOTA 2
Domyślnie Tryb niskiego opóźnienia (Ultra) / Radeon Anti-Lag
Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms
GeForce RTX 2080 Ti 418 17,7 2 416 17,4 1,4
GeForce RTX 2070 SUPER 410 18,2 1,6 409 17,6 1,6
GeForce RTX 2060 SUPER 387 20,8 1,5 385 19,8 1,6
GeForce GTX 1650 SUPER 230 27,9 2,5 228 27,9 2,3
Radeon RX 5700 XT 360 26,3 1,5 363 25,2 1,3
Radeon RX 5500 XT 216 25,4 1,2 215 21,7 1,4
Radeon RX 590 224 25 1,4 228 21,8 1,3
GeForce GTX 1060 (6 GB) 255 25,8 1,9 254 25,8 1,7

Około. Statystycznie istotne różnice w średnim czasie reakcji (wg testu t-Studenta) zaznaczono na czerwono.

#Overwatch

Overwatch to najcięższa z czterech gier testowych, zapewniająca maksymalną jakość grafiki i włączony pełnoekranowy antyaliasing. Nic dziwnego, że każdy gigaflop wydajności procesora graficznego korzystnie wpływa na czas reakcji. Zakres wartości opóźnień w Overwatch pomiędzy kartami graficznymi takimi jak GeForce RTX 2080 Ti i Radeon RX 5500 XT jest dwojaki. Liczby pokazują również, że mocniejsze karty graficzne niż GeForce RTX 2070 SUPER jedynie zwiększają FPS, ale nie mogą przyspieszyć reakcji nawet nominalnie. Jednak wymiana Radeona RX 5700 XT lub GeForce RTX 2060 SUPER na osławionego RTX 2070 SUPER w teorii ma sens, aby zminimalizować opóźnienia przy jednoczesnym zachowaniu wysokiej jakości grafiki. Ponadto w Overwatch jeden z akceleratorów na „czerwonych” chipach ponownie spisał się słabo. Tym razem Radeon RX 5500 XT, który znacząco przewyższa wszystkie inne budżetowe rozwiązania pod względem średniego opóźnienia reakcji.

Overwatch po raz kolejny pomógł udowodnić, że a) prędkość karty graficznej, nawet przy dużej liczbie klatek na sekundę, w dalszym ciągu wpływa na wielkość opóźnienia, b) formalnie mocniejszy procesor graficzny nie gwarantuje mniejszych opóźnień reakcji na dane wejściowe. Oprócz tego gra zademonstrowała standardowe działanie ustawień przeciwdziałających lagom sterownika graficznego. Jeśli grasz na stosunkowo słabych kartach graficznych (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT i Radeon 590), zmniejszona kolejka klatek może zmniejszyć opóźnienie o 9 do 17%. Cóż, w przypadku potężnego sprzętu jest to nadal całkowicie bezużyteczne.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Około. Ikony o nasyconych kolorach wskazują wyniki przy standardowych ustawieniach sterownika. Wyblakłe ikony wskazują, że włączony jest tryb niskiego opóźnienia (Ultra) lub funkcja Radeon Anti-Lag. Zwróć uwagę na skalę pionową - zaczyna się od zera.

Overwatch
Domyślnie Tryb niskiego opóźnienia (Ultra) / Radeon Anti-Lag
Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms
GeForce RTX 2080 Ti 282 35,6 10,4 300 34,2 9,6
GeForce RTX 2070 SUPER 225 35,8 5,1 228 36,7 8,6
GeForce RTX 2060 SUPER 198 41,2 6,4 195 38,8 9
GeForce GTX 1650 SUPER 116 58,2 8 115 51 8,7
Radeon RX 5700 XT 210 39,6 7,2 208 41,4 7,2
Radeon RX 5500 XT 120 69,7 13,2 120 63,5 15,1
Radeon RX 590 111 61,2 8,6 111 51,7 7,7
GeForce GTX 1060 (6 GB) 121 60,7 8,7 118 50,7 6,5

Około. Statystycznie istotne różnice w średnim czasie reakcji (wg testu t-Studenta) zaznaczono na czerwono.

#Valorant

Valorant wyróżniał się na tle gier testowych doskonałą – lub odwrotnie, przeciętną – optymalizacją grafiki. Faktem jest, że pomimo ogromnej różnicy w potencjalnej wydajności testowych procesorów graficznych, według szacunków liczby klatek na sekundę, wszystkie one skupiały się w przedziale od 231 do 309 FPS. I to pomimo faktu, że celowo wybraliśmy scenę wymagającą najwięcej zasobów do pomiarów opóźnień, aby uwypuklić oczekiwane różnice. Jednak pod względem rozkładu wartości opóźnień Valorant przypomina nieco CS:GO. W tej grze posiadacze GeForce RTX 2060 SUPER lub Radeon RX 5700 XT stoją na równi z użytkownikami droższych i mocniejszych akceleratorów. Nawet młodsze karty graficzne klasy GeForce GTX 1650 SUPER i Radeon RX 5500 XT nie odstają tak daleko od starszych. Biorąc pod uwagę te dane, nie jest zaskakujące, że ograniczanie kolejki klatek Direct3D w Valorant jest bezużyteczne: odpowiednie ustawienia mają statystycznie istotny wpływ na wybrane karty graficzne, ale jego wielkość jest absolutnie znikoma.

Nowy artykuł: Od kliknięcia do strzału – sprzętowe testowanie lagów w grach

Około. Ikony o nasyconych kolorach wskazują wyniki przy standardowych ustawieniach sterownika. Wyblakłe ikony wskazują, że włączony jest tryb niskiego opóźnienia (Ultra) lub funkcja Radeon Anti-Lag. Zwróć uwagę na skalę pionową - zaczyna się od zera.

Valorant
Domyślnie Tryb niskiego opóźnienia (Ultra) / Radeon Anti-Lag
Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms Średnia liczba klatek na sekundę, FPS Średni czas reakcji, ms Sztuka. odchylenie czasu reakcji, ms
GeForce RTX 2080 Ti 309 19,3 2,6 306 20,2 3
GeForce RTX 2070 SUPER 293 19,2 3,1 289 19,5 2,9
GeForce RTX 2060 SUPER 308 20,7 2,7 310 19,6 2,9
GeForce GTX 1650 SUPER 251 24,5 2,9 243 23,6 2,5
Radeon RX 5700 XT 256 21,9 3,3 257 21,9 2,7
Radeon RX 5500 XT 258 23,5 2,8 262 22,8 2,6
Radeon RX 590 237 25,8 2,7 234 24,3 2,5
GeForce GTX 1060 (6 GB) 269 23,5 2,8 268 23,4 4,4

Około. Statystycznie istotne różnice w średnim czasie reakcji (wg testu t-Studenta) zaznaczono na czerwono.

#odkrycia

Pomiar opóźnienia reakcji w grach ze sprzętem przyniósł bogate wyniki, które, szczerze mówiąc, podają w wątpliwość przyjęte w branży metody oceny wydajności kart graficznych, gdy jedynym mierzonym parametrem od dziesięcioleci jest liczba klatek na sekundę. Oczywiście FPS i lagi są ze sobą ściśle powiązane, ale przynajmniej w grach e-sportowych, gdzie toczy się walka o każdą milisekundę opóźnienia, liczba klatek na sekundę nie pozwala już na kompleksowy opis wydajności. 

W krótkim badaniu popularnych projektów wieloosobowych odkryliśmy kilka interesujących zjawisk. Po pierwsze, nasze dane obalają obiegową opinię, że nie ma sensu zwiększać FPS powyżej wartości odpowiadających częstotliwości odświeżania ekranu. Nawet na bardzo szybkim monitorze 240 Hz gry takie jak Counter-Strike: Global Offensive mogą zmniejszyć opóźnienia półtorakrotnie, wymieniając budżetową kartę graficzną na model z najwyższej półki. Mówimy o takim samym wzmocnieniu czasu reakcji, jak np. przy przejściu z ekranu 60 Hz na 144 Hz.

Z drugiej strony liczba klatek na sekundę może nadal być nadmierna, gdy mocniejsza karta graficzna tylko na próżno podgrzewa powietrze i nie pomaga już w walce z i tak już wyjątkowo niskimi opóźnieniami. We wszystkich grach, które testowaliśmy w rozdzielczości 1080p, nie znaleźliśmy żadnej znaczącej różnicy pomiędzy GeForce RTX 2070 SUPER i GeForce RTX 2080 Ti. Absolutnie minimalny czas reakcji, który zanotowaliśmy, wyniósł 17,7 ms i został uzyskany w DOTA 2. Notabene nie jest to taka skromna wartość, która w przeliczeniu na częstotliwość odświeżania odpowiada 57 hercom. Nasuwa się więc następujący wniosek: nadchodzące monitory 360 Hz z pewnością znajdą zastosowanie w konkurencyjnych grach - jest to bezpośredni sposób na zmniejszenie lagów, gdy sprzęt komputerowy wyczerpał już swoje możliwości i jest ograniczony grubym stosem oprogramowania systemu operacyjnego, grafiki API, sterowniki i sama gra.

Następnie sprawdziliśmy, czy jest jakaś korzyść z oprogramowania przeciwdziałającego opóźnieniom, które dotychczas sprowadzało się do ograniczania kolejki renderowania klatek w aplikacjach bazujących na API graficznym Direct3D 9 i 11 – notorycznego Radeona Anti-Lag w sterowniku AMD i Low Tryb opóźnienia w NVIDIA. Jak się okazało, obie „technologie” naprawdę działają, ale mogą przynieść wymierne korzyści tylko w warunkach, w których wąskim gardłem systemu jest karta graficzna, a nie centralny procesor. W naszym systemie testowym z podkręconym procesorem Intel Core i7-9900K takie narzędzia pomogły niedrogim kartom graficznym średniej wydajności (Radeon RX 5500 XT, GeForce GTX 1650 SUPER i podobnie szybkie akceleratory poprzedniej generacji), ale są całkowicie bezcelowe, gdy mieć potężną kartę graficzną. Jednakże, gdy ustawienia przeciwdziałające opóźnieniom działają, mogą być niezwykle skuteczne, zmniejszając opóźnienia w niektórych Overwatchach nawet o 10 ms, czyli 17% oryginału.

Wreszcie znaleźliśmy pewne różnice między kartami graficznymi różnych producentów, których nie można było przewidzieć na podstawie samej liczby klatek na sekundę. Dlatego karty graficzne AMD czasami zapewniają takie same krótkie opóźnienia, jak formalnie bardziej produktywne „zielone” urządzenia (przykład: Radeon RX 5700 XT w CS:GO), a w innych przypadkach działają podejrzanie wolno (ten sam model w DOTA 2). Nie zdziwimy się, że jeśli techniki pomiaru opóźnień sprzętowych, takie jak LDAT, staną się powszechne, zapaleni cybersportowcy walczący o najmniejszą przewagę nad przeciwnikami zaczną wybierać karty graficzne do konkretnej gry – w zależności od tego, który model zapewnia najkrótszy czas reakcji.

Ale co najważniejsze, dzięki LDAT mamy możliwość przeprowadzenia bardziej szczegółowych badań opóźnień. To, co zrobiliśmy w tym podglądzie, to tylko wierzchołek góry lodowej. Tematy takie jak wpływ technologii adaptacyjnej synchronizacji (G-SYNC i FreeSync) na opóźnienia, ograniczenie FPS w grze, zależność od wydajności procesora i wiele innych pozostają poza zakresem. Ponadto dowiemy się, czy wysoką liczbę klatek na sekundę wynoszącą setki klatek na sekundę i odpowiednio szybką reakcję na dane wejściowe można osiągnąć nie tylko w konkurencyjnych grach, które są specjalnie zoptymalizowane pod te kryteria, ale także w projektach AAA, które znacznie obciążają system więcej. Czy więc przeciętny gracz, a nie mistrz, potrzebuje najnowocześniejszego monitora o częstotliwości odświeżania 240, a nawet 360 Hz? Na te pytania odpowiemy w przyszłych pracach z wykorzystaniem LDAT.

Źródło: 3dnews.ru

Dodaj komentarz