Ny artikel: Fra klik til skud - hardwaretest af lag i spil

I umindelige tider er computerens og individuelle systemkomponenters spilkapacitet blevet målt i billeder per sekund, og guldstandarden for test er langsigtede benchmarks, der giver dig mulighed for at sammenligne forskellige enheder med hensyn til bæredygtig ydeevne. I de senere år er GPU-ydeevnen dog begyndt at blive set fra en anden vinkel. I anmeldelser af videokort er der dukket grafer over gengivelsesvarigheden af ​​individuelle billeder op, spørgsmålet om FPS-stabilitet er kommet til fuld opmærksomhed, og gennemsnitlige billedhastigheder ledsages nu normalt af minimumsværdier, filtreret efter 99. percentilen af ​​billedtid. Forbedringer i testmetoder er rettet mod at finde forsinkelser, der opløses i den gennemsnitlige billedhastighed, men som nogle gange er ret mærkbare for brugerens blotte øje.

Ethvert softwaremåleværktøj, der kører inde i testsystemet, giver dog kun et indirekte estimat af den skjulte variabel, der er af afgørende betydning for et behageligt spil - forsinkelsestiden mellem tryk på et tastatur eller en museknap og ændring af billedet på skærmen. Du skal følge en simpel regel, som siger, at jo højere FPS i spillet og jo mere stabilt det er, jo kortere vil responstiden på input være. Desuden er en del af problemet allerede løst af hurtige skærme med en opdateringshastighed på 120, 144 eller 240 Hz, for ikke at nævne fremtidige 360 ​​Hz-skærme.

Spillere, især spillere af konkurrerende multiplayer-spil, der leder efter den mindste fordel i hardware i forhold til deres modstandere og er villige til at bygge brugerdefinerede overclockede computere af hensyn til snesevis af ekstra FPS i CS:GO, har endnu ikke haft mulighed for at direkte evaluere input lag. Så præcise og arbejdskrævende metoder som at filme skærmen med et højhastighedskamera er trods alt kun tilgængelige under laboratorieforhold.

Men nu vil alt ændre sig - mød LDAT (Latency Display Analysis Tool), et universelt hardwareværktøj til måling af spilforsinkelse. Læsere, der er bekendt med akronymer såsom FCAT, kan gætte på, at dette er et NVIDIA-produkt. Det er rigtigt, virksomheden tilbød enheden til udvalgte it-publikationer, herunder redaktørerne af 3DNews. Lad os se, om en ny måleteknik kan kaste lys over det mystiske fænomen input lag og hjælpe spillere med at vælge komponenter til eSports-konkurrencer.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

#LDAT - sådan virker det

Arbejdsprincippet for LDAT er meget enkelt. Kernen i systemet er en højhastigheds lyssensor med mikrocontroller, som er monteret på det ønskede sted på skærmen. En modificeret mus er tilsluttet den, og kontrolsoftwaren via USB-interfacet registrerer tiden mellem tryk på en tast og et lokalt spring i billedets lysstyrke. Så hvis vi sætter en sensor oven på løbet af en pistol i et skydespil, får vi den nøjagtige mængde latens, det tager for skærmen, computeren og hele softwarestakken (inklusive enhedsdrivere, spillet, og operativsystemet) for at reagere på brugerinput.

Skønheden ved denne tilgang er, at driften af ​​LDAT er fuldstændig uafhængig af hvilken hardware og hvilke programmer der er installeret på computeren. At NVIDIA beskæftiger sig med produktionen af ​​endnu et måleværktøj, som i øvrigt kun er tilgængeligt for en begrænset kreds af it-journalister, antyder, at virksomheden søger at fremhæve fordelene ved sine egne produkter i forhold til konkurrenterne (dette allerede sket med FCAT for flere år siden). Faktisk er 360-Hz-skærme med G-SYNC-understøttelse ved at dukke op på markedet, og spiludviklere vil begynde at bruge NVIDIA Reflex-biblioteker med det formål at reducere latens i spil, der kører Direct3D 12. Vi er dog sikre på, at LDAT ikke selv leverer eventuelle indrømmelser "grønne" videokort og forvrænger ikke resultaterne af "røde", fordi enheden ikke har nogen adgang til konfigurationen af ​​den eksperimentelle hardware, når den er forbundet med et USB-kabel til en anden maskine, der kører kontrolsoftware.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Det er overflødigt at sige, at LDAT åbner enorme perspektiver inden for sit anvendelsesområde. Sammenlign gamingmonitorer (og endda tv'er) med en eller anden opdateringshastighed og forskellige typer matricer, tjek hvordan adaptive synkroniseringsteknologier G-SYNC og FreeSync påvirker latency, frame-skalering ved hjælp af et videokort eller en skærm – alt dette er blevet muligt. Men først besluttede vi at fokusere på en mere specifik opgave og teste, hvordan flere konkurrencedygtige spil designet til høj FPS og lav reaktionstid fungerer på videokort i forskellige priskategorier. Og hvis vi formulerer problemet mere præcist, er vi interesserede i to hovedspørgsmål: er en overskydende framerate en garanti for lave latenser, og under hvilke forhold giver det nogen mening at øge det (og derfor købe et mere kraftfuldt videokort). Er det især nyttigt at overskride billedhastigheden svarende til skærmens opdateringshastighed, hvis du er den stolte ejer af en højhastigheds 240-Hz-skærm?

Til test valgte vi fire populære multiplayer-projekter - CS:GO, DOTA 2, Overwatch og Valorant, som er krævende nok til moderne GPU'er, inklusive budgetmodeller, til at opnå ydeevne på hundredvis af FPS. Samtidig gør de listede spil det muligt nemt at organisere et miljø til pålidelig måling af reaktionstid, når konstante forhold er vigtigst: samme position af karakteren, et våben i hver test osv. Af denne grund har vi måtte foreløbig udskyde benchmarks i spil som PlayerUnknown's Battlegrounds og Fortnite. PUBG har simpelthen ikke evnen til at isolere sig fra andre spillere, selv på testområdet, og Fortnites singleplayer Battle Lab-tilstand er stadig ikke immun over for plyndreulykker og gør det derfor umuligt at teste flere GPU'er med det samme våben i en rimelig tid.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Derudover har de fremhævede spil fordelen ved at køre Direct3D 11 API, som i modsætning til Direct3D 12 tillader grafikkortdriveren at sætte grænser for gengivelseskøen af ​​frames, som CPU'en kan forberede til gengivelse til GPU'en i softwarens grafikpipeline .

Under standardforhold, især når flaskehalsen i systemet er computerressourcerne på videokortet, øges billedkøen op til tre som standard eller, hvis det kræves af applikationen, endnu mere. Dermed sikrer Direct3D kontinuerlig GPU-belastning og en konstant gengivelseshastighed. Men dette har den bivirkning, at det forsinker svaret på input, fordi API'et ikke tillader forudplanlagte rammer at blive smidt ud af køen. Det er netop for at bekæmpe forsinkelse, som de tilsvarende indstillinger i videokortdrivere er rettet mod, som blev populært af AMD under Radeon Anti-Lag-mærket, og derefter introducerede NVIDIA en lignende mulighed for Low Latency Mode.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Sådanne foranstaltninger er dog ikke et universelt middel mod forsinkelser: hvis spillets ydeevne for eksempel er begrænset af den centrale i stedet for grafikprocessorens muligheder, gør en kort frame-kø (eller dens fuldstændige fravær) kun CPU-flaskehalsen smallere. Ud over resten af ​​testprogrammet har vi til hensigt at finde ud af, om Radeon Anti-Lag og Low Latency Mode "teknologierne" har håndgribelige fordele, i hvilke spil og på hvilken hardware.

#Teststand, testmetode

Prøvestativ
CPU Intel Core i9-9900K (4,9 GHz, 4,8 GHz AVX, fast frekvens)
bundkort ASUS MAXIMUS XI APEX
Operativ hukommelse G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 GB (3200 MHz, CL14)
rOM Intel SSD 760p, 1024 GB
Strømforsyning Corsair AX1200i, 1200 W
CPU kølesystem Corsair Hydro Series H115i
boliger CoolerMaster testbænk V1.0
skærm NEC EA244UHD
Operativsystem Windows 10 Pro x64
Software til AMD GPU'er
Alle videokort AMD Radeon Software Adrenalin 2020 Edition 20.8.3
NVIDIA GPU-software
Alle videokort NVIDIA GeForce Game Ready Driver 452.06

Målinger af billedhastighed og reaktionstid i alle spil blev udført ved maksimale eller tæt på maksimale grafikkvalitetsindstillinger for at a) fremhæve forskellene mellem de sammenlignede enheder, b) opnå resultater både ved høje billedhastigheder, der overstiger skærmens opdateringshastighed, og omvendt. Specielt til denne artikel lånte vi en hurtig Samsung Odyssey 9-skærm (C32G75TQSI) med WQHD-opløsning og en opdateringshastighed på 240 Hz – det maksimale for moderne forbrugerskærme indtil 360 Hz standardskærme blev tilgængelige til salg. Adaptive opdateringshastighedsteknologier (G-SYNC og FreeSync) er blevet deaktiveret.

Resultaterne af hver enkelt test (et specifikt videokort i et specifikt spil med eller uden en anti-lag driver indstilling) blev opnået på en prøve på 50 målinger.

spil API Indstillinger Fuldskærms anti-aliasing
Counter-Strike: Global Offensive DirectX 11 Maks. Grafikkvalitet (Motion Blur fra) 8x MSAA
DOTA 2 Bedste kvalitet FXAA
Overwatch Episk kvalitet, 100% gengivelsesskala SMAA medium
Værdsættelse Maks. Grafikkvalitet (vignet fra) MSAA x4

#Testdeltagere

Ca. I parentes efter navnene på videokortene er basis- og boost-frekvenserne angivet i henhold til specifikationerne for hver enhed. Ikke-referencedesignvideokort bringes i overensstemmelse med referenceparametre (eller tæt på sidstnævnte), forudsat at dette kan gøres uden manuel redigering af clockfrekvenskurven. Ellers (GeForce 16-seriens acceleratorer, samt GeForce RTX Founders Edition) bruges producentens indstillinger.

#Counter-Strike: Global Offensive

Testresultaterne i det allerførste spil, CS:GO, gav en masse stof til eftertanke. Dette er det letteste projekt i hele testprogrammet, hvor grafikkort som GeForce RTX 2080 Ti når billedhastigheder over 600 FPS og selv de svageste af de otte testdeltagere (GeForce GTX 1650 SUPER og Radeon RX 590) holder et godt stykke over opdateringshastigheden monitor ved 240 Hz. Ikke desto mindre illustrerede CS:GO perfekt tesen om, at forøgelse af FPS over skærmfrekvensen slet ikke er ubrugelig til at reducere forsinkelser. Hvis vi sammenligner videokortene i topgruppen (GeForce RTX 2070 SUPER og højere, samt Radeon RX 5700 XT) med de lavere modeller (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT og Radeon RX 590), vi taler om halvanden gange forskel i almindelighed den tid, der gik fra man trykker på museknappen, til blitzen kommer frem på skærmen. I absolutte tal når forstærkningen op på 9,2 ms - ved første øjekast ikke meget, men for eksempel opnås næsten samme mængde ved at ændre skærmens opdateringshastighed fra 60 til 144 Hz (9,7 ms)!

Med hensyn til, hvordan latensen af ​​videokort, der tilhører den samme brede priskategori, men baseret på chips fra forskellige producenter, sammenlignes, fandt vi ikke signifikante forskelle i hver gruppe. Det samme gør sig gældende for muligheder i acceleratordrivere designet til at reducere lag ved at reducere framekøen i Direct3D 11. På CS:GO (i hvert fald under disse testforhold) har de som udgangspunkt ikke en brugbar effekt. I gruppen af ​​svage videokort er der et lille skift i responstiden, men kun GeForce GTX 1650 SUPER opnåede statistisk signifikans i resultaterne.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Ca. Mættede farveikoner angiver resultater med standard driverindstillinger. Falmede ikoner angiver, at lav latenstilstand (Ultra) eller Radeon Anti-Lag er aktiveret. Vær opmærksom på den lodrette skala - den starter over nul.

Counter-Strike: Global Offensive
Som standard Lav latenstilstand (Ultra) / Radeon Anti-Lag
Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms
GeForce RTX 2080 Ti 642 20,7 6,5 630 21 4,6
GeForce RTX 2070 SUPER 581 20,8 5 585 21,7 5,6
GeForce RTX 2060 SUPER 466 23,9 4,6 478 22,4 5,8
GeForce GTX 1650 SUPER 300 27,6 4,3 275 23,2 5,4
Radeon RX 5700 XT 545 20,4 5,8 554 21,5 4,4
Radeon RX 5500 XT 323 29,3 14 316 26,5 14,5
Radeon RX 590 293 29,3 5,8 294 27,5 4,9
GeForce GTX 1060 (6 GB) 333 29,6 7,9 325 28,2 12,9

Ca. Statistisk signifikante forskelle i den gennemsnitlige reaktionstid (ifølge Students t-test) er fremhævet med rødt.

#DOTA 2

Selvom DOTA 2 også betragtes som et krævende spil efter nuværende standarder, gør det det sværere for moderne videokort at nå flere hundrede FPS. Alle budgetløsninger, der deltog i sammenligningen, faldt således under billedhastigheden på 240 billeder i sekundet, svarende til skærmens opdateringshastighed. Kraftige acceleratorer, startende med Radeon RX 5700 XT og GeForce RTX 2060 SUPER, producerer over 360 FPS her, men i modsætning til CS:GO dirigerer DOTA 2 mere effektivt den overskydende ydeevne af GPU'en til at bekæmpe lag. I det forrige spil var et videokort på Radeon RX 5700 XT-niveauet nok til, at det ikke nyttede noget at øge ydeevnen yderligere af hensyn til reaktionstiden. Her fortsætter latensen med at falde på kraftigere videokort op til GeForce RTX 2080 Ti.

Det skal bemærkes, at det er resultaterne af Radeon RX 5700 XT i dette spil, der rejser spørgsmål. AMDs nuværende flagskib overgår langt selv GeForce RTX 2060 i latenstid og klarede sig ikke bedre end yngre modeller på trods af den højere framerate. Men at reducere rammegengivelseskøen i DOTA 2 er virkelig nyttig. Effekten er ikke så stor, at selv erfarne cyberatleter vil bemærke det, men den er statistisk signifikant for fire ud af otte videokort 

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Ca. Mættede farveikoner angiver resultater med standard driverindstillinger. Falmede ikoner angiver, at lav latenstilstand (Ultra) eller Radeon Anti-Lag er aktiveret. Vær opmærksom på den lodrette skala - den starter over nul.

DOTA 2
Som standard Lav latenstilstand (Ultra) / Radeon Anti-Lag
Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms
GeForce RTX 2080 Ti 418 17,7 2 416 17,4 1,4
GeForce RTX 2070 SUPER 410 18,2 1,6 409 17,6 1,6
GeForce RTX 2060 SUPER 387 20,8 1,5 385 19,8 1,6
GeForce GTX 1650 SUPER 230 27,9 2,5 228 27,9 2,3
Radeon RX 5700 XT 360 26,3 1,5 363 25,2 1,3
Radeon RX 5500 XT 216 25,4 1,2 215 21,7 1,4
Radeon RX 590 224 25 1,4 228 21,8 1,3
GeForce GTX 1060 (6 GB) 255 25,8 1,9 254 25,8 1,7

Ca. Statistisk signifikante forskelle i den gennemsnitlige reaktionstid (ifølge Students t-test) er fremhævet med rødt.

#Overwatch

Overwatch er det tungeste af de fire testspil med maksimal grafikkvalitet med fuldskærms anti-aliasing aktiveret. Det er ikke overraskende, at hver gigaflop af GPU-ydeevne her gavner responstiden. Udvalget af lagværdier i Overwatch mellem videokort som GeForce RTX 2080 Ti og Radeon RX 5500 XT er dobbelt. Tallene viser også, at kraftigere videokort end GeForce RTX 2070 SUPER kun øger FPS, men ikke kan fremskynde reaktionen selv nominelt. Men at erstatte Radeon RX 5700 XT eller GeForce RTX 2060 SUPER med den berygtede RTX 2070 SUPER i teorien giver mening for at reducere forsinkelsen til et minimum og samtidig opretholde høj grafikkvalitet. Derudover klarede en af ​​acceleratorerne på "røde" chips i Overwatch sig igen dårligt. Denne gang Radeon RX 5500 XT, som markant overgår alle andre budgetløsninger med hensyn til gennemsnitlig responsforsinkelse.

Overwatch hjalp igen med at bevise, at a) hastigheden på videokortet, selv ved høje billedhastigheder, stadig påvirker mængden af ​​lag, b) en formelt mere kraftfuld GPU garanterer ikke lavere responsforsinkelser på input. Ud over alt dette demonstrerede spillet standarddriften af ​​anti-lag-indstillingerne for grafikdriveren. Hvis du spiller på relativt svage videokort (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT og Radeon 590), kan en reduceret frame-kø reducere lag med 9 til 17%. Nå, for kraftfuld hardware er den stadig fuldstændig ubrugelig.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Ca. Mættede farveikoner angiver resultater med standard driverindstillinger. Falmede ikoner angiver, at lav latenstilstand (Ultra) eller Radeon Anti-Lag er aktiveret. Vær opmærksom på den lodrette skala - den starter over nul.

Overwatch
Som standard Lav latenstilstand (Ultra) / Radeon Anti-Lag
Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms
GeForce RTX 2080 Ti 282 35,6 10,4 300 34,2 9,6
GeForce RTX 2070 SUPER 225 35,8 5,1 228 36,7 8,6
GeForce RTX 2060 SUPER 198 41,2 6,4 195 38,8 9
GeForce GTX 1650 SUPER 116 58,2 8 115 51 8,7
Radeon RX 5700 XT 210 39,6 7,2 208 41,4 7,2
Radeon RX 5500 XT 120 69,7 13,2 120 63,5 15,1
Radeon RX 590 111 61,2 8,6 111 51,7 7,7
GeForce GTX 1060 (6 GB) 121 60,7 8,7 118 50,7 6,5

Ca. Statistisk signifikante forskelle i den gennemsnitlige reaktionstid (ifølge Students t-test) er fremhævet med rødt.

#Værdsættelse

Valorant skilte sig ud blandt testspillene med fremragende - eller omvendt middelmådig - grafikoptimering. Faktum er, at på trods af den enorme forskel i den potentielle ydeevne af test-GPU'erne, ifølge frame rate estimater, var de alle koncentreret i området fra 231 til 309 FPS. Og det på trods af, at vi bevidst valgte den mest ressourcekrævende scene til latensmålinger for at forstærke de forventede forskelle. Med hensyn til fordelingen af ​​lag-værdier ligner Valorant dog noget CS:GO. I dette spil er ejere af en GeForce RTX 2060 SUPER eller Radeon RX 5700 XT på lige fod med brugere af dyrere og kraftigere acceleratorer. Selv de yngre skærmkort i GeForce GTX 1650 SUPER og Radeon RX 5500 XT-klassen er ikke så langt bagefter de ældre. I betragtning af disse input er det ikke overraskende, at begrænsning af Direct3D-frame-køen i Valorant er ubrugelig: de tilsvarende indstillinger har en statistisk signifikant effekt for udvalgte videokort, men dens størrelse er absolut ubetydelig.

Ny artikel: Fra klik til skud - hardwaretest af lag i spil

Ca. Mættede farveikoner angiver resultater med standard driverindstillinger. Falmede ikoner angiver, at lav latenstilstand (Ultra) eller Radeon Anti-Lag er aktiveret. Vær opmærksom på den lodrette skala - den starter over nul.

Værdsættelse
Som standard Lav latenstilstand (Ultra) / Radeon Anti-Lag
Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms Gennemsnitlig billedhastighed, FPS Gennemsnitlig reaktionstid, ms Kunst. reaktionstid afvigelse, ms
GeForce RTX 2080 Ti 309 19,3 2,6 306 20,2 3
GeForce RTX 2070 SUPER 293 19,2 3,1 289 19,5 2,9
GeForce RTX 2060 SUPER 308 20,7 2,7 310 19,6 2,9
GeForce GTX 1650 SUPER 251 24,5 2,9 243 23,6 2,5
Radeon RX 5700 XT 256 21,9 3,3 257 21,9 2,7
Radeon RX 5500 XT 258 23,5 2,8 262 22,8 2,6
Radeon RX 590 237 25,8 2,7 234 24,3 2,5
GeForce GTX 1060 (6 GB) 269 23,5 2,8 268 23,4 4,4

Ca. Statistisk signifikante forskelle i den gennemsnitlige reaktionstid (ifølge Students t-test) er fremhævet med rødt.

#Fund

Måling af responslag i spil med hardware har givet rige resultater, der ærligt talt sætter spørgsmålstegn ved branchens accepterede metoder til vurdering af videokorts ydeevne, når den eneste målte parameter har været billedhastigheden i årtier. Selvfølgelig er FPS og lag tæt korreleret, men i det mindste i eSports-spil, når der er kamp for hvert millisekund af latency, giver billedhastigheden ikke længere mulighed for en omfattende beskrivelse af ydeevnen. 

I en kort undersøgelse af populære multiplayer-projekter opdagede vi flere interessante fænomener. For det første afviser vores data den populære opfattelse, at det ikke nytter noget at øge FPS ud over de værdier, der svarer til skærmens opdateringshastighed. Selv på en meget hurtig 240Hz-skærm kan spil som Counter-Strike: Global Offensive reducere forsinkelsen med halvanden gang ved at opgradere fra et budgetgrafikkort til en topmodel. Vi taler om samme gevinst i reaktionstid, som når man for eksempel flytter fra en 60 Hz skærm til 144 Hz.

Til gengæld kan billedhastigheden stadig være for høj, når et kraftigere videokort kun varmer luften op forgæves og ikke længere er med til at bekæmpe de i forvejen ekstremt lave latenser. I alle de spil, vi testede ved 1080p, fandt vi ikke nogen meningsfuld forskel mellem GeForce RTX 2070 SUPER og GeForce RTX 2080 Ti. Den absolutte minimumsvartid, vi registrerede, var 17,7 ms og blev opnået i DOTA 2. Dette er i øvrigt ikke så beskeden en værdi, som, hvis den omsættes til en opdateringshastighed, svarer til 57 hertz. Så den følgende konklusion antyder sig selv: de kommende 360 ​​Hz-skærme vil helt sikkert finde anvendelse i konkurrerende spil - dette er en direkte måde at reducere forsinkelsen, når computerhardware allerede har opbrugt sine muligheder og er begrænset af den tykke softwarestak i operativsystemet, grafikken API, drivere og selve spillet.

Derefter undersøgte vi, om der er nogen fordele ved anti-latency software, som indtil videre går ud på at begrænse frame rendering køen i applikationer, der er afhængige af Direct3D 9 og 11 grafik API - den berygtede Radeon Anti-Lag i AMD driveren og Low Latency Mode i NVIDIA. Som det viste sig, virker begge "teknologier" virkelig, men kan kun give håndgribelige fordele under forhold, hvor flaskehalsen i systemet er GPU'en og ikke den centrale processor. I vores testsystem med en overclocket Intel Core i7-9900K-processor hjalp sådanne værktøjer billige mid-performance videokort (Radeon RX 5500 XT, GeForce GTX 1650 SUPER og lignende hurtige acceleratorer fra den forrige generation), men er fuldstændig meningsløse, når du har en kraftig GPU. Men når anti-lag-indstillingerne virker, kan de være ekstremt effektive og reducere latensen i nogle Overwatch med op til 10 ms eller 17 % af originalen.

Endelig fandt vi visse forskelle mellem grafikkort fra forskellige producenter, som ikke kunne forudsiges ud fra billedhastigheder alene. Således giver AMD-skærmkort nogle gange den samme korte latenstid som formelt mere produktive "grønne" enheder (eksempel: Radeon RX 5700 XT i CS:GO), og i andre tilfælde arbejder de mistænkeligt langsomt (samme model i DOTA 2). Vi vil ikke blive overrasket over, at hvis hardware lag-målingsteknikker som LDAT bliver udbredt, vil ivrige cyberatleter, der kæmper for den mindste fordel i forhold til deres modstandere, begynde at vælge videokort til et specifikt spil - afhængigt af hvilken model der giver den korteste reaktionstid.

Men vigtigst af alt, takket være LDAT, har vi mulighed for at udføre mere dybtgående latensundersøgelser. Det, vi har gjort i denne forhåndsvisning, er kun toppen af ​​isbjerget. Emner såsom indvirkningen af ​​adaptive synkroniseringsteknologier (G-SYNC og FreeSync) på lag, begrænsning af FPS i spillet, afhængighed af CPU-ydeevne og meget mere forbliver uden for rammerne. Derudover skal vi finde ud af, om høje billedhastigheder på hundredvis af FPS og følgelig hurtig respons på input er opnåelige ikke kun i konkurrerende spil, der er specielt optimeret til disse kriterier, men også i AAA-projekter, der belaster systemet meget. mere. Har den gennemsnitlige gamer og ikke mesteren derfor brug for en banebrydende skærm med en opdateringshastighed på 240 eller endda 360 Hz? Vi vil besvare disse spørgsmål i det fremtidige arbejde med LDAT.

Kilde: 3dnews.ru

Tilføj en kommentar