Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Fra uminnelige tider har spillkapasiteten til datamaskiner og individuelle systemkomponenter blitt målt i bilder per sekund, og gullstandarden for testing er langsiktige benchmarks som lar deg sammenligne ulike enheter når det gjelder bærekraftig ytelse. De siste årene har imidlertid GPU-ytelsen begynt å bli sett på fra en annen vinkel. I vurderinger av skjermkort har det dukket opp grafer over gjengivelsesvarigheten til individuelle bilder, problemet med FPS-stabilitet har kommet til full oppmerksomhet, og gjennomsnittlige bildefrekvenser er nå vanligvis ledsaget av minimumsverdier, filtrert etter 99. persentilen av bildetid. Forbedringer i testmetoder er rettet mot å finne forsinkelser som løses opp i den gjennomsnittlige bildefrekvensen, men som noen ganger er ganske merkbare for brukerens blotte øye.

Ethvert programvaremåleverktøy som kjører inne i testsystemet gir imidlertid kun et indirekte estimat av den skjulte variabelen som er av avgjørende betydning for et komfortabelt spill – forsinkelsestiden mellom å trykke på et tastatur eller en museknapp og endre bildet på skjermen. Du må følge en enkel regel, som sier at jo høyere FPS i spillet og jo mer stabilt det er, jo kortere vil responstiden på input være. Dessuten er deler av problemet allerede løst av raske skjermer med en oppdateringsfrekvens på 120, 144 eller 240 Hz, for ikke å snakke om fremtidige 360 ​​Hz-skjermer.

Spillere, spesielt spillere av konkurrerende flerspillerspill som leter etter den minste fordel i maskinvare fremfor motstanderne og er villige til å bygge tilpassede overklokkede datamaskiner av hensyn til dusinvis av ekstra FPS i CS:GO, har ennå ikke hatt muligheten til å direkte evaluere input lag. Tross alt er slike presise og arbeidskrevende metoder som å filme skjermen med et høyhastighetskamera kun tilgjengelig under laboratorieforhold.

Men nå vil alt endre seg – møt LDAT (Latency Display Analysis Tool), et universelt maskinvareverktøy for å måle spillforsinkelse. Lesere som er kjent med akronymer som FCAT, kan gjette at dette er et NVIDIA-produkt. Det er riktig, selskapet tilbød enheten til utvalgte IT-publikasjoner, inkludert redaktørene av 3DNews. La oss se om en ny måleteknikk kan kaste lys over det mystiske fenomenet input lag og hjelpe spillere med å velge komponenter for eSports-konkurranser.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

#LDAT - hvordan det fungerer

Arbeidsprinsippet til LDAT er veldig enkelt. Kjernen i systemet er en høyhastighets lyssensor med mikrokontroller, som monteres på ønsket sted på skjermen. En modifisert mus er koblet til den, og kontrollprogramvaren via USB-grensesnittet registrerer tiden mellom et tastetrykk og et lokalt hopp i bildets lysstyrke. Så hvis vi setter en sensor på toppen av løpet av en pistol i et skytespill, får vi den nøyaktige mengden latens det tar for skjermen, datamaskinen og hele programvarestabelen (inkludert enhetsdrivere, spillet, og operativsystemet) for å svare på brukerinndata.

Det fine med denne tilnærmingen er at driften av LDAT er helt uavhengig av hvilken maskinvare og hvilke programmer som er installert på datamaskinen. Det faktum at NVIDIA er opptatt av produksjon av enda et måleverktøy, som dessuten kun er tilgjengelig for en begrenset krets av IT-journalister, antyder at selskapet søker å fremheve fordelene ved sine egne produkter sammenlignet med konkurrentene (dette allerede skjedd med FCAT for flere år siden). Faktisk er 360-Hz-skjermer med G-SYNC-støtte i ferd med å dukke opp på markedet, og spillutviklere vil begynne å bruke NVIDIA Reflex-biblioteker med sikte på å redusere ventetiden i spill som kjører Direct3D 12. Vi er imidlertid sikre på at LDAT selv ikke tilbyr eventuelle innrømmelser "grønne" skjermkort og forvrenger ikke resultatene av "røde" fordi enheten ikke har noen tilgang til konfigurasjonen av den eksperimentelle maskinvaren når den er koblet med en USB-kabel til en annen maskin som kjører kontrollprogramvare.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Unødvendig å si åpner LDAT for enorme muligheter innen sitt bruksområde. Sammenlign spillmonitorer (og til og med TV-er) med en eller annen oppdateringsfrekvens og ulike typer matriser, sjekk hvordan adaptive synkroniseringsteknologier G-SYNC og FreeSync påvirker latens, rammeskalering ved hjelp av et skjermkort eller skjerm – alt dette har blitt mulig. Men først bestemte vi oss for å fokusere på en mer spesifikk oppgave og teste hvordan flere konkurrerende spill designet for høy FPS og lav reaksjonstid fungerer på skjermkort i forskjellige priskategorier. Og hvis vi formulerer problemet mer presist, er vi interessert i to hovedspørsmål: er en overflødig framerate en garanti for lave ventetider og under hvilke forhold er det fornuftig å øke det (og derfor kjøpe et kraftigere skjermkort). Spesielt, er det nyttig å overskride bildefrekvensen som tilsvarer skjermens oppdateringsfrekvens hvis du er den stolte eieren av en høyhastighets 240-Hz-skjerm?

For testing valgte vi fire populære flerspillerprosjekter – CS:GO, DOTA 2, Overwatch og Valorant, som er lite krevende nok for moderne GPUer, inkludert budsjettmodeller, for å oppnå ytelse på hundrevis av FPS. Samtidig gjør de listede spillene det mulig å enkelt organisere et miljø for pålitelig måling av reaksjonstid, når konstante forhold er viktigst: samme posisjon til karakteren, ett våpen i hver test, osv. Av denne grunn har vi måtte foreløpig utsette benchmarks i spill som PlayerUnknown's Battlegrounds og Fortnite. PUBG har rett og slett ikke muligheten til å isolere seg fra andre spillere, selv på testområdet, og Fortnites single-player Battle Lab-modus er fortsatt ikke immun mot tyveulykker og gjør det derfor umulig å teste flere GPUer med samme våpen i rimelig tid.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

I tillegg har de omtalte spillene fordelen av å kjøre Direct3D 11 API, som, i motsetning til Direct3D 12, lar grafikkortdriveren sette grenser for gjengivelseskøen av rammer som CPUen kan forberede for gjengivelse til GPU i programvarens grafikkpipeline .

Under standardforhold, spesielt når flaskehalsen til systemet er dataressursene til skjermkortet, øker rammekøen opp til tre som standard eller, hvis det kreves av applikasjonen, enda mer. Dermed sikrer Direct3D kontinuerlig GPU-belastning og en konstant gjengivelseshastighet. Men dette har bieffekten av å forsinke responsen på input, fordi APIen ikke tillater at forhåndsplanlagte rammer kastes ut av køen. Det er nettopp for å bekjempe etterslep de tilsvarende innstillingene i skjermkortdrivere er rettet mot, som ble popularisert av AMD under merkevaren Radeon Anti-Lag, og deretter introduserte NVIDIA et lignende alternativ for Low Latency Mode.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Slike tiltak er imidlertid ikke et universelt middel for etterslep: for eksempel, hvis spillets ytelse begrenses av egenskapene til den sentrale i stedet for grafikkprosessoren, vil en kort rammekø (eller fullstendig fravær) bare gjøre CPU-flaskehalsen smalere. I tillegg til resten av testprogrammet, har vi til hensikt å finne ut om Radeon Anti-Lag og Low Latency Mode "teknologiene" har konkrete fordeler, i hvilke spill og på hvilken maskinvare.

#Teststand, testmetodikk

Prøvestativ
prosessor Intel Core i9-9900K (4,9 GHz, 4,8 GHz AVX, fast frekvens)
hovedkort ASUS MAXIMUS XI APEX
random access memory G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 GB (3200 MHz, CL14)
ROM Intel SSD 760p, 1024 GB
Strømforsyningsenhet Corsair AX1200i, 1200 W
CPU kjølesystem Corsair Hydro Series H115i
bolig CoolerMaster testbenk V1.0
monitor NEC EA244UHD
Operativsystem Windows 10 Pro x64
Programvare for AMD GPUer
Alle skjermkort AMD Radeon Software Adrenalin 2020 Edition 20.8.3
NVIDIA GPU-programvare
Alle skjermkort NVIDIA GeForce Game Ready Driver 452.06

Målinger av bildefrekvens og reaksjonstid i alle spill ble utført ved maksimal eller nær maksimal grafikkkvalitetsinnstillinger for å a) fremheve forskjellene mellom de sammenlignede enhetene, b) oppnå resultater både ved høye bildefrekvenser som overstiger skjermens oppdateringsfrekvens, og omvendt. Spesielt for denne artikkelen lånte vi en rask Samsung Odyssey 9-skjerm (C32G75TQSI) med WQHD-oppløsning og en oppdateringsfrekvens på 240 Hz – maksimum for moderne forbrukerskjermer inntil 360 Hz standardskjermer ble tilgjengelig for salg. Adaptive oppdateringsfrekvensteknologier (G-SYNC og FreeSync) er deaktivert.

Resultatene av hver enkelt test (et spesifikt skjermkort i et spesifikt spill med eller uten en anti-lag driverinnstilling) ble oppnådd på en prøve på 50 målinger.

spill API Innstillinger Fullskjerm kantutjevnelse
Counter-Strike: Global Offensive DirectX 11 Maks. Grafikkkvalitet (bevegelsesuskarphet av) 8x MSAA
DOTA 2 Best utseende kvalitet FXAA
Watch Episk kvalitet, 100 % gjengivelsesskala SMAA Medium
Verdsette Maks. Grafikkkvalitet (vignett av) MSAA x4

#Testdeltakere

Ca. I parentes etter navnene på skjermkortene er basis- og forsterkningsfrekvensene angitt i henhold til spesifikasjonene til hver enhet. Ikke-referansedesign skjermkort bringes i samsvar med referanseparametere (eller nær sistnevnte), forutsatt at dette kan gjøres uten å manuelt redigere klokkefrekvenskurven. Ellers (akseleratorer i GeForce 16-serien, samt GeForce RTX Founders Edition) brukes produsentens innstillinger.

#Counter-Strike: Global Offensive

Testresultatene i det aller første spillet, CS:GO, ga mye til ettertanke. Dette er det letteste prosjektet i hele testprogrammet, der grafikkort som GeForce RTX 2080 Ti når bildefrekvenser over 600 FPS og selv de svakeste av de åtte testdeltakerne (GeForce GTX 1650 SUPER og Radeon RX 590) holder godt over oppdateringsfrekvenser monitor ved 240 Hz. Likevel illustrerte CS:GO perfekt tesen om at å øke FPS over monitorfrekvensen slett ikke er ubrukelig for å redusere etterslep. Hvis vi sammenligner skjermkortene i toppgruppen (GeForce RTX 2070 SUPER og høyere, samt Radeon RX 5700 XT) med de lavere modellene (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT og Radeon RX 590), vi snakker om en og en halv ganger forskjell generelt tiden som gikk fra du trykker på museknappen til blitsen vises på skjermen. I absolutte termer når forsterkningen 9,2 ms - ved første øyekast, ikke mye, men for eksempel oppnås nesten samme mengde ved å endre skjermens oppdateringsfrekvens fra 60 til 144 Hz (9,7 ms)!

Når det gjelder hvordan ventetiden til skjermkort som tilhører samme brede priskategori, men basert på brikker fra forskjellige produsenter, sammenlignes, fant vi ikke signifikante forskjeller i hver gruppe. Det samme gjelder alternativer i akseleratordrivere designet for å redusere etterslep ved å redusere rammekøen i Direct3D 11. På CS:GO (i hvert fall under disse testforholdene) har de som regel ingen nyttig effekt. I gruppen med svake skjermkort er det en liten forskyvning i responstid, men kun GeForce GTX 1650 SUPER oppnådde statistisk signifikans i resultatene.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Ca. Mettede fargeikoner indikerer resultater med standard driverinnstillinger. Falmede ikoner indikerer at Low Latency Mode (Ultra) eller Radeon Anti-Lag er aktivert. Vær oppmerksom på den vertikale skalaen - den starter over null.

Counter-Strike: Global Offensive
Som standard Lav latensmodus (Ultra) / Radeon Anti-Lag
Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms
GeForce RTX 2080 Ti 642 20,7 6,5 630 21 4,6
GeForce RTX 2070 SUPER 581 20,8 5 585 21,7 5,6
GeForce RTX 2060 SUPER 466 23,9 4,6 478 22,4 5,8
GeForce GTX 1650 SUPER 300 27,6 4,3 275 23,2 5,4
Radeon RX 5700 XT 545 20,4 5,8 554 21,5 4,4
Radeon RX 5500 XT 323 29,3 14 316 26,5 14,5
Radeon RX 590 293 29,3 5,8 294 27,5 4,9
GeForce GTX 1060 (6 GB) 333 29,6 7,9 325 28,2 12,9

Ca. Statistisk signifikante forskjeller i gjennomsnittlig reaksjonstid (i henhold til Students t-test) er uthevet med rødt.

#DOTA 2

Selv om DOTA 2 også regnes som et lite krevende spill etter dagens standarder, gjør det det vanskeligere for moderne skjermkort å nå flere hundre FPS. Dermed falt alle budsjettløsninger som deltok i sammenligningen under bildefrekvensen på 240 bilder per sekund, tilsvarende skjermens oppdateringsfrekvens. Kraftige akseleratorer, som starter med Radeon RX 5700 XT og GeForce RTX 2060 SUPER, produserer over 360 FPS her, men i motsetning til CS:GO dirigerer DOTA 2 den overskytende ytelsen til GPUen mer effektivt til å bekjempe lag. I forrige spill var et skjermkort på Radeon RX 5700 XT-nivået nok til at det ikke var noen vits i å øke ytelsen ytterligere av hensyn til reaksjonstiden. Her fortsetter ventetiden å avta på kraftigere skjermkort opp til GeForce RTX 2080 Ti.

Det skal bemerkes at det er resultatene til Radeon RX 5700 XT i dette spillet som reiser spørsmål. AMDs nåværende flaggskip overgår langt til og med GeForce RTX 2060 i ventetid og presterte ikke bedre enn yngre modeller, til tross for høyere bildefrekvens. Men å redusere rammegjengivelseskøen i DOTA 2 er veldig nyttig. Effekten er ikke så stor at selv erfarne cyberidrettsutøvere vil merke den, men den er statistisk signifikant for fire av åtte skjermkort 

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Ca. Mettede fargeikoner indikerer resultater med standard driverinnstillinger. Falmede ikoner indikerer at Low Latency Mode (Ultra) eller Radeon Anti-Lag er aktivert. Vær oppmerksom på den vertikale skalaen - den starter over null.

DOTA 2
Som standard Lav latensmodus (Ultra) / Radeon Anti-Lag
Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms
GeForce RTX 2080 Ti 418 17,7 2 416 17,4 1,4
GeForce RTX 2070 SUPER 410 18,2 1,6 409 17,6 1,6
GeForce RTX 2060 SUPER 387 20,8 1,5 385 19,8 1,6
GeForce GTX 1650 SUPER 230 27,9 2,5 228 27,9 2,3
Radeon RX 5700 XT 360 26,3 1,5 363 25,2 1,3
Radeon RX 5500 XT 216 25,4 1,2 215 21,7 1,4
Radeon RX 590 224 25 1,4 228 21,8 1,3
GeForce GTX 1060 (6 GB) 255 25,8 1,9 254 25,8 1,7

Ca. Statistisk signifikante forskjeller i gjennomsnittlig reaksjonstid (i henhold til Students t-test) er uthevet med rødt.

#Watch

Overwatch er det tyngste av de fire testspillene med maksimal grafikkkvalitet med fullskjerms anti-aliasing aktivert. Det er ikke overraskende at hver gigaflop med GPU-ytelse her fordeler responstiden. Utvalget av lagverdier i Overwatch mellom skjermkort som GeForce RTX 2080 Ti og Radeon RX 5500 XT er todelt. Tallene viser også at kraftigere skjermkort enn GeForce RTX 2070 SUPER bare øker FPS, men ikke kan fremskynde reaksjonen selv nominelt. Men å erstatte Radeon RX 5700 XT eller GeForce RTX 2060 SUPER med den beryktede RTX 2070 SUPER i teorien er fornuftig for å redusere etterslepet til et minimum og samtidig opprettholde høy grafikkkvalitet. I tillegg, i Overwatch, presterte en av akseleratorene på "røde" brikker igjen dårlig. Denne gangen Radeon RX 5500 XT, som betraktelig overgår alle andre budsjettløsninger når det gjelder gjennomsnittlig responsforsinkelse.

Overwatch bidro nok en gang til å bevise at a) hastigheten på skjermkortet, selv ved høye bildefrekvenser, fortsatt påvirker mengden lag, b) en formelt kraftigere GPU garanterer ikke lavere responsforsinkelser på input. I tillegg til alt dette demonstrerte spillet standarddriften til anti-lag-innstillingene til grafikkdriveren. Hvis du spiller på relativt svake skjermkort (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT og Radeon 590), kan en redusert framekø redusere lag med 9 til 17 %. Vel, for kraftig maskinvare er den fortsatt helt ubrukelig.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Ca. Mettede fargeikoner indikerer resultater med standard driverinnstillinger. Falmede ikoner indikerer at Low Latency Mode (Ultra) eller Radeon Anti-Lag er aktivert. Vær oppmerksom på den vertikale skalaen - den starter over null.

Watch
Som standard Lav latensmodus (Ultra) / Radeon Anti-Lag
Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms
GeForce RTX 2080 Ti 282 35,6 10,4 300 34,2 9,6
GeForce RTX 2070 SUPER 225 35,8 5,1 228 36,7 8,6
GeForce RTX 2060 SUPER 198 41,2 6,4 195 38,8 9
GeForce GTX 1650 SUPER 116 58,2 8 115 51 8,7
Radeon RX 5700 XT 210 39,6 7,2 208 41,4 7,2
Radeon RX 5500 XT 120 69,7 13,2 120 63,5 15,1
Radeon RX 590 111 61,2 8,6 111 51,7 7,7
GeForce GTX 1060 (6 GB) 121 60,7 8,7 118 50,7 6,5

Ca. Statistisk signifikante forskjeller i gjennomsnittlig reaksjonstid (i henhold til Students t-test) er uthevet med rødt.

#Verdsette

Valorant skilte seg ut blant testspillene med utmerket – eller omvendt, middelmådig – grafikkoptimalisering. Faktum er at til tross for den enorme forskjellen i den potensielle ytelsen til test-GPUene, i henhold til estimater for bildefrekvens, var de alle konsentrert i området fra 231 til 309 FPS. Og dette til tross for at vi bevisst valgte den mest ressurskrevende scenen for latensmålinger for å øke de forventede forskjellene. Når det gjelder fordelingen av etterslep-verdier, er Valorant imidlertid noe lik CS:GO. I dette spillet er eiere av en GeForce RTX 2060 SUPER eller Radeon RX 5700 XT på lik linje med brukere av dyrere og kraftigere akseleratorer. Selv de yngre skjermkortene til GeForce GTX 1650 SUPER og Radeon RX 5500 XT-klassen er ikke så langt bak de eldre. Gitt disse inngangene, er det ikke overraskende at det er ubrukelig å begrense Direct3D-rammekøen i Valorant: de tilsvarende innstillingene har en statistisk signifikant effekt for utvalgte skjermkort, men størrelsen er absolutt ubetydelig.

Ny artikkel: Fra klikk til skudd - maskinvaretesting av lag i spill

Ca. Mettede fargeikoner indikerer resultater med standard driverinnstillinger. Falmede ikoner indikerer at Low Latency Mode (Ultra) eller Radeon Anti-Lag er aktivert. Vær oppmerksom på den vertikale skalaen - den starter over null.

Verdsette
Som standard Lav latensmodus (Ultra) / Radeon Anti-Lag
Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms Gjennomsnittlig bildefrekvens, FPS Gjennomsnittlig reaksjonstid, ms Kunst. reaksjonstidsavvik, ms
GeForce RTX 2080 Ti 309 19,3 2,6 306 20,2 3
GeForce RTX 2070 SUPER 293 19,2 3,1 289 19,5 2,9
GeForce RTX 2060 SUPER 308 20,7 2,7 310 19,6 2,9
GeForce GTX 1650 SUPER 251 24,5 2,9 243 23,6 2,5
Radeon RX 5700 XT 256 21,9 3,3 257 21,9 2,7
Radeon RX 5500 XT 258 23,5 2,8 262 22,8 2,6
Radeon RX 590 237 25,8 2,7 234 24,3 2,5
GeForce GTX 1060 (6 GB) 269 23,5 2,8 268 23,4 4,4

Ca. Statistisk signifikante forskjeller i gjennomsnittlig reaksjonstid (i henhold til Students t-test) er uthevet med rødt.

#Funn

Måling av responsetterslep i spill med maskinvare har gitt rike resultater som, ærlig talt, setter spørsmålstegn ved bransjens aksepterte metoder for å vurdere ytelsen til skjermkort, når den eneste målte parameteren har vært bildefrekvensen i flere tiår. Selvfølgelig er FPS og lag tett korrelert, men i det minste i eSports-spill, når det er kamp for hvert millisekund med latens, tillater ikke lenger bildefrekvens en omfattende beskrivelse av ytelsen. 

I en kort studie av populære flerspillerprosjekter oppdaget vi flere interessante fenomener. For det første tilbakeviser dataene våre den populære oppfatningen om at det ikke er noen vits i å øke FPS utover verdiene som tilsvarer skjermens oppdateringsfrekvens. Selv på en veldig rask 240Hz-skjerm kan spill som Counter-Strike: Global Offensive redusere etterslepet med en og en halv gang ved å oppgradere fra et budsjett-grafikkort til en toppmodell. Vi snakker om samme gevinst i reaksjonstid som for eksempel ved flytting fra en 60 Hz skjerm til 144 Hz.

På den annen side kan frameraten fortsatt være overdreven når et kraftigere skjermkort bare varmer opp luften forgjeves og ikke lenger bidrar til å bekjempe de allerede ekstremt lave latensene. I alle spillene vi testet på 1080p, fant vi ingen meningsfull forskjell mellom GeForce RTX 2070 SUPER og GeForce RTX 2080 Ti. Den absolutte minimumsresponstiden vi registrerte var 17,7 ms og ble oppnådd i DOTA 2. Dette er forresten ikke en så beskjeden verdi, som om den blir oversatt til en oppdateringsfrekvens tilsvarer 57 hertz. Så følgende konklusjon antyder seg selv: de kommende 360 ​​Hz-skjermene vil definitivt finne bruk i konkurrerende spill - dette er en direkte måte å redusere etterslep når maskinvaren allerede har brukt opp sine muligheter og er begrenset av den tykke programvarestabelen til operativsystemet, grafikk API, drivere og selve spillet.

Deretter sjekket vi om det er noen fordel med anti-latency-programvare, som så langt koker ned til å begrense rammegjengivelseskøen i applikasjoner som er avhengige av Direct3D 9 og 11 grafikk API - den beryktede Radeon Anti-Lag i AMD-driveren og Low Latensmodus i NVIDIA. Som det viste seg, fungerer begge "teknologiene" virkelig, men kan gi konkrete fordeler bare under forhold der flaskehalsen til systemet er GPUen, og ikke den sentrale prosessoren. I vårt testsystem med en overklokket Intel Core i7-9900K-prosessor hjalp slike verktøy rimelige skjermkort med middels ytelse (Radeon RX 5500 XT, GeForce GTX 1650 SUPER og lignende raske akseleratorer fra forrige generasjon), men er helt meningsløse når du har en kraftig GPU. Men når anti-lag-innstillinger fungerer, kan de være ekstremt effektive, og redusere ventetiden i noen Overwatch med opptil 10 ms, eller 17 % av originalen.

Til slutt fant vi visse forskjeller mellom grafikkort fra forskjellige produsenter som ikke kunne forutsies ut fra bildefrekvenser alene. Dermed gir AMD-skjermkort noen ganger den samme korte latensen som formelt mer produktive "grønne" enheter (eksempel: Radeon RX 5700 XT i CS:GO), og i andre tilfeller fungerer de mistenkelig sakte (samme modell i DOTA 2). Vi vil ikke bli overrasket over at hvis teknikker for måling av maskinvareforsinkelse som LDAT blir utbredt, vil ivrige cyberidrettsutøvere som kjemper for den minste fordel over motstanderne begynne å velge skjermkort for et spesifikt spill - avhengig av hvilken modell som gir kortest reaksjonstid.

Men viktigst av alt, takket være LDAT, har vi muligheten til å gjennomføre mer dyptgående latensstudier. Det vi har gjort i denne forhåndsvisningen er bare toppen av isfjellet. Emner som virkningen av adaptive synkroniseringsteknologier (G-SYNC og FreeSync) på lag, begrensende FPS i spillet, avhengighet av CPU-ytelse og mye mer forblir utenfor rammen. I tillegg skal vi finne ut om høye bildefrekvenser på hundrevis av FPS og følgelig rask respons på input er oppnåelig ikke bare i konkurrerende spill som er spesielt optimalisert for disse kriteriene, men også i AAA-prosjekter som belaster systemet mye. mer. Trenger derfor den gjennomsnittlige spilleren, og ikke mesteren, en banebrytende skjerm med en oppdateringsfrekvens på 240 eller til og med 360 Hz? Vi vil svare på disse spørsmålene i fremtidig arbeid med LDAT.

Kilde: 3dnews.ru

Legg til en kommentar