Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Sedan urminnes tider har datorers och enskilda systemkomponenters spelförmåga mätts i bildrutor per sekund, och guldstandarden för testning är långsiktiga riktmärken som låter dig jämföra olika enheter vad gäller hållbar prestanda. Men på senare år har GPU-prestanda börjat ses från en annan vinkel. I recensioner av grafikkort har grafer över renderingslängden för enskilda bildrutor dykt upp, frågan om FPS-stabilitet har kommit till full uppmärksamhet, och genomsnittliga bildhastigheter åtföljs nu vanligtvis av minimivärden, filtrerade av 99:e percentilen av bildtid. Förbättringar av testmetoder syftar till att hitta förseningar som löser sig i den genomsnittliga bildhastigheten, men som ibland är ganska märkbara för användarens blotta öga.

Däremot ger alla mjukvarumätverktyg som körs inuti testsystemet endast en indirekt uppskattning av den dolda variabeln som är av avgörande betydelse för ett bekvämt spel - fördröjningstiden mellan att trycka på ett tangentbord eller en musknapp och att byta bild på skärmen. Du måste följa en enkel regel, som säger att ju högre FPS i spelet och ju stabilare det är, desto kortare blir svarstiden på input. Dessutom har en del av problemet redan lösts av snabba monitorer med en uppdateringsfrekvens på 120, 144 eller 240 Hz, för att inte tala om framtida 360 Hz-skärmar.

Spelare, särskilt spelare av konkurrenskraftiga flerspelarspel som letar efter minsta fördel i hårdvara gentemot sina motståndare och är villiga att bygga anpassade överklockade datorer för dussintals extra FPS i CS:GO, har dock ännu inte haft möjlighet att direkt utvärdera ingångsfördröjning. När allt kommer omkring är sådana exakta och arbetskrävande metoder som att filma skärmen med en höghastighetskamera endast tillgängliga i laboratorieförhållanden.

Men nu kommer allt att förändras – möt LDAT (Latency Display Analysis Tool), ett universellt hårdvaruverktyg för att mäta spellatens. Läsare som är bekanta med akronymer som FCAT kan gissa att detta är en NVIDIA-produkt. Det stämmer, företaget erbjöd enheten till utvalda IT-publikationer, inklusive redaktörerna för 3DNews. Låt oss se om en ny mätteknik kan kasta lite ljus över det mystiska fenomenet input lag och hjälpa spelare att välja komponenter för eSports-tävlingar.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

#LDAT - hur det fungerar

Arbetsprincipen för LDAT är mycket enkel. Kärnan i systemet är en höghastighetsljussensor med en mikrokontroller, som är monterad på önskad punkt på skärmen. En modifierad mus är ansluten till den, och kontrollmjukvaran via USB-gränssnittet känner av tiden mellan ett tryck på en tangent och ett lokalt hopp i bildens ljusstyrka. Så om vi sätter en sensor ovanpå pipan på en pistol i ett skjutspel, får vi den exakta mängden latens som krävs för bildskärmen, datorn och hela mjukvarustacken (inklusive drivrutiner, spelet, och operativsystemet) för att svara på användarinmatning.

Det fina med detta tillvägagångssätt är att driften av LDAT är helt oberoende av vilken hårdvara och vilka program som är installerade på datorn. Det faktum att NVIDIA sysslar med produktionen av ytterligare ett mätverktyg, som dessutom endast är tillgängligt för en begränsad krets IT-journalister, antyder att företaget försöker lyfta fram fördelarna med sina egna produkter i jämförelse med konkurrenterna (detta hände redan med FCAT för flera år sedan). Faktum är att 360-Hz-skärmar med G-SYNC-stöd är på väg att dyka upp på marknaden, och spelutvecklare kommer att börja använda NVIDIA Reflex-bibliotek som syftar till att minska latensen i spel som kör Direct3D 12. Vi är dock övertygade om att LDAT själv inte tillhandahåller eventuella eftergifter "gröna" grafikkort och förvränger inte resultaten av "röda" eftersom enheten inte har någon tillgång till konfigurationen av den experimentella hårdvaran när den är ansluten med en USB-kabel till en annan maskin som kör kontrollprogramvara.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Naturligtvis öppnar LDAT enorma möjligheter inom sitt tillämpningsområde. Jämför spelmonitorer (och även TV-apparater) med en eller annan uppdateringsfrekvens och olika typer av matriser, kolla hur adaptiva synkroniseringsteknologier G-SYNC och FreeSync påverkar latens, frame scaling med hjälp av ett grafikkort eller monitor – allt detta har blivit möjligt. Men först bestämde vi oss för att fokusera på en mer specifik uppgift och testa hur flera konkurrenskraftiga spel designade för hög FPS och låg reaktionstid fungerar på grafikkort i olika priskategorier. Och om vi formulerar problemet mer exakt är vi intresserade av två huvudfrågor: är ett överskott av framerate en garanti för låga latenser och under vilka förhållanden är det meningsfullt att öka det (och därför köpa ett kraftfullare grafikkort). I synnerhet, är det användbart att överskrida bildfrekvensen som motsvarar skärmens uppdateringsfrekvens om du är den stolta ägaren av en höghastighetsskärm på 240 Hz?

För att testa valde vi fyra populära flerspelarprojekt - CS:GO, DOTA 2, Overwatch och Valorant, som är tillräckligt krävande för moderna GPU:er, inklusive budgetmodeller, för att uppnå prestanda på hundratals FPS. Samtidigt gör de listade spelen det möjligt att enkelt organisera en miljö för tillförlitlig mätning av reaktionstid, när konstanta förhållanden är viktigast: samma position för karaktären, ett vapen i varje test, etc. Av denna anledning har vi var tvungen att tills vidare skjuta upp benchmarks i spel som PlayerUnknown's Battlegrounds och Fortnite. PUBG har helt enkelt inte förmågan att isolera sig från andra spelare, inte ens på testområdet, och Fortnites Battle Lab-läge för en spelare är fortfarande inte immunt mot plundringsolyckor och gör det därför omöjligt att testa flera GPU:er med samma vapen i en rimlig tid.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Dessutom har de utvalda spelen fördelen av att köra Direct3D 11 API, som, till skillnad från Direct3D 12, tillåter grafikkortsdrivrutinen att sätta gränser för renderingskön av ramar som CPU:n kan förbereda för rendering till GPU:n i mjukvarans grafikpipeline .

Under standardförhållanden, särskilt när flaskhalsen i systemet är datorresurserna på grafikkortet, ökar bildkön upp till tre som standard eller, om det krävs av applikationen, ännu mer. Således säkerställer Direct3D kontinuerlig GPU-belastning och en konstant renderingshastighet. Men detta har bieffekten att svaret på input fördröjs, eftersom API:et inte tillåter att förplanerade ramar kastas ut ur kön. Det är just för att bekämpa eftersläpning som motsvarande inställningar i grafikkortsdrivrutinerna syftar till, vilka populariserades av AMD under varumärket Radeon Anti-Lag, och sedan introducerade NVIDIA ett liknande alternativ för låg latensläge.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Sådana åtgärder är dock inte ett universellt botemedel mot fördröjningar: till exempel, om spelets prestanda begränsas av funktionerna hos den centrala snarare än grafikprocessorn, gör en kort bildkö (eller dess fullständiga frånvaro) bara CPU-flaskhalsen smalare. Utöver resten av testprogrammet har vi för avsikt att ta reda på om Radeon Anti-Lag och Low Latency Mode "teknologier" har påtagliga fördelar, i vilka spel och på vilken hårdvara.

#Testbänk, testmetodik

Testbänk
CPU Intel Core i9-9900K (4,9 GHz, 4,8 GHz AVX, fast frekvens)
moderkort ASUS MAXIMUS XI APEX
Operativt minne G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 GB (3200 MHz, CL14)
ПЗУ Intel SSD 760p, 1024 GB
Strömförsörjning Corsair AX1200i, 1200 W
CPU kylsystem Corsair Hydro Series H115i
hölje CoolerMaster Testbänk V1.0
bildskärm NEC EA244UHD
Operativsystem Windows 10 Pro x64
Programvara för AMD GPU
Alla grafikkort AMD Radeon Software Adrenalin 2020 Edition 20.8.3
NVIDIA GPU-programvara
Alla grafikkort NVIDIA GeForce Game Ready-drivrutin 452.06

Mätningar av bildfrekvens och reaktionstid i alla spel utfördes vid maximala eller nära maximala grafikkvalitetsinställningar för att a) markera skillnaderna mellan de jämförda enheterna, b) få resultat både vid höga bildfrekvenser som överstiger skärmens uppdateringsfrekvens, och vice versa. Speciellt för den här artikeln lånade vi en snabb Samsung Odyssey 9-skärm (C32G75TQSI) med WQHD-upplösning och en uppdateringsfrekvens på 240 Hz – maxvärdet för moderna konsumentskärmar tills 360 Hz standardskärmar blev tillgängliga för försäljning. Teknik för adaptiv uppdateringsfrekvens (G-SYNC och FreeSync) har inaktiverats.

Resultaten av varje enskilt test (ett specifikt grafikkort i ett specifikt spel med eller utan en anti-lag-drivrutininställning) erhölls på ett urval av 50 mätningar.

spel API Inställningar Helskärmskantutjämning
Counter-Strike: Global Offensive DirectX 11 Max. Grafikkvalitet (Rörelseoskärpa av) 8x MSAA
DOTA 2 Bäst snygg kvalitet FXAA
Overwatch Episk kvalitet, 100 % renderingsskala SMAA Medium
värdesätta Max. Grafikkvalitet (vinjett av) MSAA x4

#Testdeltagare

Cirka. Inom parentes efter namnen på grafikkorten anges bas- och boostfrekvenserna enligt specifikationerna för varje enhet. Icke-referensdesignade grafikkort bringas i linje med referensparametrar (eller nära de senare), förutsatt att detta kan göras utan att manuellt redigera klockfrekvenskurvan. I övrigt (Acceleratorer i GeForce 16-serien, samt GeForce RTX Founders Edition) används tillverkarens inställningar.

#Counter-Strike: Global Offensive

Testresultaten i det allra första spelet, CS:GO, gav en hel del att tänka på. Detta är det lättaste projektet i hela testprogrammet, där grafikkort som GeForce RTX 2080 Ti når bildhastigheter över 600 FPS och även de svagaste av de åtta testdeltagarna (GeForce GTX 1650 SUPER och Radeon RX 590) håller långt över uppdateringsfrekvensen monitor vid 240 Hz. Ändå illustrerade CS:GO perfekt tesen att öka FPS över monitorfrekvensen inte alls är värdelöst för att minska fördröjningar. Om vi ​​jämför grafikkorten i toppgruppen (GeForce RTX 2070 SUPER och högre, samt Radeon RX 5700 XT) med de lägre modellerna (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT och Radeon RX 590), vi pratar om en och en halv gångers skillnad i allmänhet den tid som förflutit från att man tryckte på musknappen tills blixten dyker upp på skärmen. I absoluta tal når förstärkningen 9,2 ms - vid första anblicken inte mycket, men till exempel erhålls nästan samma mängd genom att ändra skärmens uppdateringshastighet från 60 till 144 Hz (9,7 ms)!

När det gäller hur latensen för grafikkort som tillhör samma breda priskategori, men baserat på chips från olika tillverkare, jämför, hittade vi inte signifikanta skillnader i varje grupp. Detsamma gäller alternativ i acceleratordrivrutiner som är utformade för att minska eftersläpningen genom att minska bildkön i Direct3D 11. På CS:GO (åtminstone under dessa testförhållanden) har de som regel ingen användbar effekt. I gruppen av svaga grafikkort sker en liten förändring i svarstid, men endast GeForce GTX 1650 SUPER uppnådde statistisk signifikans i resultaten.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Cirka. Mättade färgikoner indikerar resultat med standardinställningar för drivrutinen. Blekta ikoner indikerar att Low Latency Mode (Ultra) eller Radeon Anti-Lag är aktiverat. Var uppmärksam på den vertikala skalan - den börjar över noll.

Counter-Strike: Global Offensive
Som standard Låg latensläge (Ultra) / Radeon Anti-Lag
Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms
GeForce RTX 2080 Ti 642 20,7 6,5 630 21 4,6
GeForce RTX 2070 SUPER 581 20,8 5 585 21,7 5,6
GeForce RTX 2060 SUPER 466 23,9 4,6 478 22,4 5,8
GeForce GTX 1650 SUPER 300 27,6 4,3 275 23,2 5,4
Radeon RX 5700 XT 545 20,4 5,8 554 21,5 4,4
Radeon RX 5500 XT 323 29,3 14 316 26,5 14,5
Radeon RX 590 293 29,3 5,8 294 27,5 4,9
GeForce GTX 1060 (6 GB) 333 29,6 7,9 325 28,2 12,9

Cirka. Statistiskt signifikanta skillnader i den genomsnittliga reaktionstiden (enligt Students t-test) är markerade med rött.

#DOTA 2

Även om DOTA 2 också anses vara ett föga krävande spel med nuvarande standarder, gör det det svårare för moderna grafikkort att nå flera hundra FPS. Således sjönk alla budgetlösningar som deltog i jämförelsen under bildfrekvensen på 240 bilder per sekund, vilket motsvarar skärmens uppdateringsfrekvens. Kraftfulla acceleratorer, som börjar med Radeon RX 5700 XT och GeForce RTX 2060 SUPER, producerar över 360 FPS här, men, till skillnad från CS:GO, riktar DOTA 2 mer effektivt överprestanda hos GPU:n till att bekämpa fördröjning. I det förra spelet räckte det med ett grafikkort på nivån Radeon RX 5700 XT så att det inte var någon idé att öka prestandan ytterligare för reaktionstidens skull. Här fortsätter latensen att minska på kraftfullare grafikkort upp till GeForce RTX 2080 Ti.

Det bör noteras att det är resultaten av Radeon RX 5700 XT i detta spel som väcker frågor. AMD:s nuvarande flaggskepp överträffar till och med GeForce RTX 2060 i latenstid och presterade inte bättre än yngre modeller, trots den högre bildhastigheten. Men att minska bildåtergivningskön i DOTA 2 är verkligen användbart. Effekten är inte så stor att även erfarna cyberatleter kommer att märka det, men den är statistiskt signifikant för fyra av åtta grafikkort 

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Cirka. Mättade färgikoner indikerar resultat med standardinställningar för drivrutinen. Blekta ikoner indikerar att Low Latency Mode (Ultra) eller Radeon Anti-Lag är aktiverat. Var uppmärksam på den vertikala skalan - den börjar över noll.

DOTA 2
Som standard Låg latensläge (Ultra) / Radeon Anti-Lag
Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms
GeForce RTX 2080 Ti 418 17,7 2 416 17,4 1,4
GeForce RTX 2070 SUPER 410 18,2 1,6 409 17,6 1,6
GeForce RTX 2060 SUPER 387 20,8 1,5 385 19,8 1,6
GeForce GTX 1650 SUPER 230 27,9 2,5 228 27,9 2,3
Radeon RX 5700 XT 360 26,3 1,5 363 25,2 1,3
Radeon RX 5500 XT 216 25,4 1,2 215 21,7 1,4
Radeon RX 590 224 25 1,4 228 21,8 1,3
GeForce GTX 1060 (6 GB) 255 25,8 1,9 254 25,8 1,7

Cirka. Statistiskt signifikanta skillnader i den genomsnittliga reaktionstiden (enligt Students t-test) är markerade med rött.

#Overwatch

Overwatch är det tyngsta av de fyra testspelen med maximal grafikkvalitet med helskärmskantutjämning aktiverad. Det är inte förvånande att varje gigaflop av GPU-prestanda här gynnar svarstiden. Utbudet av fördröjningsvärden i Overwatch mellan grafikkort som GeForce RTX 2080 Ti och Radeon RX 5500 XT är dubbelt. Siffrorna visar också att kraftfullare grafikkort än GeForce RTX 2070 SUPER bara ökar FPS, men kan inte påskynda reaktionen ens nominellt. Men att ersätta Radeon RX 5700 XT eller GeForce RTX 2060 SUPER med den ökända RTX 2070 SUPER i teorin är vettigt för att minska eftersläpningen till ett minimum samtidigt som hög grafikkvalitet bibehålls. Dessutom, i Overwatch, fungerade en av acceleratorerna på "röda" marker igen dåligt. Den här gången Radeon RX 5500 XT, som avsevärt överträffar alla andra budgetlösningar vad gäller genomsnittlig svarslatens.

Overwatch hjälpte återigen till att bevisa att a) hastigheten på grafikkortet, även vid höga bildhastigheter, fortfarande påverkar mängden fördröjning, b) en formellt kraftfullare GPU garanterar inte lägre svarsfördröjningar på ingång. Utöver allt detta visade spelet standardfunktionen för anti-lag-inställningarna för grafikdrivrutinen. Om du spelar på relativt svaga grafikkort (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT och Radeon 590) kan en minskad bildkö minska fördröjningen med 9 till 17 %. Tja, för kraftfull hårdvara är den fortfarande helt värdelös.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Cirka. Mättade färgikoner indikerar resultat med standardinställningar för drivrutinen. Blekta ikoner indikerar att Low Latency Mode (Ultra) eller Radeon Anti-Lag är aktiverat. Var uppmärksam på den vertikala skalan - den börjar över noll.

Overwatch
Som standard Låg latensläge (Ultra) / Radeon Anti-Lag
Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms
GeForce RTX 2080 Ti 282 35,6 10,4 300 34,2 9,6
GeForce RTX 2070 SUPER 225 35,8 5,1 228 36,7 8,6
GeForce RTX 2060 SUPER 198 41,2 6,4 195 38,8 9
GeForce GTX 1650 SUPER 116 58,2 8 115 51 8,7
Radeon RX 5700 XT 210 39,6 7,2 208 41,4 7,2
Radeon RX 5500 XT 120 69,7 13,2 120 63,5 15,1
Radeon RX 590 111 61,2 8,6 111 51,7 7,7
GeForce GTX 1060 (6 GB) 121 60,7 8,7 118 50,7 6,5

Cirka. Statistiskt signifikanta skillnader i den genomsnittliga reaktionstiden (enligt Students t-test) är markerade med rött.

#värdesätta

Valorant stack ut bland testspelen med utmärkt - eller tvärtom medioker - grafikoptimering. Faktum är att, trots den enorma skillnaden i den potentiella prestandan för test-GPU:erna, enligt bildhastighetsuppskattningar, var de alla koncentrerade i intervallet från 231 till 309 FPS. Och detta trots att vi medvetet valt ut den mest resurskrävande scenen för latensmätningar för att förstärka de förväntade skillnaderna. Men när det gäller fördelningen av eftersläpningsvärden påminner Valorant något om CS:GO. I det här spelet är ägare av en GeForce RTX 2060 SUPER eller Radeon RX 5700 XT jämställda med användare av dyrare och kraftfullare acceleratorer. Även de yngre grafikkorten i klassen GeForce GTX 1650 SUPER och Radeon RX 5500 XT ligger inte så långt efter de äldre. Med tanke på dessa ingångar är det inte förvånande att det är värdelöst att begränsa Direct3D-bildkön i Valorant: motsvarande inställningar har en statistiskt signifikant effekt för utvalda grafikkort, men dess storlek är absolut försumbar.

Ny artikel: Från klick till bild - hårdvarutestning av lagg i spel

Cirka. Mättade färgikoner indikerar resultat med standardinställningar för drivrutinen. Blekta ikoner indikerar att Low Latency Mode (Ultra) eller Radeon Anti-Lag är aktiverat. Var uppmärksam på den vertikala skalan - den börjar över noll.

värdesätta
Som standard Låg latensläge (Ultra) / Radeon Anti-Lag
Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms Genomsnittlig bildfrekvens, FPS Genomsnittlig reaktionstid, ms Konst. reaktionstidsavvikelse, ms
GeForce RTX 2080 Ti 309 19,3 2,6 306 20,2 3
GeForce RTX 2070 SUPER 293 19,2 3,1 289 19,5 2,9
GeForce RTX 2060 SUPER 308 20,7 2,7 310 19,6 2,9
GeForce GTX 1650 SUPER 251 24,5 2,9 243 23,6 2,5
Radeon RX 5700 XT 256 21,9 3,3 257 21,9 2,7
Radeon RX 5500 XT 258 23,5 2,8 262 22,8 2,6
Radeon RX 590 237 25,8 2,7 234 24,3 2,5
GeForce GTX 1060 (6 GB) 269 23,5 2,8 268 23,4 4,4

Cirka. Statistiskt signifikanta skillnader i den genomsnittliga reaktionstiden (enligt Students t-test) är markerade med rött.

#Resultat

Att mäta responsfördröjning i spel med hårdvara har gett rika resultat som ärligt talat ifrågasätter branschens accepterade metoder för att bedöma prestanda hos grafikkort, när den enda uppmätta parametern har varit bildhastigheten i decennier. Naturligtvis är FPS och fördröjning nära korrelerade, men åtminstone i eSports-spel, när det kämpas för varje millisekund av latens, tillåter inte bildfrekvensen längre en heltäckande beskrivning av prestanda. 

I en kort studie av populära flerspelarprojekt upptäckte vi flera intressanta fenomen. För det första motbevisar våra data den populära åsikten att det inte är någon mening att öka FPS utöver de värden som motsvarar skärmens uppdateringsfrekvens. Även på en mycket snabb 240Hz-skärm kan spel som Counter-Strike: Global Offensive minska fördröjningen med en och en halv gånger genom att uppgradera från ett budgetgrafikkort till en toppmodell. Vi pratar om samma vinst i reaktionstid som till exempel när man går från en 60 Hz-skärm till 144 Hz.

Å andra sidan kan bildhastigheten fortfarande vara överdriven när ett kraftfullare grafikkort bara värmer upp luften förgäves och inte längre hjälper till att bekämpa de redan extremt låga latenserna. I alla spel vi testade på 1080p hittade vi ingen meningsfull skillnad mellan GeForce RTX 2070 SUPER och GeForce RTX 2080 Ti. Den absolut minsta svarstiden vi registrerade var 17,7 ms och erhölls i DOTA 2. Detta är för övrigt inte ett så blygsamt värde, som om det översätts till en uppdateringsfrekvens motsvarar 57 hertz. Så följande slutsats antyder sig själv: de kommande 360 ​​Hz-skärmarna kommer definitivt att användas i konkurrenskraftiga spel - detta är ett direkt sätt att minska fördröjningen när datorhårdvaran redan har uttömt sina möjligheter och begränsas av den tjocka mjukvarustapeln i operativsystemet, grafik API, drivrutiner och själva spelet.

Sedan kollade vi om det finns någon fördel med anti-latency-mjukvara, som hittills går ut på att begränsa frame rendering-kön i applikationer som förlitar sig på Direct3D 9 och 11 grafik-API - den ökända Radeon Anti-Lag i AMD-drivrutinen och Low Latensläge i NVIDIA. Som det visade sig fungerar båda "teknikerna" verkligen, men kan bara ge påtagliga fördelar under förhållanden där flaskhalsen i systemet är GPU:n och inte den centrala processorn. I vårt testsystem med en överklockad Intel Core i7-9900K-processor, hjälpte sådana verktyg till billiga medelpresterande grafikkort (Radeon RX 5500 XT, GeForce GTX 1650 SUPER och liknande snabba acceleratorer av föregående generation), men är helt meningslösa när du har en kraftfull GPU. Men när anti-lag-inställningar fungerar kan de vara extremt effektiva och minska latensen i vissa Overwatch med upp till 10 ms, eller 17 % av originalet.

Slutligen fann vi vissa skillnader mellan grafikkort från olika tillverkare som inte kunde förutsägas enbart utifrån bildhastigheter. Således ger AMD grafikkort ibland samma korta latens som formellt mer produktiva "gröna" enheter (exempel: Radeon RX 5700 XT i CS:GO), och i andra fall fungerar de misstänkt långsamt (samma modell i DOTA 2). Vi kommer inte att bli förvånade över att om tekniker för mätning av hårdvarufördröjning som LDAT blir utbredda, kommer inbitna cyberidrottare som kämpar för den minsta fördelen gentemot sina motståndare att börja välja grafikkort för ett specifikt spel – beroende på vilken modell som ger den kortaste reaktionstiden.

Men viktigast av allt, tack vare LDAT, har vi möjlighet att genomföra mer djupgående latensstudier. Det vi har gjort i den här förhandsvisningen är bara toppen av isberget. Ämnen som effekten av adaptiva synkroniseringstekniker (G-SYNC och FreeSync) på fördröjning, begränsning av FPS i spelet, beroende av CPU-prestanda och mycket mer förblir utanför ramarna. Dessutom kommer vi att ta reda på om höga bildfrekvenser på hundratals FPS och följaktligen snabb respons på input är möjliga inte bara i konkurrenskraftiga spel som är speciellt optimerade för dessa kriterier, utan även i AAA-projekt som belastar systemet mycket Mer. Behöver den genomsnittlige spelaren, och inte mästaren, därför en banbrytande monitor med en uppdateringsfrekvens på 240 eller till och med 360 Hz? Vi kommer att svara på dessa frågor i framtida arbete med LDAT.

Källa: 3dnews.ru

Lägg en kommentar