Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Seit jeher werden die Gaming-Fähigkeiten von Computern und einzelnen Systemkomponenten in Bildern pro Sekunde gemessen. Der Goldstandard für Tests sind langfristige Benchmarks, mit denen Sie verschiedene Geräte hinsichtlich ihrer nachhaltigen Leistung vergleichen können. In den letzten Jahren begann man jedoch, die GPU-Leistung aus einem anderen Blickwinkel zu betrachten. In Testberichten zu Grafikkarten sind Diagramme der Renderdauer einzelner Frames aufgetaucht, das Problem der FPS-Stabilität ist in den Fokus gerückt und die durchschnittlichen Frameraten werden mittlerweile normalerweise von Mindestwerten begleitet, gefiltert nach dem 99. Perzentil der Framezeit. Verbesserungen der Testmethoden zielen darauf ab, Verzögerungen zu finden, die sich in der durchschnittlichen Bildrate auflösen, mit dem bloßen Auge des Benutzers jedoch teilweise deutlich erkennbar sind.

Allerdings liefern alle im Testsystem laufenden Software-Messtools nur eine indirekte Schätzung der versteckten Variablen, die für ein komfortables Spiel von entscheidender Bedeutung ist – der Verzögerungszeit zwischen dem Drücken einer Tastatur- oder Maustaste und dem Wechsel des Bildes auf dem Monitor. Sie müssen eine einfache Regel befolgen, die besagt: Je höher die FPS im Spiel und je stabiler es ist, desto kürzer ist die Reaktionszeit auf Eingaben. Darüber hinaus wurde ein Teil des Problems bereits durch schnelle Monitore mit einer Bildwiederholfrequenz von 120, 144 oder 240 Hz gelöst, ganz zu schweigen von zukünftigen 360-Hz-Bildschirmen.

Allerdings hatten Gamer, insbesondere Spieler von kompetitiven Multiplayer-Spielen, die den geringsten Hardwarevorteil gegenüber ihren Gegnern suchen und bereit sind, für Dutzende zusätzliche FPS in CS:GO individuelle übertaktete Computer zu bauen, noch keine Gelegenheit dazu Input-Lag direkt auswerten. Denn solch präzise und arbeitsintensive Methoden wie das Filmen des Bildschirms mit einer Hochgeschwindigkeitskamera gibt es nur unter Laborbedingungen.

Aber jetzt wird sich alles ändern – lernen Sie LDAT (Latency Display Analysis Tool) kennen, ein universelles Hardware-Tool zur Messung der Gaming-Latenz. Leser, die mit Akronymen wie FCAT vertraut sind, könnten vermuten, dass es sich hierbei um ein NVIDIA-Produkt handelt. Richtig, das Unternehmen bot das Gerät ausgewählten IT-Publikationen an, darunter auch den Herausgebern von 3DNews. Mal sehen, ob eine neue Messtechnik Licht in das mysteriöse Phänomen des Input-Lags bringen und Gamern bei der Auswahl von Komponenten für eSport-Wettbewerbe helfen kann.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

#LDAT – wie es funktioniert

Das Funktionsprinzip von LDAT ist sehr einfach. Herzstück des Systems ist ein Hochgeschwindigkeits-Lichtsensor mit Mikrocontroller, der an der gewünschten Stelle auf dem Bildschirm angebracht wird. Daran wird eine modifizierte Maus angeschlossen und die Steuerungssoftware erkennt über die USB-Schnittstelle die Zeit zwischen Tastendruck und einem lokalen Sprung der Bildhelligkeit. Wenn wir also einen Sensor oben auf dem Lauf einer Waffe in einem Shooter anbringen, erhalten wir genau die Latenz, die für den Monitor, den Computer und den gesamten Software-Stack (einschließlich Gerätetreiber, Spiel usw.) erforderlich ist. und das Betriebssystem), um auf Benutzereingaben zu reagieren.

Das Schöne an diesem Ansatz ist, dass der Betrieb von LDAT völlig unabhängig davon ist, welche Hardware und welche Programme auf dem Computer installiert sind. Die Tatsache, dass NVIDIA sich mit der Produktion eines weiteren Messinstruments befasst, das zudem nur einem begrenzten Kreis von IT-Journalisten zur Verfügung steht, deutet darauf hin, dass das Unternehmen die Vorteile seiner eigenen Produkte im Vergleich zu Wettbewerbern hervorheben möchte (dies (was bei FCAT schon vor einigen Jahren passiert ist). Tatsächlich stehen bald 360-Hz-Monitore mit G-SYNC-Unterstützung auf dem Markt, und Spieleentwickler werden beginnen, NVIDIA Reflex-Bibliotheken zu verwenden, um die Latenz in Spielen mit Direct3D 12 zu reduzieren. Wir sind jedoch zuversichtlich, dass LDAT selbst dies nicht bietet Keine Zugeständnisse an „grüne“ Grafikkarten und verfälscht nicht die Ergebnisse von „roten“ Grafikkarten, da das Gerät keinen Zugriff auf die Konfiguration der experimentellen Hardware hat, wenn es über ein USB-Kabel an eine andere Maschine angeschlossen ist, auf der eine Steuerungssoftware ausgeführt wird.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Es versteht sich von selbst, dass LDAT in seinem Anwendungsbereich enorme Perspektiven eröffnet. Vergleichen Sie Gaming-Monitore (und sogar Fernseher) mit der einen oder anderen Bildwiederholfrequenz und verschiedenen Matrizentypen, prüfen Sie, wie sich die adaptiven Synchronisierungstechnologien G-SYNC und FreeSync auf die Latenz und die Bildskalierung mit einer Grafikkarte oder einem Monitor auswirken – all dies ist möglich geworden. Aber zunächst haben wir uns entschieden, uns auf eine spezifischere Aufgabe zu konzentrieren und zu testen, wie mehrere kompetitive Spiele, die auf hohe FPS und kurze Reaktionszeit ausgelegt sind, auf Grafikkarten unterschiedlicher Preiskategorien funktionieren. Und wenn wir das Problem genauer formulieren, interessieren uns zwei Hauptfragen: Ist eine zu hohe Framerate ein Garant für niedrige Latenzen und unter welchen Bedingungen ist es sinnvoll, sie zu erhöhen (und damit eine leistungsstärkere Grafikkarte zu kaufen)? Ist es insbesondere sinnvoll, die der Bildschirmaktualisierungsrate entsprechende Bildrate zu überschreiten, wenn Sie stolzer Besitzer eines Hochgeschwindigkeitsmonitors mit 240 Hz sind?

Zum Testen haben wir vier beliebte Multiplayer-Projekte ausgewählt – CS:GO, DOTA 2, Overwatch und Valorant, die für moderne GPUs, auch Budgetmodelle, anspruchslos genug sind, um eine Leistung von Hunderten von FPS zu erreichen. Gleichzeitig ermöglichen die aufgeführten Spiele die einfache Organisation einer Umgebung zur zuverlässigen Messung der Reaktionszeit, wenn konstante Bedingungen am wichtigsten sind: die gleiche Position des Charakters, eine Waffe in jedem Test usw. Aus diesem Grund haben wir Benchmarks in Spielen wie PlayerUnknown's Battlegrounds und Fortnite mussten vorerst verschoben werden. PUBG hat einfach nicht die Möglichkeit, sich von anderen Spielern zu isolieren, nicht einmal auf dem Testgelände, und der Einzelspieler-Battle-Lab-Modus von Fortnite ist immer noch nicht immun gegen Beuteunfälle und macht es daher unmöglich, mehrere GPUs mit derselben Waffe zu testen eine angemessene Zeitspanne.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Darüber hinaus haben die vorgestellten Spiele den Vorteil, dass sie die Direct3D 11-API ausführen, die es dem Grafikkartentreiber im Gegensatz zu Direct3D 12 ermöglicht, Grenzen für die Render-Warteschlange von Frames festzulegen, die die CPU für das Rendern an die GPU in der Software-Grafikpipeline vorbereiten kann .

Unter Standardbedingungen, insbesondere wenn der Engpass des Systems die Rechenressourcen der Grafikkarte sind, erhöht sich die Frame-Warteschlange standardmäßig auf bis zu drei oder, wenn die Anwendung dies erfordert, sogar noch mehr. Somit sorgt Direct3D für eine kontinuierliche GPU-Last und eine konstante Renderrate. Dies hat jedoch den Nebeneffekt, dass die Reaktion auf Eingaben verzögert wird, da die API nicht zulässt, dass vorab geplante Frames aus der Warteschlange geworfen werden. Genau auf die Bekämpfung von Verzögerungen zielen die entsprechenden Einstellungen in Grafikkartentreibern ab, die von AMD unter der Marke Radeon Anti-Lag populär gemacht wurden, und dann führte NVIDIA eine ähnliche Option für den Low-Latency-Modus ein.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Allerdings sind solche Maßnahmen kein Allheilmittel gegen Verzögerungen: Wenn die Leistung des Spiels beispielsweise durch die Fähigkeiten des zentralen Prozessors und nicht durch den Grafikprozessor begrenzt wird, führt eine kurze Frame-Warteschlange (oder deren völliges Fehlen) nur dazu, dass der CPU-Engpass kleiner wird. Ergänzend zum restlichen Testprogramm wollen wir herausfinden, ob die „Technologien“ Radeon Anti-Lag und Low Latency Mode konkrete Vorteile haben, bei welchen Spielen und auf welcher Hardware.

#Prüfstand, Prüfmethodik

Prüfstand
CPU Intel Core i9-9900K (4,9 GHz, 4,8 GHz AVX, feste Frequenz)
Материнская плата ASUS MAXIMUS XI APEX
Rom G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 GB (3200 MHz, CL14)
ROM Intel SSD 760p, 1024 GB
Блок питания Corsair AX1200i, 1200 W
CPU-Kühlsystem Corsair Hydro-Serie H115i
Gehäuse CoolerMaster Prüfstand V1.0
Überwachen NEC EA244UHD
Operationssystem Windows-10 Pro x64
Software für AMD-GPUs
Alle Grafikkarten AMD Radeon Software Adrenalin 2020 Edition 20.8.3
NVIDIA GPU-Software
Alle Grafikkarten NVIDIA GeForce Game Ready-Treiber 452.06

Messungen der Bildrate und Reaktionszeit wurden in allen Spielen bei maximalen oder nahezu maximalen Grafikqualitätseinstellungen durchgeführt, um a) die Unterschiede zwischen den verglichenen Geräten hervorzuheben, b) Ergebnisse sowohl bei hohen Bildraten, die über der Bildschirmaktualisierungsrate liegen, zu erhalten, als auch und umgekehrt . Speziell für diesen Artikel haben wir uns einen schnellen Samsung Odyssey 9-Monitor (C32G75TQSI) mit WQHD-Auflösung und einer Bildwiederholfrequenz von 240 Hz ausgeliehen – das Maximum für moderne Consumer-Monitore, bis 360-Hz-Standardbildschirme zum Verkauf angeboten wurden. Adaptive Bildwiederholfrequenztechnologien (G-SYNC und FreeSync) wurden deaktiviert.

Die Ergebnisse jedes einzelnen Tests (eine bestimmte Grafikkarte in einem bestimmten Spiel mit oder ohne Anti-Lag-Treibereinstellung) wurden anhand einer Stichprobe von 50 Messungen ermittelt.

Spiel API Einstellungen Vollbild-Anti-Aliasing
Counter-Strike: Global Offensive DirectX 11 Max. Grafikqualität (Bewegungsunschärfe aus) 8xMSAA
DOTA 2 Beste aussehende Qualität FXAA
Wacht Epische Qualität, 100 % Rendering-Skala SMAA-Medium
Valorant Max. Grafikqualität (Vignette aus) MSAA x4

#Testteilnehmer

Hinweis. In Klammern hinter den Namen der Grafikkarten werden die Basis- und Boost-Frequenzen entsprechend den Spezifikationen des jeweiligen Geräts angegeben. Grafikkarten ohne Referenzdesign werden mit Referenzparametern in Einklang gebracht (oder nahe an diese), sofern dies ohne manuelle Bearbeitung der Taktfrequenzkurve möglich ist. Ansonsten (Beschleuniger der GeForce 16-Serie sowie GeForce RTX Founders Edition) werden die Einstellungen des Herstellers verwendet.

#Counter-Strike: Global Offensive

Die Testergebnisse im allerersten Spiel, CS:GO, gaben viel Anlass zum Nachdenken. Dabei handelt es sich um das leichteste Projekt im gesamten Testprogramm, bei dem Grafikkarten wie die GeForce RTX 2080 Ti Bildraten jenseits von 600 FPS erreichen und selbst die schwächsten der acht Testteilnehmer (GeForce GTX 1650 SUPER und Radeon RX 590) deutlich über Bildwiederholraten bleiben Monitor mit 240 Hz. Dennoch hat CS:GO die These perfekt veranschaulicht, dass eine Erhöhung der FPS über die Monitorfrequenz keineswegs nutzlos ist, um Verzögerungen zu reduzieren. Vergleicht man die Grafikkarten der Spitzengruppe (GeForce RTX 2070 SUPER und höher sowie Radeon RX 5700 XT) mit den unteren Modellen (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT und Radeon RX 590), Wir sprechen im Allgemeinen von einem anderthalbfachen Unterschied der Zeit, die vom Drücken der Maustaste bis zum Erscheinen des Blitzes auf dem Bildschirm vergeht. In absoluten Zahlen erreicht der Gewinn 9,2 ms – auf den ersten Blick nicht viel, aber fast der gleiche Betrag wird beispielsweise durch eine Änderung der Bildschirmaktualisierungsrate von 60 auf 144 Hz (9,7 ms) erzielt!

Was den Vergleich der Latenz von Grafikkarten betrifft, die derselben breiten Preiskategorie angehören, aber auf Chips verschiedener Hersteller basieren, konnten wir in den einzelnen Gruppen keine signifikanten Unterschiede feststellen. Gleiches gilt für Optionen in Beschleunigertreibern, die die Verzögerung durch Reduzierung der Frame-Warteschlange in Direct3D 11 reduzieren sollen. Auf CS:GO haben sie (zumindest unter diesen Testbedingungen) in der Regel keinen nützlichen Effekt. In der Gruppe der schwachen Grafikkarten kommt es zu einer leichten Verschiebung der Reaktionszeit, allerdings erreicht nur die GeForce GTX 1650 SUPER statistische Signifikanz in den Ergebnissen.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.

Counter-Strike: Global Offensive
Standardmäßig Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti 642 20,7 6,5 630 21 4,6
GeForce RTX 2070 SUPER 581 20,8 5 585 21,7 5,6
GeForce RTX 2060 SUPER 466 23,9 4,6 478 22,4 5,8
GeForce GTX 1650 SUPER 300 27,6 4,3 275 23,2 5,4
Radeon RX 5700 XT 545 20,4 5,8 554 21,5 4,4
Radeon RX 5500 XT 323 29,3 14 316 26,5 14,5
Radeon RX 590 293 29,3 5,8 294 27,5 4,9
GeForce GTX 1060 (6 GB) 333 29,6 7,9 325 28,2 12,9

Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.

#DOTA 2

Obwohl DOTA 2 nach aktuellen Maßstäben ebenfalls als anspruchsloses Spiel gilt, ist es für moderne Grafikkarten schwieriger, mehrere hundert FPS zu erreichen. Damit unterschritten alle am Vergleich teilnehmenden Budget-Lösungen die Bildrate von 240 Bildern pro Sekunde, was der Bildwiederholfrequenz entspricht. Leistungsstarke Beschleuniger, beginnend mit der Radeon RX 5700 XT und GeForce RTX 2060 SUPER, erzeugen hier über 360 FPS, aber im Gegensatz zu CS:GO leitet DOTA 2 die überschüssige Leistung der GPU effektiver, um Verzögerungen zu bekämpfen. Im Vorgängerspiel reichte eine Grafikkarte auf dem Niveau der Radeon RX 5700 XT aus, so dass eine weitere Leistungssteigerung aus Gründen der Reaktionszeit keinen Sinn machte. Dabei nimmt die Latenz auf leistungsstärkeren Grafikkarten bis hin zur GeForce RTX 2080 Ti weiter ab.

Es ist anzumerken, dass es die Ergebnisse der Radeon RX 5700 XT in diesem Spiel sind, die Fragen aufwerfen. AMDs aktuelles Flaggschiff übertrifft in der Latenzzeit sogar die GeForce RTX 2060 um Längen und schneidet trotz der höheren Framerate nicht besser ab als jüngere Modelle. Aber die Reduzierung der Frame-Rendering-Warteschlange in DOTA 2 ist wirklich nützlich. Der Effekt ist nicht so groß, dass ihn selbst erfahrene Cyber-Sportler bemerken würden, aber er ist statistisch signifikant für vier von acht Grafikkarten 

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.

DOTA 2
Standardmäßig Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti 418 17,7 2 416 17,4 1,4
GeForce RTX 2070 SUPER 410 18,2 1,6 409 17,6 1,6
GeForce RTX 2060 SUPER 387 20,8 1,5 385 19,8 1,6
GeForce GTX 1650 SUPER 230 27,9 2,5 228 27,9 2,3
Radeon RX 5700 XT 360 26,3 1,5 363 25,2 1,3
Radeon RX 5500 XT 216 25,4 1,2 215 21,7 1,4
Radeon RX 590 224 25 1,4 228 21,8 1,3
GeForce GTX 1060 (6 GB) 255 25,8 1,9 254 25,8 1,7

Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.

#Wacht

Overwatch ist das schwerste der vier Testspiele bei maximaler Grafikqualität und aktiviertem Vollbild-Anti-Aliasing. Es ist nicht verwunderlich, dass hier jeder Gigaflop GPU-Leistung der Reaktionszeit zugute kommt. Der Bereich der Verzögerungswerte in Overwatch zwischen Grafikkarten wie der GeForce RTX 2080 Ti und der Radeon RX 5500 XT ist zweifach. Die Zahlen zeigen auch, dass leistungsstärkere Grafikkarten als die GeForce RTX 2070 SUPER nur die FPS steigern, die Reaktion aber nicht einmal nominell beschleunigen können. Aber der Austausch der Radeon RX 5700 XT oder GeForce RTX 2060 SUPER durch die berüchtigte RTX 2070 SUPER ist theoretisch sinnvoll, um die Verzögerung auf ein Minimum zu reduzieren und gleichzeitig eine hohe Grafikqualität beizubehalten. Darüber hinaus schnitt in Overwatch einer der Beschleuniger auf „roten“ Chips erneut schlecht ab. Diesmal die Radeon RX 5500 XT, die in puncto durchschnittlicher Reaktionslatenz alle anderen Budgetlösungen deutlich übertrifft.

Overwatch hat einmal mehr bewiesen, dass a) die Geschwindigkeit der Grafikkarte auch bei hohen Bildraten immer noch das Ausmaß der Verzögerung beeinflusst, b) eine formal leistungsstärkere GPU keine geringeren Reaktionsverzögerungen auf Eingaben garantiert. Darüber hinaus demonstrierte das Spiel die Standardfunktion der Anti-Lag-Einstellungen des Grafiktreibers. Wenn Sie auf relativ schwachen Grafikkarten spielen (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT und Radeon 590), kann eine reduzierte Frame-Warteschlange die Verzögerung um 9 bis 17 % reduzieren. Nun, für leistungsstarke Hardware ist es immer noch völlig nutzlos.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.

Wacht
Standardmäßig Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti 282 35,6 10,4 300 34,2 9,6
GeForce RTX 2070 SUPER 225 35,8 5,1 228 36,7 8,6
GeForce RTX 2060 SUPER 198 41,2 6,4 195 38,8 9
GeForce GTX 1650 SUPER 116 58,2 8 115 51 8,7
Radeon RX 5700 XT 210 39,6 7,2 208 41,4 7,2
Radeon RX 5500 XT 120 69,7 13,2 120 63,5 15,1
Radeon RX 590 111 61,2 8,6 111 51,7 7,7
GeForce GTX 1060 (6 GB) 121 60,7 8,7 118 50,7 6,5

Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.

#Valorant

Valorant stach unter den Testspielen durch eine hervorragende – oder umgekehrt mittelmäßige – Grafikoptimierung hervor. Fakt ist, dass sich die Test-GPUs trotz des enormen Leistungsunterschieds laut Bildratenschätzungen alle im Bereich von 231 bis 309 FPS konzentrierten. Und das, obwohl wir für die Latenzmessungen bewusst die ressourcenintensivste Szene ausgewählt haben, um die erwarteten Unterschiede zu verstärken. Allerdings ähnelt Valorant hinsichtlich der Verteilung der Lag-Werte etwas CS:GO. In diesem Spiel sind Besitzer einer GeForce RTX 2060 SUPER oder Radeon RX 5700 XT den Nutzern teurerer und leistungsstärkerer Beschleuniger gleichgestellt. Selbst die jüngeren Grafikkarten der GeForce GTX 1650 SUPER- und Radeon RX 5500 XT-Klasse liegen nicht weit hinter den älteren zurück. Angesichts dieser Eingaben überrascht es nicht, dass die Begrenzung der Direct3D-Frame-Warteschlange in Valorant nutzlos ist: Die entsprechenden Einstellungen haben einen statistisch signifikanten Effekt für ausgewählte Grafikkarten, dessen Ausmaß jedoch absolut vernachlässigbar ist.

Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen

Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.

Valorant
Standardmäßig Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms Durchschnittliche Bildrate, FPS Durchschnittliche Reaktionszeit, ms Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti 309 19,3 2,6 306 20,2 3
GeForce RTX 2070 SUPER 293 19,2 3,1 289 19,5 2,9
GeForce RTX 2060 SUPER 308 20,7 2,7 310 19,6 2,9
GeForce GTX 1650 SUPER 251 24,5 2,9 243 23,6 2,5
Radeon RX 5700 XT 256 21,9 3,3 257 21,9 2,7
Radeon RX 5500 XT 258 23,5 2,8 262 22,8 2,6
Radeon RX 590 237 25,8 2,7 234 24,3 2,5
GeForce GTX 1060 (6 GB) 269 23,5 2,8 268 23,4 4,4

Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.

#Befund

Die Messung der Reaktionsverzögerung bei Spielen mit Hardware hat zu umfassenden Ergebnissen geführt, die offen gesagt die in der Branche akzeptierten Methoden zur Bewertung der Leistung von Grafikkarten in Frage stellen, wenn der einzige gemessene Parameter jahrzehntelang die Bildrate war. Natürlich hängen FPS und Lag eng zusammen, aber zumindest in eSports-Spielen, wo um jede Millisekunde Latenz gekämpft wird, lässt sich die Leistung mit der Framerate nicht mehr umfassend beschreiben. 

Bei einer kurzen Untersuchung beliebter Multiplayer-Projekte haben wir mehrere interessante Phänomene entdeckt. Erstens widerlegen unsere Daten die weit verbreitete Meinung, dass es keinen Sinn macht, die FPS über die Werte hinaus zu erhöhen, die der Bildschirmaktualisierungsrate entsprechen. Selbst auf einem sehr schnellen 240-Hz-Monitor können Spiele wie Counter-Strike: Global Offensive die Verzögerung um das Eineinhalbfache reduzieren, indem man von einer Budget-Grafikkarte auf ein Top-End-Modell umsteigt. Wir sprechen hier vom gleichen Gewinn an Reaktionszeit wie beispielsweise beim Wechsel von einem 60-Hz-Bildschirm auf 144 Hz.

Andererseits kann die Framerate immer noch überhöht sein, wenn eine leistungsstärkere Grafikkarte die Luft nur vergeblich aufheizt und nicht mehr hilft, die ohnehin extrem niedrigen Latenzen zu bekämpfen. Bei allen von uns getesteten Spielen mit 1080p konnten wir keinen nennenswerten Unterschied zwischen der GeForce RTX 2070 SUPER und der GeForce RTX 2080 Ti feststellen. Die von uns gemessene absolute Mindestreaktionszeit betrug 17,7 ms und wurde in DOTA 2 ermittelt. Das ist übrigens kein so bescheidener Wert, der in eine Bildwiederholfrequenz umgerechnet 57 Hertz entspricht. Daraus ergibt sich folgende Schlussfolgerung: Die kommenden 360-Hz-Monitore werden auf jeden Fall in Wettkampfspielen zum Einsatz kommen – dies ist eine direkte Möglichkeit, Verzögerungen zu reduzieren, wenn die Computerhardware ihre Fähigkeiten bereits ausgeschöpft hat und durch den dicken Software-Stack des Betriebssystems, der Grafik, begrenzt ist API, Treiber und das Spiel selbst.

Anschließend haben wir geprüft, ob Anti-Latenz-Software Vorteile bietet, die bisher auf die Begrenzung der Frame-Rendering-Warteschlange in Anwendungen hinauslaufen, die auf der Direct3D 9- und 11-Grafik-API basieren – dem berüchtigten Radeon Anti-Lag im AMD-Treiber und Low Latenzmodus in NVIDIA. Wie sich herausstellte, funktionieren beide „Technologien“ wirklich, können aber nur dann spürbare Vorteile bringen, wenn der Engpass des Systems die GPU und nicht der Zentralprozessor ist. In unserem Testsystem mit einem übertakteten Intel Core i7-9900K-Prozessor halfen solche Tools bei preiswerten Grafikkarten mittlerer Leistung (Radeon RX 5500 XT, GeForce GTX 1650 SUPER und ähnlich schnelle Beschleuniger der Vorgängergeneration), sind bei Ihnen aber völlig sinnlos habe eine leistungsstarke GPU. Wenn die Anti-Lag-Einstellungen funktionieren, können sie jedoch äußerst effektiv sein und die Latenz in einigen Overwatch um bis zu 10 ms oder 17 % des Originals reduzieren.

Schließlich haben wir bestimmte Unterschiede zwischen Grafikkarten verschiedener Hersteller festgestellt, die sich allein anhand der Bildraten nicht vorhersagen ließen. Daher bieten AMD-Grafikkarten manchmal die gleiche kurze Latenz wie formal produktivere „grüne“ Geräte (Beispiel: Radeon RX 5700 XT in CS:GO), und in anderen Fällen arbeiten sie verdächtig langsam (dasselbe Modell in DOTA 2). Wir werden uns nicht wundern, wenn begeisterte Cyber-Sportler, die um den geringsten Vorteil gegenüber ihren Gegnern kämpfen, bei der Verbreitung von Hardware-Lag-Messtechniken wie LDAT anfangen werden, Grafikkarten für ein bestimmtes Spiel auszuwählen – je nachdem, welches Modell die kürzeste Reaktionszeit bietet.

Vor allem aber haben wir dank LDAT die Möglichkeit, tiefergehende Latenzstudien durchzuführen. Was wir in dieser Vorschau getan haben, ist nur die Spitze des Eisbergs. Themen wie der Einfluss adaptiver Synchronisationstechnologien (G-SYNC und FreeSync) auf Verzögerungen, die Begrenzung der FPS im Spiel, die Abhängigkeit von der CPU-Leistung und vieles mehr bleiben außerhalb des Rahmens. Darüber hinaus werden wir herausfinden, ob hohe Bildraten von Hunderten von FPS und dementsprechend eine schnelle Reaktion auf Eingaben nicht nur in kompetitiven Spielen, die speziell für diese Kriterien optimiert sind, sondern auch in AAA-Projekten, die das System stark belasten, erreichbar sind mehr. Braucht also der durchschnittliche Gamer und nicht der Champion einen hochmodernen Monitor mit einer Bildwiederholfrequenz von 240 oder sogar 360 Hz? Wir werden diese Fragen in zukünftigen Arbeiten mit LDAT beantworten.

Source: 3dnews.ru

Kommentar hinzufügen