Neuer Artikel: Vom Klick zum Schuss – Hardware-Test von Lags in Spielen
Seit jeher werden die Gaming-Fähigkeiten von Computern und einzelnen Systemkomponenten in Bildern pro Sekunde gemessen. Der Goldstandard für Tests sind langfristige Benchmarks, mit denen Sie verschiedene Geräte hinsichtlich ihrer nachhaltigen Leistung vergleichen können. In den letzten Jahren begann man jedoch, die GPU-Leistung aus einem anderen Blickwinkel zu betrachten. In Testberichten zu Grafikkarten sind Diagramme der Renderdauer einzelner Frames aufgetaucht, das Problem der FPS-Stabilität ist in den Fokus gerückt und die durchschnittlichen Frameraten werden mittlerweile normalerweise von Mindestwerten begleitet, gefiltert nach dem 99. Perzentil der Framezeit. Verbesserungen der Testmethoden zielen darauf ab, Verzögerungen zu finden, die sich in der durchschnittlichen Bildrate auflösen, mit dem bloßen Auge des Benutzers jedoch teilweise deutlich erkennbar sind.
Allerdings liefern alle im Testsystem laufenden Software-Messtools nur eine indirekte Schätzung der versteckten Variablen, die für ein komfortables Spiel von entscheidender Bedeutung ist – der Verzögerungszeit zwischen dem Drücken einer Tastatur- oder Maustaste und dem Wechsel des Bildes auf dem Monitor. Sie müssen eine einfache Regel befolgen, die besagt: Je höher die FPS im Spiel und je stabiler es ist, desto kürzer ist die Reaktionszeit auf Eingaben. Darüber hinaus wurde ein Teil des Problems bereits durch schnelle Monitore mit einer Bildwiederholfrequenz von 120, 144 oder 240 Hz gelöst, ganz zu schweigen von zukünftigen 360-Hz-Bildschirmen.
Allerdings hatten Gamer, insbesondere Spieler von kompetitiven Multiplayer-Spielen, die den geringsten Hardwarevorteil gegenüber ihren Gegnern suchen und bereit sind, für Dutzende zusätzliche FPS in CS:GO individuelle übertaktete Computer zu bauen, noch keine Gelegenheit dazu Input-Lag direkt auswerten. Denn solch präzise und arbeitsintensive Methoden wie das Filmen des Bildschirms mit einer Hochgeschwindigkeitskamera gibt es nur unter Laborbedingungen.
Aber jetzt wird sich alles ändern – lernen Sie LDAT (Latency Display Analysis Tool) kennen, ein universelles Hardware-Tool zur Messung der Gaming-Latenz. Leser, die mit Akronymen wie FCAT vertraut sind, könnten vermuten, dass es sich hierbei um ein NVIDIA-Produkt handelt. Richtig, das Unternehmen bot das Gerät ausgewählten IT-Publikationen an, darunter auch den Herausgebern von 3DNews. Mal sehen, ob eine neue Messtechnik Licht in das mysteriöse Phänomen des Input-Lags bringen und Gamern bei der Auswahl von Komponenten für eSport-Wettbewerbe helfen kann.
Das Funktionsprinzip von LDAT ist sehr einfach. Herzstück des Systems ist ein Hochgeschwindigkeits-Lichtsensor mit Mikrocontroller, der an der gewünschten Stelle auf dem Bildschirm angebracht wird. Daran wird eine modifizierte Maus angeschlossen und die Steuerungssoftware erkennt über die USB-Schnittstelle die Zeit zwischen Tastendruck und einem lokalen Sprung der Bildhelligkeit. Wenn wir also einen Sensor oben auf dem Lauf einer Waffe in einem Shooter anbringen, erhalten wir genau die Latenz, die für den Monitor, den Computer und den gesamten Software-Stack (einschließlich Gerätetreiber, Spiel usw.) erforderlich ist. und das Betriebssystem), um auf Benutzereingaben zu reagieren.
Das Schöne an diesem Ansatz ist, dass der Betrieb von LDAT völlig unabhängig davon ist, welche Hardware und welche Programme auf dem Computer installiert sind. Die Tatsache, dass NVIDIA sich mit der Produktion eines weiteren Messinstruments befasst, das zudem nur einem begrenzten Kreis von IT-Journalisten zur Verfügung steht, deutet darauf hin, dass das Unternehmen die Vorteile seiner eigenen Produkte im Vergleich zu Wettbewerbern hervorheben möchte (dies (was bei FCAT schon vor einigen Jahren passiert ist). Tatsächlich stehen bald 360-Hz-Monitore mit G-SYNC-Unterstützung auf dem Markt, und Spieleentwickler werden beginnen, NVIDIA Reflex-Bibliotheken zu verwenden, um die Latenz in Spielen mit Direct3D 12 zu reduzieren. Wir sind jedoch zuversichtlich, dass LDAT selbst dies nicht bietet Keine Zugeständnisse an „grüne“ Grafikkarten und verfälscht nicht die Ergebnisse von „roten“ Grafikkarten, da das Gerät keinen Zugriff auf die Konfiguration der experimentellen Hardware hat, wenn es über ein USB-Kabel an eine andere Maschine angeschlossen ist, auf der eine Steuerungssoftware ausgeführt wird.
Es versteht sich von selbst, dass LDAT in seinem Anwendungsbereich enorme Perspektiven eröffnet. Vergleichen Sie Gaming-Monitore (und sogar Fernseher) mit der einen oder anderen Bildwiederholfrequenz und verschiedenen Matrizentypen, prüfen Sie, wie sich die adaptiven Synchronisierungstechnologien G-SYNC und FreeSync auf die Latenz und die Bildskalierung mit einer Grafikkarte oder einem Monitor auswirken – all dies ist möglich geworden. Aber zunächst haben wir uns entschieden, uns auf eine spezifischere Aufgabe zu konzentrieren und zu testen, wie mehrere kompetitive Spiele, die auf hohe FPS und kurze Reaktionszeit ausgelegt sind, auf Grafikkarten unterschiedlicher Preiskategorien funktionieren. Und wenn wir das Problem genauer formulieren, interessieren uns zwei Hauptfragen: Ist eine zu hohe Framerate ein Garant für niedrige Latenzen und unter welchen Bedingungen ist es sinnvoll, sie zu erhöhen (und damit eine leistungsstärkere Grafikkarte zu kaufen)? Ist es insbesondere sinnvoll, die der Bildschirmaktualisierungsrate entsprechende Bildrate zu überschreiten, wenn Sie stolzer Besitzer eines Hochgeschwindigkeitsmonitors mit 240 Hz sind?
Zum Testen haben wir vier beliebte Multiplayer-Projekte ausgewählt – CS:GO, DOTA 2, Overwatch und Valorant, die für moderne GPUs, auch Budgetmodelle, anspruchslos genug sind, um eine Leistung von Hunderten von FPS zu erreichen. Gleichzeitig ermöglichen die aufgeführten Spiele die einfache Organisation einer Umgebung zur zuverlässigen Messung der Reaktionszeit, wenn konstante Bedingungen am wichtigsten sind: die gleiche Position des Charakters, eine Waffe in jedem Test usw. Aus diesem Grund haben wir Benchmarks in Spielen wie PlayerUnknown's Battlegrounds und Fortnite mussten vorerst verschoben werden. PUBG hat einfach nicht die Möglichkeit, sich von anderen Spielern zu isolieren, nicht einmal auf dem Testgelände, und der Einzelspieler-Battle-Lab-Modus von Fortnite ist immer noch nicht immun gegen Beuteunfälle und macht es daher unmöglich, mehrere GPUs mit derselben Waffe zu testen eine angemessene Zeitspanne.
Darüber hinaus haben die vorgestellten Spiele den Vorteil, dass sie die Direct3D 11-API ausführen, die es dem Grafikkartentreiber im Gegensatz zu Direct3D 12 ermöglicht, Grenzen für die Render-Warteschlange von Frames festzulegen, die die CPU für das Rendern an die GPU in der Software-Grafikpipeline vorbereiten kann .
Unter Standardbedingungen, insbesondere wenn der Engpass des Systems die Rechenressourcen der Grafikkarte sind, erhöht sich die Frame-Warteschlange standardmäßig auf bis zu drei oder, wenn die Anwendung dies erfordert, sogar noch mehr. Somit sorgt Direct3D für eine kontinuierliche GPU-Last und eine konstante Renderrate. Dies hat jedoch den Nebeneffekt, dass die Reaktion auf Eingaben verzögert wird, da die API nicht zulässt, dass vorab geplante Frames aus der Warteschlange geworfen werden. Genau auf die Bekämpfung von Verzögerungen zielen die entsprechenden Einstellungen in Grafikkartentreibern ab, die von AMD unter der Marke Radeon Anti-Lag populär gemacht wurden, und dann führte NVIDIA eine ähnliche Option für den Low-Latency-Modus ein.
Allerdings sind solche Maßnahmen kein Allheilmittel gegen Verzögerungen: Wenn die Leistung des Spiels beispielsweise durch die Fähigkeiten des zentralen Prozessors und nicht durch den Grafikprozessor begrenzt wird, führt eine kurze Frame-Warteschlange (oder deren völliges Fehlen) nur dazu, dass der CPU-Engpass kleiner wird. Ergänzend zum restlichen Testprogramm wollen wir herausfinden, ob die „Technologien“ Radeon Anti-Lag und Low Latency Mode konkrete Vorteile haben, bei welchen Spielen und auf welcher Hardware.
Messungen der Bildrate und Reaktionszeit wurden in allen Spielen bei maximalen oder nahezu maximalen Grafikqualitätseinstellungen durchgeführt, um a) die Unterschiede zwischen den verglichenen Geräten hervorzuheben, b) Ergebnisse sowohl bei hohen Bildraten, die über der Bildschirmaktualisierungsrate liegen, zu erhalten, als auch und umgekehrt . Speziell für diesen Artikel haben wir uns einen schnellen Samsung Odyssey 9-Monitor (C32G75TQSI) mit WQHD-Auflösung und einer Bildwiederholfrequenz von 240 Hz ausgeliehen – das Maximum für moderne Consumer-Monitore, bis 360-Hz-Standardbildschirme zum Verkauf angeboten wurden. Adaptive Bildwiederholfrequenztechnologien (G-SYNC und FreeSync) wurden deaktiviert.
Die Ergebnisse jedes einzelnen Tests (eine bestimmte Grafikkarte in einem bestimmten Spiel mit oder ohne Anti-Lag-Treibereinstellung) wurden anhand einer Stichprobe von 50 Messungen ermittelt.
Hinweis. In Klammern hinter den Namen der Grafikkarten werden die Basis- und Boost-Frequenzen entsprechend den Spezifikationen des jeweiligen Geräts angegeben. Grafikkarten ohne Referenzdesign werden mit Referenzparametern in Einklang gebracht (oder nahe an diese), sofern dies ohne manuelle Bearbeitung der Taktfrequenzkurve möglich ist. Ansonsten (Beschleuniger der GeForce 16-Serie sowie GeForce RTX Founders Edition) werden die Einstellungen des Herstellers verwendet.
Die Testergebnisse im allerersten Spiel, CS:GO, gaben viel Anlass zum Nachdenken. Dabei handelt es sich um das leichteste Projekt im gesamten Testprogramm, bei dem Grafikkarten wie die GeForce RTX 2080 Ti Bildraten jenseits von 600 FPS erreichen und selbst die schwächsten der acht Testteilnehmer (GeForce GTX 1650 SUPER und Radeon RX 590) deutlich über Bildwiederholraten bleiben Monitor mit 240 Hz. Dennoch hat CS:GO die These perfekt veranschaulicht, dass eine Erhöhung der FPS über die Monitorfrequenz keineswegs nutzlos ist, um Verzögerungen zu reduzieren. Vergleicht man die Grafikkarten der Spitzengruppe (GeForce RTX 2070 SUPER und höher sowie Radeon RX 5700 XT) mit den unteren Modellen (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT und Radeon RX 590), Wir sprechen im Allgemeinen von einem anderthalbfachen Unterschied der Zeit, die vom Drücken der Maustaste bis zum Erscheinen des Blitzes auf dem Bildschirm vergeht. In absoluten Zahlen erreicht der Gewinn 9,2 ms – auf den ersten Blick nicht viel, aber fast der gleiche Betrag wird beispielsweise durch eine Änderung der Bildschirmaktualisierungsrate von 60 auf 144 Hz (9,7 ms) erzielt!
Was den Vergleich der Latenz von Grafikkarten betrifft, die derselben breiten Preiskategorie angehören, aber auf Chips verschiedener Hersteller basieren, konnten wir in den einzelnen Gruppen keine signifikanten Unterschiede feststellen. Gleiches gilt für Optionen in Beschleunigertreibern, die die Verzögerung durch Reduzierung der Frame-Warteschlange in Direct3D 11 reduzieren sollen. Auf CS:GO haben sie (zumindest unter diesen Testbedingungen) in der Regel keinen nützlichen Effekt. In der Gruppe der schwachen Grafikkarten kommt es zu einer leichten Verschiebung der Reaktionszeit, allerdings erreicht nur die GeForce GTX 1650 SUPER statistische Signifikanz in den Ergebnissen.
Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.
Counter-Strike: Global Offensive
Standardmäßig
Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti
642
20,7
6,5
630
21
4,6
GeForce RTX 2070 SUPER
581
20,8
5
585
21,7
5,6
GeForce RTX 2060 SUPER
466
23,9
4,6
478
22,4
5,8
GeForce GTX 1650 SUPER
300
27,6
4,3
275
23,2
5,4
Radeon RX 5700 XT
545
20,4
5,8
554
21,5
4,4
Radeon RX 5500 XT
323
29,3
14
316
26,5
14,5
Radeon RX 590
293
29,3
5,8
294
27,5
4,9
GeForce GTX 1060 (6 GB)
333
29,6
7,9
325
28,2
12,9
Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.
Obwohl DOTA 2 nach aktuellen Maßstäben ebenfalls als anspruchsloses Spiel gilt, ist es für moderne Grafikkarten schwieriger, mehrere hundert FPS zu erreichen. Damit unterschritten alle am Vergleich teilnehmenden Budget-Lösungen die Bildrate von 240 Bildern pro Sekunde, was der Bildwiederholfrequenz entspricht. Leistungsstarke Beschleuniger, beginnend mit der Radeon RX 5700 XT und GeForce RTX 2060 SUPER, erzeugen hier über 360 FPS, aber im Gegensatz zu CS:GO leitet DOTA 2 die überschüssige Leistung der GPU effektiver, um Verzögerungen zu bekämpfen. Im Vorgängerspiel reichte eine Grafikkarte auf dem Niveau der Radeon RX 5700 XT aus, so dass eine weitere Leistungssteigerung aus Gründen der Reaktionszeit keinen Sinn machte. Dabei nimmt die Latenz auf leistungsstärkeren Grafikkarten bis hin zur GeForce RTX 2080 Ti weiter ab.
Es ist anzumerken, dass es die Ergebnisse der Radeon RX 5700 XT in diesem Spiel sind, die Fragen aufwerfen. AMDs aktuelles Flaggschiff übertrifft in der Latenzzeit sogar die GeForce RTX 2060 um Längen und schneidet trotz der höheren Framerate nicht besser ab als jüngere Modelle. Aber die Reduzierung der Frame-Rendering-Warteschlange in DOTA 2 ist wirklich nützlich. Der Effekt ist nicht so groß, dass ihn selbst erfahrene Cyber-Sportler bemerken würden, aber er ist statistisch signifikant für vier von acht Grafikkarten
Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.
DOTA 2
Standardmäßig
Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti
418
17,7
2
416
17,4
1,4
GeForce RTX 2070 SUPER
410
18,2
1,6
409
17,6
1,6
GeForce RTX 2060 SUPER
387
20,8
1,5
385
19,8
1,6
GeForce GTX 1650 SUPER
230
27,9
2,5
228
27,9
2,3
Radeon RX 5700 XT
360
26,3
1,5
363
25,2
1,3
Radeon RX 5500 XT
216
25,4
1,2
215
21,7
1,4
Radeon RX 590
224
25
1,4
228
21,8
1,3
GeForce GTX 1060 (6 GB)
255
25,8
1,9
254
25,8
1,7
Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.
Overwatch ist das schwerste der vier Testspiele bei maximaler Grafikqualität und aktiviertem Vollbild-Anti-Aliasing. Es ist nicht verwunderlich, dass hier jeder Gigaflop GPU-Leistung der Reaktionszeit zugute kommt. Der Bereich der Verzögerungswerte in Overwatch zwischen Grafikkarten wie der GeForce RTX 2080 Ti und der Radeon RX 5500 XT ist zweifach. Die Zahlen zeigen auch, dass leistungsstärkere Grafikkarten als die GeForce RTX 2070 SUPER nur die FPS steigern, die Reaktion aber nicht einmal nominell beschleunigen können. Aber der Austausch der Radeon RX 5700 XT oder GeForce RTX 2060 SUPER durch die berüchtigte RTX 2070 SUPER ist theoretisch sinnvoll, um die Verzögerung auf ein Minimum zu reduzieren und gleichzeitig eine hohe Grafikqualität beizubehalten. Darüber hinaus schnitt in Overwatch einer der Beschleuniger auf „roten“ Chips erneut schlecht ab. Diesmal die Radeon RX 5500 XT, die in puncto durchschnittlicher Reaktionslatenz alle anderen Budgetlösungen deutlich übertrifft.
Overwatch hat einmal mehr bewiesen, dass a) die Geschwindigkeit der Grafikkarte auch bei hohen Bildraten immer noch das Ausmaß der Verzögerung beeinflusst, b) eine formal leistungsstärkere GPU keine geringeren Reaktionsverzögerungen auf Eingaben garantiert. Darüber hinaus demonstrierte das Spiel die Standardfunktion der Anti-Lag-Einstellungen des Grafiktreibers. Wenn Sie auf relativ schwachen Grafikkarten spielen (GeForce GTX 1650 SUPER, GeForce GTX 1060, Radeon RX 5500 XT und Radeon 590), kann eine reduzierte Frame-Warteschlange die Verzögerung um 9 bis 17 % reduzieren. Nun, für leistungsstarke Hardware ist es immer noch völlig nutzlos.
Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.
Wacht
Standardmäßig
Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti
282
35,6
10,4
300
34,2
9,6
GeForce RTX 2070 SUPER
225
35,8
5,1
228
36,7
8,6
GeForce RTX 2060 SUPER
198
41,2
6,4
195
38,8
9
GeForce GTX 1650 SUPER
116
58,2
8
115
51
8,7
Radeon RX 5700 XT
210
39,6
7,2
208
41,4
7,2
Radeon RX 5500 XT
120
69,7
13,2
120
63,5
15,1
Radeon RX 590
111
61,2
8,6
111
51,7
7,7
GeForce GTX 1060 (6 GB)
121
60,7
8,7
118
50,7
6,5
Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.
Valorant stach unter den Testspielen durch eine hervorragende – oder umgekehrt mittelmäßige – Grafikoptimierung hervor. Fakt ist, dass sich die Test-GPUs trotz des enormen Leistungsunterschieds laut Bildratenschätzungen alle im Bereich von 231 bis 309 FPS konzentrierten. Und das, obwohl wir für die Latenzmessungen bewusst die ressourcenintensivste Szene ausgewählt haben, um die erwarteten Unterschiede zu verstärken. Allerdings ähnelt Valorant hinsichtlich der Verteilung der Lag-Werte etwas CS:GO. In diesem Spiel sind Besitzer einer GeForce RTX 2060 SUPER oder Radeon RX 5700 XT den Nutzern teurerer und leistungsstärkerer Beschleuniger gleichgestellt. Selbst die jüngeren Grafikkarten der GeForce GTX 1650 SUPER- und Radeon RX 5500 XT-Klasse liegen nicht weit hinter den älteren zurück. Angesichts dieser Eingaben überrascht es nicht, dass die Begrenzung der Direct3D-Frame-Warteschlange in Valorant nutzlos ist: Die entsprechenden Einstellungen haben einen statistisch signifikanten Effekt für ausgewählte Grafikkarten, dessen Ausmaß jedoch absolut vernachlässigbar ist.
Hinweis. Gesättigte Farbsymbole zeigen Ergebnisse mit Standardtreibereinstellungen an. Verblasste Symbole zeigen an, dass der Low-Latency-Modus (Ultra) oder Radeon Anti-Lag aktiviert ist. Achten Sie auf die vertikale Skala – sie beginnt über Null.
Valorant
Standardmäßig
Niedriglatenzmodus (Ultra) / Radeon Anti-Lag
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
Durchschnittliche Bildrate, FPS
Durchschnittliche Reaktionszeit, ms
Kunst. Reaktionszeitabweichung, ms
GeForce RTX 2080 Ti
309
19,3
2,6
306
20,2
3
GeForce RTX 2070 SUPER
293
19,2
3,1
289
19,5
2,9
GeForce RTX 2060 SUPER
308
20,7
2,7
310
19,6
2,9
GeForce GTX 1650 SUPER
251
24,5
2,9
243
23,6
2,5
Radeon RX 5700 XT
256
21,9
3,3
257
21,9
2,7
Radeon RX 5500 XT
258
23,5
2,8
262
22,8
2,6
Radeon RX 590
237
25,8
2,7
234
24,3
2,5
GeForce GTX 1060 (6 GB)
269
23,5
2,8
268
23,4
4,4
Hinweis. Statistisch signifikante Unterschiede in der durchschnittlichen Reaktionszeit (gemäß Student-T-Test) werden rot hervorgehoben.
Die Messung der Reaktionsverzögerung bei Spielen mit Hardware hat zu umfassenden Ergebnissen geführt, die offen gesagt die in der Branche akzeptierten Methoden zur Bewertung der Leistung von Grafikkarten in Frage stellen, wenn der einzige gemessene Parameter jahrzehntelang die Bildrate war. Natürlich hängen FPS und Lag eng zusammen, aber zumindest in eSports-Spielen, wo um jede Millisekunde Latenz gekämpft wird, lässt sich die Leistung mit der Framerate nicht mehr umfassend beschreiben.
Bei einer kurzen Untersuchung beliebter Multiplayer-Projekte haben wir mehrere interessante Phänomene entdeckt. Erstens widerlegen unsere Daten die weit verbreitete Meinung, dass es keinen Sinn macht, die FPS über die Werte hinaus zu erhöhen, die der Bildschirmaktualisierungsrate entsprechen. Selbst auf einem sehr schnellen 240-Hz-Monitor können Spiele wie Counter-Strike: Global Offensive die Verzögerung um das Eineinhalbfache reduzieren, indem man von einer Budget-Grafikkarte auf ein Top-End-Modell umsteigt. Wir sprechen hier vom gleichen Gewinn an Reaktionszeit wie beispielsweise beim Wechsel von einem 60-Hz-Bildschirm auf 144 Hz.
Andererseits kann die Framerate immer noch überhöht sein, wenn eine leistungsstärkere Grafikkarte die Luft nur vergeblich aufheizt und nicht mehr hilft, die ohnehin extrem niedrigen Latenzen zu bekämpfen. Bei allen von uns getesteten Spielen mit 1080p konnten wir keinen nennenswerten Unterschied zwischen der GeForce RTX 2070 SUPER und der GeForce RTX 2080 Ti feststellen. Die von uns gemessene absolute Mindestreaktionszeit betrug 17,7 ms und wurde in DOTA 2 ermittelt. Das ist übrigens kein so bescheidener Wert, der in eine Bildwiederholfrequenz umgerechnet 57 Hertz entspricht. Daraus ergibt sich folgende Schlussfolgerung: Die kommenden 360-Hz-Monitore werden auf jeden Fall in Wettkampfspielen zum Einsatz kommen – dies ist eine direkte Möglichkeit, Verzögerungen zu reduzieren, wenn die Computerhardware ihre Fähigkeiten bereits ausgeschöpft hat und durch den dicken Software-Stack des Betriebssystems, der Grafik, begrenzt ist API, Treiber und das Spiel selbst.
Anschließend haben wir geprüft, ob Anti-Latenz-Software Vorteile bietet, die bisher auf die Begrenzung der Frame-Rendering-Warteschlange in Anwendungen hinauslaufen, die auf der Direct3D 9- und 11-Grafik-API basieren – dem berüchtigten Radeon Anti-Lag im AMD-Treiber und Low Latenzmodus in NVIDIA. Wie sich herausstellte, funktionieren beide „Technologien“ wirklich, können aber nur dann spürbare Vorteile bringen, wenn der Engpass des Systems die GPU und nicht der Zentralprozessor ist. In unserem Testsystem mit einem übertakteten Intel Core i7-9900K-Prozessor halfen solche Tools bei preiswerten Grafikkarten mittlerer Leistung (Radeon RX 5500 XT, GeForce GTX 1650 SUPER und ähnlich schnelle Beschleuniger der Vorgängergeneration), sind bei Ihnen aber völlig sinnlos habe eine leistungsstarke GPU. Wenn die Anti-Lag-Einstellungen funktionieren, können sie jedoch äußerst effektiv sein und die Latenz in einigen Overwatch um bis zu 10 ms oder 17 % des Originals reduzieren.
Schließlich haben wir bestimmte Unterschiede zwischen Grafikkarten verschiedener Hersteller festgestellt, die sich allein anhand der Bildraten nicht vorhersagen ließen. Daher bieten AMD-Grafikkarten manchmal die gleiche kurze Latenz wie formal produktivere „grüne“ Geräte (Beispiel: Radeon RX 5700 XT in CS:GO), und in anderen Fällen arbeiten sie verdächtig langsam (dasselbe Modell in DOTA 2). Wir werden uns nicht wundern, wenn begeisterte Cyber-Sportler, die um den geringsten Vorteil gegenüber ihren Gegnern kämpfen, bei der Verbreitung von Hardware-Lag-Messtechniken wie LDAT anfangen werden, Grafikkarten für ein bestimmtes Spiel auszuwählen – je nachdem, welches Modell die kürzeste Reaktionszeit bietet.
Vor allem aber haben wir dank LDAT die Möglichkeit, tiefergehende Latenzstudien durchzuführen. Was wir in dieser Vorschau getan haben, ist nur die Spitze des Eisbergs. Themen wie der Einfluss adaptiver Synchronisationstechnologien (G-SYNC und FreeSync) auf Verzögerungen, die Begrenzung der FPS im Spiel, die Abhängigkeit von der CPU-Leistung und vieles mehr bleiben außerhalb des Rahmens. Darüber hinaus werden wir herausfinden, ob hohe Bildraten von Hunderten von FPS und dementsprechend eine schnelle Reaktion auf Eingaben nicht nur in kompetitiven Spielen, die speziell für diese Kriterien optimiert sind, sondern auch in AAA-Projekten, die das System stark belasten, erreichbar sind mehr. Braucht also der durchschnittliche Gamer und nicht der Champion einen hochmodernen Monitor mit einer Bildwiederholfrequenz von 240 oder sogar 360 Hz? Wir werden diese Fragen in zukünftigen Arbeiten mit LDAT beantworten.