Test Ashes of the Singularity: Leistungsexplosion durch DirectX 12

@rg88
Bei Freesync Monitoren wird der schon vorhandene Scaler des Herstellers im Monitor benutzt, es muss somit kein Modul oder Lizenzgebühr bezahlt werden, was natürlich für den Hersteller deutlich günstiger ist. Das GSync Modul kost ca. 200,00€, das weiß ich, weil man ja beim ASUS VG248QE GSync nachrüsten konnte und da hat das Modul 200,00 Dollar gekostet, das wären jetzt so 180,00 Euro. Man braucht also im Endeffekt nur den Displayport 1.2a und die entsprechende Software um FreeSync zu nutzen.

Edit: Im Prinzip hast Du natürlich recht, das der Monitor bei FreeSync einen eigenen Scaler/Frequenzteiler[wenn auch vom Hersteller] braucht, somit benötigt man eigentlich auch Hardware. Dieser Scaler vom Hersteller kostet natürlich in der Massenfertigung [vermutlich ein paar Cent] nur einen Bruchteil, von dem was Nvidia für sein proprietäres Modul verlangt. ;)
 
Zuletzt bearbeitet:
Iscaran schrieb:
Der Input-lag entsteht nicht in einer GPU etc...das heisst wenn du 300FPS hast kannst du dennoch einen input lag von 1s haben (also 1FPS)...
Und wenn ich im gleichen Szenario 60fps hätte, hätte ich einen Input-Lag von 1,013s - 13ms mehr als 1s.

Schon klar, dass fps nicht der einzige Faktor ist, aber das haut auf jeden Fall noch Lag oben drauf.

Iscaran schrieb:
aber allein MEHR FPS reduzieren deinen "Inputlag" nicht
Doch. Je mehr fps, desto "frischer" (=weniger alt) ist das Bild, das dann am Monitor ankommt.

Oder wolltest du einfach nur anmerken, das Input-Lag der falsche Begriff ist? Input-Lag ist für mich die Zeitdifferenz zwischen Eingabe (Maus/Tastatur) und Ausgabe dieser Eingabe auf dem Bildschirm.
 
FreeSync ist die Software (von AMD).
Der Scaler muss mit dem VESA Standard AdaptiveSync kompatibel sein, und ist somit der Hardwareteil.

G-Sync sind Software/Treiber als auch das Hardwaremodul.
Das G-Sync Adaptive Sync nutzt/nutzen kann sieht man wunderbar im Notebookbereich, dort gibt es nämlich kein G-Sync Modul.

Im Desktopbereich verkauft nvidia dafür den Kunden für dumm und klatscht ihm ein -inzwischen - nutzloses Modul auf die Platine.
 
Nein. Deine Beschreibung impliziert dass man Input-Lag mit FPS erhöhung bekämpfen kann....das ist aber einfach falsch.

Was du meinst ist die Reaktionszeit die sich als Summe aller lags definiert...diese kannst du verbessern.


Aber wenn wir nehmen wir mal an ein gutes System mit nur 10ms Input lag haben....dann hast du IMMER 10ms+X Reaktionszeit.

=> Mehr FPS bringen eben nur sehr bedingt etwas. Wenn die Game engine schon 100 ms "Input-Lag" hat z.b. bringen dir auch 1000 FPS nicht weniger als 100ms als reaktionszeit.
 
Iscaran schrieb:
Nein. Deine Beschreibung impliziert dass man Input-Lag mit FPS erhöhung bekämpfen kann....das ist aber einfach falsch. Was du meinst ist die Reaktionszeit die sich als Summe aller lags definiert

Ich glaube, wir haben hier ein Definitionsproblem. Ich zitiere mal:
In video games, input lag is either the delay between the television or monitor receiving a signal and it being displayed on the screen(see display lag below), or the delay between pressing a button and seeing the game react.

Wobei ich ersteres nur als Display- bzw. Output-Lag kenne.


Iscaran schrieb:
=> Mehr FPS bringen eben nur sehr bedingt etwas. Wenn die Game engine schon 100 ms "Input-Lag" hat z.b. bringen dir auch 1000 FPS nicht weniger als 100ms als reaktionszeit.
Sagt doch auch niemand! Aber selbst wenn die Game-Engine 100ms hat, hat man mit 1000fps 100ms + 1ms = 101ms und mit 10fps 100ms + 100ms = 200ms.
Und das soll dann mit steigenden fps keine Verbesserung sein?

longlag.pngbestcase.png
Quelle: anandtech

Was ist denn daran so schwer zu verstehen?
 
Zuletzt bearbeitet:
werden die GPUs bei der "Leistungsexplosion" eig wärmer ?
 
garrulus schrieb:
Mich auch. Meine bisherige 980ti werde ich bald als PhysX Karte zu einer FuryX betreiben.

Wen eine AMD karte im rechner steckt deaktiviert nvidia die PhysX funktion im treiber. Bin mal gespannt wie lange NV MulitGPU zulässt...
 
Zuletzt bearbeitet:
@toxic:


deine kalkulation am anfang der diskussion ist so eben nicht richtig:

Spiel' mal CS:GO mit fps-Limit auf 60 und unlimitiert (300fps oder so) - das merkst du sofort. Stichwort: Input-Lag. Je höher die fps, desto kürzer ist das Zeitintervall zwischen Input und einem neuen Bild.

Worst-case der Differenz ist bei 60fps 16,6ms, bei 300fps nur 3,3ms.
Genau das macht aber Input-LAG nicht besser. Siehe dein eigenes Bild:

https://www.computerbase.de/forum/attachments/longlag-png.546204/

Jetzt betrachten wir mal nur dieses Szenario wo der Gesamt-lag auf 103ms lautet...davon sind nur 33ms "GPU-Lag".

Also eine verdoppeln der FPS auf 60 (=16ms) reduziert den INPUT-LAG in dem beispiel gerade mal von 103 auf 87 ms !

=> WENN man ein System hat das bemerkbaren Input-Lag hat...dann liegt es in den seltensten Fällen an einem "GPU"-Lag. (siehe obiges beispiel mit 30FPS bei 103 ms Gesamtlag.

Paradebeispiel sind TV-screens die einen Signal-Output-Lag von ~100-200ms haben. Also Zeit vom Empfang des Bildes in der Satellitenschüssel bis zur Darstellung als Bild.

Auf so einem Bildschirm wirst du am PC selbst mit 1000 FPS über den Input-Lag schimpfen...und wenn man deiner Argumentation folgt die Grafikkarte als schuldigen ausmachen und versuchen diese "sinnlos" aufzurüsten.

Deswegen meine Kritik an deiner Äußerung. GPU-LAG != Input-Lag. Sondern höchstens und worst-case nur ein Teil davon.
 
Iscaran schrieb:
Also eine verdoppeln der FPS auf 60 (=16ms) reduziert den INPUT-LAG in dem beispiel gerade mal von 103 auf 87 ms !

Ja, richtig. Und das ist doch wohl eine Verbesserung?! Egal wie groß die anderen Zeitkomponenten noch sind.

Du meintest vorher "aber allein MEHR FPS reduzieren deinen "Inputlag" nicht", damit hast du das doch jetzt selbst widerlegt (es sei denn, du definierst "Input-Lag" anders).

Beim "worst-case" oben hab ich mich rein auf die GPU-Zeit bezogen - ich sehe aber ein, dass das missverständlich sein kann. Ich meinte nicht, dass bei 60fps der Input-Lag maximal 16,7ms ist, sondern durch 60fps im worst-case nochmal zusätzliche 16,7ms hinzukommen. Diesen Anteil kann man mit mehr fps reduzieren, immer - egal, wie groß die anderen Teile sind.

Und da die GPU-Zeit in den meisten Fällen den Löwenanteil hat, merkt man den Unterschied auch in der Praxis.
 
Ja OK wir meinen offenbar im wesentlichen dasgleiche.
DrToxic schrieb:
Und da die GPU-Zeit in den meisten Fällen den Löwenanteil hat, merkt man den Unterschied auch in der Praxis.

Nur hier denke ich stimmts nicht...die GPU-Zeit ist nur bei Sehr niedrigen FPS (<30) der löwenanteil) schau dir doch mal das "worst" case beispiel von dir an...33ms GPU time ? Das ist schon eher ungewöhnlich lange (30FPS).

Und die anderen lags sind z.T. auch sehr kurz in dem beispiel. Wie gesagt normalerweise wenn leute sich über "input-lag" problem beschweren dann haben sie oft ein TV-Screen (weil ja so wichtig wegen hdmi) anstatt einem richtigen "computer monitor/Display". Und gerade TV-Screen sind wahre Input-Lag monster...200ms sind da keine Seltenheit und auch nichtmal ein maximalwert.

Aber...passt schon. FPS erhöhen hilft schon (ein wenig)
 
kisser schrieb:
Voll am Thema vorbei würde ich sagen, denn was hat das mit der Single-Thread-Performance bei AMD zu tun?


Single-Thread Leistung ist halt "unwichtig", sonst hätten wir kein DX 12 und Co.


Viele Grüße,
stolpi
 
stolperstein schrieb:
Single-Thread Leistung ist halt "unwichtig", sonst hätten wir kein DX 12 und Co.


Viele Grüße,
stolpi


Nein, sie ist nicht unwichtig und wird es auch nie werden. Es gibt nunmal Dinge, die sich nicht parallelisieren lassen.
Ergänzung ()

rg88 schrieb:
@kisser: Na klar können die das, im Laptop ist Gsync ja auch Adaptive Sync.


Laptop = eDP != DP.
 
Dann beantworte doch mal folgende Frage:

Wieso hat es so lange gedauert, Adaptive Sync fähige Monitore zu entwickeln, wenn Adaptive Sync schon seit 2009 in eDP spezifiziert ist?
 
kisser schrieb:
Nein, sie ist nicht unwichtig und wird es auch nie werden. Es gibt nunmal Dinge, die sich nicht parallelisieren lassen.
.

Natürlich ist das nicht unwichtig (siehe "") aber es ist halt eine Einbahnstraße und für die Entwicklung hinderlich wenn man sich darauf fixieren sollte.
Das hat AMD früh erkannt, sonst wäre diese große Leistungssteigerung von zig Jahren alten Prozessoren gar nicht möglich gewesen und zeigen wieder einmal, wenn es nach Intel gegangen wäre, würden z.B. alle Gamer usw. ihre Itanium CPUs nutzen müssen.
Ist ja Gott-sei-Dank alles anders gekommen...aus dieser Richtung kommt halt nur Müll von der Firma.


Viele Grüße,
stolpi
 
Zurück
Oben