Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestBattlefield V mit DXR: Update beschleunigt Raytracing massiv
@Esenel
Irgendwas Limitiert doch immer... mal Ram, mal CPU, mal GPU... und zur Zeit gibt es doch nur Skylake refresh in der 4. Runde... da lohnt es noch nicht so wirklich aufzurüsten.
Zumal ich keine Spectre Patches auf den System habe, stehe ich CPU Performance mäßig noch relative gut da...
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ja da hast du natürlich Recht.
Gut bei dem Video fehlt halt mal die Angabe der Cache/Uncore Frequenz.
Bei deinem System würde halt vor allem der zu langsame RAM Probleme machen. Verschenkst ca 10-15% Leistung. Da bringen leider die 4,7 GHz der CPU auch ned so viel dann :-(
@Esenel
Ich muß eingestehen, das ich jetzt nicht so Informiert bin was die Performance unterschiede zwischen meinen 2800er und z.B. nen 3600er kenne.
Aber heißt es nicht das Ryzen viel stärker durch schnelleren Ram profitiert?
KA wie es bei Intel genau aussieht. Bei 10-15% würde ich aber jetzt mal auf mindestens 4000er Ram Tippen.
Manche Features kommen durch, manche nicht. Features allein haben eine Matrox Parhelia und diverse AMD Vorstöße, so sinnvoll und gut sie auch gewesen sein mögen, auch nicht gerettet.
und das du mir unterstellst das ich mich nicht auskennen würde ist echt lächerlich
Da gibt es leider ein Problem- Du nennst diese Features Papiertiger nur sind sie nunmal in Hardware gegossen und zwar genau mit den Leistungsdaten, die NVIDIA angibt.
Was daraus gemacht wird steht, wie so oft, auf einem andern Blatt.
Feuer das Visual Studio an, hol Dir die DXR/RTX Extension / Falcor und Teste die neuen Einheiten.
Oder binde RTX an Tensor Flow an etc. etc.
Es funktioniert genau alles so, wie NVIDIA es in den technischen Datenblättern ausgewiesen hat.
Und da ich die Werte ebenso erhalte und weiss, wie die hybrid- Rendering Ansätze gemeint sind und angewandt werden, denke ich dass Du zuallererst Deine aus der Luft gegriffenen Behauptungen mal belegen solltest.
Wie außerdem sollte ich, aus den beleglos in den Raum geworfenen Behauptungen, die Information gewinnen, dass Du Ahnung hättest? Mag ja sein, dass Du Dich auskennst...
Ich wette du weißt noch nicht mal wie 2002 die Realtime Raytracing Geschichte in der Universität Saarland überhaupt begonnen hat... bevor nvidia damals das Projekt aufgekauft hat und unterverschluss gehalten hat...
Intrigen. Firmenpolitischer Alltag. Soll ich jetzt schockiert sein? War damals das Silizium so weit, dass man es zu etwas für damalige Maßstäbe flüssig funktionsfähigem für die Masse hätte machen können?
Innovative Ansätze und der Traum vom Full- Scene- Realtime- Raytracer gab es seit Money for nothing von den Dire Straits in Hülle und Fülle in ebenso immer neuen revolutionären Ansätzen, wie bei den Speichertechnologien den Tesa- Speicher oder bei den Batterien die Ultra- Batterie, die in 2 Sekunden aufgeladen ist und dann 5 Stunden hält...
Wir haben jetzt das erste mal etwas Handfestes, was beim Consumer gelandet ist und ordentlich funktioniert.
Und jetzt Ploppen bestimmt bei dir 3 Fragezeichen übern Kopf auf, weil du keinen blassen Schimmer hast wovon ich da reden.
Sie haben sich, wie für eine große Firma üblich interessante und zukunftsversprechende Technologien einverleibt. Ist das ungewöhnlich in der Wirtschaft?
Es ist ein schlechter witz was Nvidia aus der damaligen Entwicklung gemacht hat.
Man kann von der heutigen RTX Technologie nur gehypt sein wenn man von
der Materie wirklich null ahnung hat.
Die Technologie gabs vorher schon - Mit immer neuen/anderen Ansätzen. Dennoch war das alles MEILENWEIT entfernt von einer für den Consumer in Echtzeit nutzbaren Variante.
Aber heißt es nicht das Ryzen viel stärker durch schnelleren Ram profitiert?
Seit Skylake ist es anders. Die Tests bescheinigen mit zu den neuen Intel Generationen ansteigenden Unterschieden, dass Intel davon etwas mehr profitiert.
Erst jetzt wieder nachzulesen in der neuen PCGH Printausgabe, die das sehr ausführlich getestet haben (inkl. uncore- OC- Auswirkungen, den Du auch auf 4,6GHz übertakten solltest).
Da kannst Du nochmal nen guten Schub rausholen, gerade was min. FPS und Frametimes anbelangt.
@Esenel
Ich muß eingestehen, das ich jetzt nicht so Informiert bin was die Performance unterschiede zwischen meinen 2800er und z.B. nen 3600er kenne.
Aber heißt es nicht das Ryzen viel stärker durch schnelleren Ram profitiert?
KA wie es bei Intel genau aussieht. Bei 10-15% würde ich aber jetzt mal auf mindestens 4000er Ram Tippen.
Hab ich mit meinem getestet.
der 8700k bringt Stock mit 3000er RAM mehr Leistung als auf 5 Ghz und nur 2133er RAM.
Und so zieht sich das mit Uncore und RAM durch alles.
Also ich spiele mit DXR auf Medium in 1440p und habe zwischen 70 und 90 fps in wqhd.
habe texturen und texturfilter auf ultra, den rest auf high, das entlastet die shader ein wenig und macht grafisch kaum einen unterschied.
es läuft absolut astrein spielbar und ist optisch ein totales fest, insbesondere mit dem verchromten stg44 was dein gesicht spiegelt!
Hat schon jemand eine Frametime Analyse von DX12 RTX On - DX12 RTX Off - DX11 gemacht?
Gutes Video zum Thema:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Da gibt es leider ein Problem- Du nennst diese Features Papiertiger nur sind sie nunmal in Hardware gegossen und zwar genau mit den Leistungsdaten, die NVIDIA angibt.
Was daraus gemacht wird steht, wie so oft, auf einem andern Blatt.
Genau das ist es ja, was bringt mir RTX wenn es für mich als zocker nicht passend performance liefert oder erst gar nicht unterstützt wird. Wenn du die RT Cores für deine Rendering Anwendungen nutzen kannst, schön für dich...
ZeroZerp schrieb:
Es funktioniert genau alles so, wie NVIDIA es in den technischen Datenblättern ausgewiesen hat.
Mag sein, habe auch nix anderes behauptet... ändert trotzdem nichts an die schlechte Performance oder geringen kompatibilität.
DLSS gibt es heute noch immer nicht und selbst wenn es unterstützt wird, dann ausschließlich nur für UHD was fast niemand nutzt.
Die ganzen features sind doch so uninterressant für Spiele Hersteller das nvidia den Hersteller paar Geldscheine hinten reinschieben muß damit man überhaupt mal was sieht... und das ist jetzt mit den "Prestige" Spiel Battlefield V der Fall.
ZeroZerp schrieb:
Wie außerdem sollte ich, aus den beleglos in den Raum geworfenen Behauptungen, die Information gewinnen, dass Du Ahnung hättest? Mag ja sein, dass Du Dich auskennst...
Dann solltest du vielleicht bei dem bleiben was du weißt und mir nicht irgendwas unterstellen.
ZeroZerp schrieb:
Intrigen. Firmenpolitischer Alltag. Soll ich jetzt schockiert sein?
Innovative Ansätze und der Traum vom Full- Scene- Realtime- Raytracer gab es seit Money for nothing von den Dire Straits in Hülle und Fülle in ebenso immer neuen revolutionären Ansätzen, wie bei den Speichertechnologien den Tesa- Speicher oder bei den Batterien die Ultra- Batterie, die in 2 Sekunden aufgeladen ist und dann 5 Stunden hält...
Wir haben jetzt das erste mal etwas Handfestes, was beim Consumer gelandet ist und ordentlich funktioniert.
Die Technologie gabs vorher schon - Mit immer neuen/anderen Ansätzen. Dennoch war das alles MEILENWEIT entfernt von einer für den Consumer in Echtzeit nutzbaren Variante.
Eben genau nicht... du hättest dir damals (2002-2003) die Gamestar DVD angucken sollen, da waren die Redakteure noch nicht so beschränkt wie die Leute die heute bei Gamestar arbeiten. Da war damals ein großer Bericht wie die beiden Entwickler (Der Prof mit einen Studenten) in der Uni Saarland Echtzeit Raytracing auf einer Riva TNT2 für Quake3 zum laufen gebracht haben mit übertriebenen Schattenberechnungen und gleichzeitig einer immense Performance steigerung auf über 1000fps und haben auch direkt gesagt das es ohne große Hürden auf andere Spiele anwendbar sei.
Wäre das damals auf den Markt gegangen hätte nvidia sofort ihren Laden dicht machen können.
Was wir heute von nvidia sehen ist eine extreme limitierung/rückentwicklung, hier wird absichtlich gedrosselt wo es irgendwie nur geht, das ist so als würde ich mir ein Auto kaufen mit 4 angezogenen Handbremsen damit der 300PS starke Motor auch blos nicht über 30KM/H fährt.
Da war damals ein großer Bericht wie die beiden Entwickler (Der Prof mit einen Studenten) in der Uni Saarland Echtzeit Raytracing auf einer Riva TNT2 für Quake3 zum laufen gebracht haben mit übertriebenen Schattenberechnungen und gleichzeitig einer immense Performance steigerung auf über 1000fps und haben auch direkt gesagt das es ohne große Hürden auf andere Spiele anwendbar sei.
Full Scene Raytracing auf einer Riva TNT2, die keine programmierbaren Shader hatte? 1000FPS mit Schatten, Spiegelungen und Co.? Das konnte ja der RAMDAC der Karte garnicht verarbeiten.
Hört sich für mich nach Perpetuum Mobile an. Kannst Du vielleicht den Bericht irgendwo hervorkramen?
Die Uni Saarland weist was anderes aus:
Derartiger Realismus hat aber natürlich einen hohen (Hardware-)Preis: Um Quake 3 in einer Auflösung von 512 x 512 mit 20 Bildern pro Sekunde, 4fach-FSAA und komplett in Echtzeit berechnetem Raytracing zum Laufen zu bringen, wurde eine Intel-CPU-Rechenleistung von 36 GHz - bzw. ein Cluster von 20 AMD-XP1800-Prozessoren - benötigt.
Mal eine Frage in die Runde.
Also 60 fps sind 16 ms Frametime.
100 fps sind 10 ms.
160 fps sind 6 ms.
Also wenn ich nun BF V gegen jemanden spiele, der konstant 60 fps hat und ich selbst konstant 140 fps habe, bekomme ich ja theoretisch doppelt so viele Input Informationen und Veränderungen angezeigt wie mein Gegner?
ABER wo spielt hier nun die Tickrate von 60 mit rein?
Habe ich also gar keinen Vorteil und meine Inputs verpuffen einfach an der Tickrate?
Dein Vorteil ist, dass deine Animationen flüssiger/gleichmäßiger aussehen. Das sieht besser aus und kann beim zielen helfen.
Die Daten, die übers Internet kommen werden etwas früher auf deinem Monitor erscheinen...egal wie schnell und oft sie kommen, du bekommst sie minimal früher zu sehen als wenn du 60FPS hättest.
Aber natürlich hängt ein Großteil des lags an der Internetverbindung, dem Senden durch den Gegner und dem verarbeiten durch den hostenden Rechner.
Und du bekommst natürlich auch bei einer 60er tickrate nur 60mal eine neue Information über die Position deines Gegners.
Mal eine Frage in die Runde.
Also 60 fps sind 16 ms Frametime.
100 fps sind 10 ms.
160 fps sind 6 ms.
Also wenn ich nun BF V gegen jemanden spiele, der konstant 60 fps hat und ich selbst konstant 140 fps habe, bekomme ich ja theoretisch doppelt so viele Input Informationen und Veränderungen angezeigt wie mein Gegner?
Du bekommst das Update der Server im Maximalfall ca. 10ms früher bei 160Hz vs 60Hz. Im minimalfall, nämlich wenn bei 60FPS die Tick- Rate auf einen Bildsync fallen würde, aber 0ms früher.
Der Client extrapoliert, wird aber doch immer wieder auf die 60HZ zurückgezwungen. Das ist das Phänomen, dass sich Leute hinter eine Mauer werfen und kurz dahinter dann tot sind.
Da hat sie die berechnete Kugel auf dem Server getroffen, obwohl der Client "vorausgeeilt" ist (Latenz Internetleitung 1 <- Server (auch mit Latenz) -> Latenz Internetleitung 2).
Bei kompetitiven Shootern kannst Du auch 1000FPS haben. Dein Aim/Hit steht und fällt zu 99% mit der Latenz und der Voraus- schau/berechnung der Bewegungsvektoren der relevanten Einheiten.
Somit bewegen wir uns generell diesbezüglich schon in Sphären, die ein wenig ins Voodoo abdriften, wenn man sich Vorteile von diesen 8ms verspricht. Das Auge an sich löst im periphären, also nich Hauptsichtfeld maximal 100-110 Bilder pro Sekunde auf (dafür sind die Stäbchen zuständig, die vermehrt Außerhalb des Fokus liegen). Im Hauptfokus sind es weniger, dort wird das Farbsehen und Scharfsehen forciert.
Ich möchte mal sehen, wie einer einen Shooter aus den Augenwinkeln spielt, um auf die Bewegungsauflösung von 100Hz für sein Auge zu kommen. Dennoch konnte man den Effekt in Zeiten des Röhrenfernsehers sehr schön beobachten. Während bei einem frontalen Blick das Bild ruhig war, konnte man aus den Augenwinkeln geblickt dann doch oft ein deutliches Flimmern vernehmen.
Zwischen 90ms und 150ms sind machbar. Das sind aber Extremfälle, wo das Gehirn den Ablauf vorher schon kennt. Ein Shooter ist ja dynamisch. Da klappt sowas nicht.
Wenn man bedenkt, dass man die Werte dort über einem Knopf schwebend mit hoher Konzentration auf eine einzige Sache erreicht, kann man sich leicht ausrechnen, wie eine dynamische Reaktion in einem Multiplayer aussieht, der allein durch die Technik schonmal locker 150ms vergeigt (Mausklick bis zum Erscheinen der Aktion auf dem Bildschirm des gegenüberliegenden Spielers).
Das System in PC Onlineshootern ist in der Regel wie du es beschreibst.
Wobei es da zusätzlich verschiedene Ansätze gibt.
So gilt nicht in jedem Spiel der Treffer der auf der Server Seite bestätigt wird, sondern manchmal auch der Treffer auf Schützen oder "Beschossenen" Seite.
Und das kann (sollte)auch dynamisch wechseln.
Ein System registriert Hits so wie sie der Schütze sah...hat er auf seinem Bilschirm getroffen bekommt der andere auch Schaden, egal ob der Schütze 500ms Latenz hat und der "getroffene" auf seinem Rechner schon hinter einer Deckung ist.
Das ist natürlich unfair für den getroffenen weil er wegen der schlechten Internetverbindung eines anderen getroffen wurde.
Aber auch andersherum kann es blöd sein....In einem System, wo der Server den getroffenen fragt, ob er auf seinem Bildschirm getroffen wurde, kann jemand mit hoher Latenz praktisch nicht getroffen werden, weil er auf den Bildschirmen der anderen massiv zurück hängt und diese "seine eigene" Position nicht kennen.
Der Server/Hoster sitzt irgendwie in der Mitte und hier passt nichts so wirklich(außer ein Spieler hostet, dann passt für ihn alles).
Spieler müssen etwas vor schießen um andere zu treffen und beschossenen damit rechnen auch hinter Deckung noch kurz getroffen werden zu können.
Dynamisch kann man hingehen und für die Spieler mit hohem Ping die Art der Treffererkennung ändern.
Spieler mit gutem Ping treffen wenn sie auf ihrem Rechner treffen....so jamert keiner weil: "Ich hab doch getroffen "
Aber wird ihr Ping schlecht, bekommen sie eine Warnung und die anderen entscheiden über den Hit.
Jetzt treffen sie fast nix mehr und werden selbst weit hinter einer Deckung getroffen, wissen aber dass es an ihrem Internet liegt.
Es hat alles Vor und Nachteile.
ZeroZerp schrieb:
Die Auge/Hirn Schwelle liegt bei ca. 100ms. Auge/Hand dementsprechend noch einmal deutlich drüber.
Aber wenn ich die Durchführung der Tests verstanden habe, sind die gemessenen Latenzen eher relativ zu sehen als absolut.
In den 100ms die vom Test aufgezeichnet wurden, steckt bereits die Latenz des Monitors/PCs/Sensoren mit drin.
Aus deinem Wiki link:"Die VEP sind in hohem Maße von technischen Parametern der Stimulation (Monitor, Spiegel, Blitzbrille, Abstand zum Auge) abhängig. Daher ist es obligat, dass für die jeweilige Konstellation spezielle Normwerte ermittelt werden. "
Es werden also nicht mit jedem Aufbau 100ms gemessen, sondern mit einem Offset gearbeitet, um bei "normalen Menschen" auf einen Durchschnitt von 100ms zu kommen.
Ob das ursprünglich auch der "echte" Wert war, abzüglich aller technischen Latenzen oder ob da einfach ursprünglich jemand gedacht hat...mein Prototyp-System zeigt Werte in dem Bereich.....lass uns das auf 100ms setzen.........darüber habe ich nichts gefunden.
Dann wird das Signal am Hinterkopf mit Elektroden gemessen.....da wurde das Signal ja eigentlich schon von Hirn aufgenommen, und es wird vermutlich nicht das Signal vom Auge sondern die Antwort des Gehirns auf das Signal gemessen....natürlich hängt das stark mit der Latenz des Auges zusammen, aber ich kann nicht abschätzen, wie früh in diesen 100ms(sofern die stimmen) das Gehirn anfängt mit der Information zu arbeiten.
Und eigentlich ist es auch egal.....Wenn ich den Reaktionstest aus deinem letzten link mache,
war mein bester Wert nach ein paar Versuchen 178ms....sonst eher zwischen 190-250ms.
Da steckt ja schon die Monitorverzögerung, meine Fingerbewegung usw. drin.....und meine lahmes Gehirn.
Und du schreibst:
ZeroZerp schrieb:
Zwischen 90ms und 150ms sind machbar. Das sind aber Extremfälle, wo das Gehirn den Ablauf vorher schon kennt. Ein Shooter ist ja dynamisch. Da klappt sowas nicht.
Wenn die Latenz des Auges schon 100ms wären, wie sollte dann jemand auf 90ms kommen können...inklusive Bewegung usw.
Ich denke für Profis ist so ein Shooter auch nicht mehr dynamisch...da ist Zielen und Schießen bereits im "muscle memmory" drin.
Kurz.....ich denke das Auge ist schneller als 100ms.
Und egal welche Latenz ein Auge hat, das Gehirn ist daran gewöhnt auch im Alltag diese Latenz als "sofort" zu empfinden....Latenzen am PC können dann trotzdem auffallen, weil sie von dem üblichen "sofort" abweichen.....ab welchen Werten.....schwer zu sagen.
ZeroZerp schrieb:
Wenn man bedenkt, dass man die Werte dort über einem Knopf schwebend mit hoher Konzentration auf eine einzige Sache erreicht, kann man sich leicht ausrechnen, wie eine dynamische Reaktion in einem Multiplayer aussieht, der allein durch die Technik schonmal locker 150ms vergeigt (Mausklick bis zum Erscheinen der Aktion auf dem Bildschirm des gegenüberliegenden Spielers).
Generell 150ms halte ich aber für zu viel.....das wären ja eher 60Hz V-sync Werte.
Wenn man die Werte mit einem schnellen Monitor und einem guten Ping auf beiden Seiten testet, kommt man auf deutlich niedrigere Werte.
Battle(non)sense macht da gute Videos zu.....Latenz vom runterdrücken der Maus bis zur Reaktion auf dem gegnerischen Bildschirm......Overwatch erreicht da z.B. 40,5ms für Damage registration, 48ms für die Animation des Mündungsfeuers und 66ms für die Bewegungsanimation.
Quake schafft für die Bewegung auch 47,3ms.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Und da steckt ja schon alles mit drin....Verarbeitung und senden des Klicks auf PC1, empfangen, verarbeiten und senden der Aktion auf dem Server und empfangen, verarbeiten und darstellen auf PC2....alles in 40ms möglich.
Natürlich ist es je nach Ping der Spieler, Tickrate, Hardware usw deutlich mehr....da können auch 150ms hinkommen.
Daher stimme ich dir auch zu, dass z.B. die 10ms, die ich das Bild früher sehen könnte, oft keine Rolle spielen....aber will man das beste Erlebnis, sind es ja auch bei 150ms eine Verbesserung von ca 7%.
Und im besten Fall von 40ms, zu 50ms eine 25%ige Verschlechterung......oder auch mal 300+% wenn man 60Hz V-sync dazuschaltet.
Und da sagt mit wieder einfach die Erfahrung....man sieht Unterschiede.....nicht die 10ms allein, aber die Summe aus vielen kleinen Latenzen oder einzelne große Latenzen.
Ich sehe die schlechte Latenz am Monitor meiner Freundin...ich sehe den Unterschied von 60 FPS zu 100FPS und von 60Hz zu 144Hz....und ich sehe deutlich den 60Hz+V-sync lag, den manche Spiele bekommen.
Das sind natürlich unterschiedliche Dinge, die nicht immer direkt mit Latenzen zusammenhängen, aber man merkt sie einzeln leicht und alles zusammen macht mir deutlich mehr Spaß....Ein PC Spiel auf meinem Hauptrechner mit 144Hz, hohen FPS(mit guten Frametimes) usw. fühlt sich einfach direkter/reaktionsschneller und damit schöner an.....da ist es mir egal, ob ein Gehirntest sagt:"sollte eigentlich unwichtig sein."
Danke....ich wusste nicht, dass der auch protokolieren kann.
Das werde ich mal ausprobieren, denn als ich letztens versucht habe die Benchmarkfunktion vom MSI AB zu überprüfen, waren die angaben für 1% und 0.1% low einfach mal random komisch und nicht vergleichbar mit dem was Fraps und PresentMon an Frametimes messen.
Ja das ist wahr....sag mal was hast du für Einstellungen genommen?
Wenn ich das loging aktiviere, und die log datei mit dem Editor öffne, sehe ich dort nur einen Wert pro Sekunde.
Wie bekomme ich alle Frametimes?
Danke....ich wusste nicht, dass der auch protokolieren kann.
Das werde ich mal ausprobieren, denn als ich letztens versucht habe die Benchmarkfunktion vom MSI AB zu überprüfen, waren die angaben für 1% und 0.1% low einfach mal random komisch und nicht vergleichbar mit dem was Fraps und PresentMon an Frametimes messen.
Ergänzung ()
Ja das ist wahr....sag mal was hast du für Einstellungen genommen?
Wenn ich das loging aktiviere, und die log datei mit dem Editor öffne, sehe ich dort nur einen Wert pro Sekunde.
Wie bekomme ich alle Frametimes?
Das System in PC Onlineshootern ist in der Regel wie du es beschreibst.
Wobei es da zusätzlich verschiedene Ansätze gibt.
So gilt nicht in jedem Spiel der Treffer der auf der Server Seite bestätigt wird, sondern manchmal auch der Treffer auf Schützen oder "Beschossenen" Seite.
Und das kann (sollte)auch dynamisch wechseln.
Ein System registriert Hits so wie sie der Schütze sah...hat er auf seinem Bilschirm getroffen bekommt der andere auch Schaden, egal ob der Schütze 500ms Latenz hat und der "getroffene" auf seinem Rechner schon hinter einer Deckung ist.
Das ist natürlich unfair für den getroffenen weil er wegen der schlechten Internetverbindung eines anderen getroffen wurde.
Aber auch andersherum kann es blöd sein....In einem System, wo der Server den getroffenen fragt, ob er auf seinem Bildschirm getroffen wurde, kann jemand mit hoher Latenz praktisch nicht getroffen werden, weil er auf den Bildschirmen der anderen massiv zurück hängt und diese "seine eigene" Position nicht kennen.
Der Server/Hoster sitzt irgendwie in der Mitte und hier passt nichts so wirklich(außer ein Spieler hostet, dann passt für ihn alles).
Spieler müssen etwas vor schießen um andere zu treffen und beschossenen damit rechnen auch hinter Deckung noch kurz getroffen werden zu können.
Ja- Diverse Engines verfolgen da auch verschiedene Ansätze. Bei BV5 ist derzeit der mit der hohen Latenz im Vorteil.
Dynamisch kann man hingehen und für die Spieler mit hohem Ping die Art der Treffererkennung ändern.
Spieler mit gutem Ping treffen wenn sie auf ihrem Rechner treffen....so jamert keiner weil: "Ich hab doch getroffen "
Aber wird ihr Ping schlecht, bekommen sie eine Warnung und die anderen entscheiden über den Hit.
Jetzt treffen sie fast nix mehr und werden selbst weit hinter einer Deckung getroffen, wissen aber dass es an ihrem Internet liegt.
Es hat alles Vor und Nachteile.
Exakt.. Diesbezüglich muss immer ein Kompromiss gefunden werden. Ansonsten müsste man Spieler mit zu hoher Latenz ausschliessen oder auf einen gesonderten Server transferieren, wo man die Prediction wieder angleichen könnte.
Sehr interessant...kannte ich vorher noch nicht.
Aber wenn ich die Durchführung der Tests verstanden habe, sind die gemessenen Latenzen eher relativ zu sehen als absolut.
In den 100ms die vom Test aufgezeichnet wurden, steckt bereits die Latenz des Monitors/PCs/Sensoren mit drin.
Aus deinem Wiki link:"Die VEP sind in hohem Maße von technischen Parametern der Stimulation (Monitor, Spiegel, Blitzbrille, Abstand zum Auge) abhängig. Daher ist es obligat, dass für die jeweilige Konstellation spezielle Normwerte ermittelt werden. "
Es werden also nicht mit jedem Aufbau 100ms gemessen, sondern mit einem Offset gearbeitet, um bei "normalen Menschen" auf einen Durchschnitt von 100ms zu kommen.
Ob das ursprünglich auch der "echte" Wert war, abzüglich aller technischen Latenzen oder ob da einfach ursprünglich jemand gedacht hat...mein Prototyp-System zeigt Werte in dem Bereich.....lass uns das auf 100ms setzen.........darüber habe ich nichts gefunden.
Im Normalfall wird bei einer wissenschaftlichen Arbeit der Netto- Faktor, also ohne die bereits bekannten Messgrößen herausgestellt. Ist wie beim Wiegen, wo Du am anfang das Tara mit dem Messbehälter darauf durchführst.
Und eigentlich ist es auch egal.....Wenn ich den Reaktionstest aus deinem letzten link mache,
war mein bester Wert nach ein paar Versuchen 178ms....sonst eher zwischen 190-250ms.
Da steckt ja schon die Monitorverzögerung, meine Fingerbewegung usw. drin.....und meine lahmes Gehirn.
Und du schreibst:
Genau- Und das ohne Zusatzbewegung, Mauskorrektur etc. Mach den Versuch mal, wenn der Mousebutton nicht direkt über dem Aktivierungsbutton liegt
Dann kommt das einem "Aiming" schon näher.
Wenn die Latenz des Auges schon 100ms wären, wie sollte dann jemand auf 90ms kommen können...inklusive Bewegung usw.
Deswegen schrieb ich dazu, dass solche Reaktionszeiten nur möglich sind, wenn sie einem Rhytmus folgen, derjenige aufgrund eines Taktes "on your marks","set","go" also auch ohne visuelle Reize vorausschauend reagieren kann.
Ich denke für Profis ist so ein Shooter auch nicht mehr dynamisch...da ist Zielen und Schießen bereits im "muscle memmory" drin.
Kurz.....ich denke das Auge ist schneller als 100ms.
Und egal welche Latenz ein Auge hat, das Gehirn ist daran gewöhnt auch im Alltag diese Latenz als "sofort" zu empfinden....Latenzen am PC können dann trotzdem auffallen, weil sie von dem üblichen "sofort" abweichen.....ab welchen Werten.....schwer zu sagen.
Klar- Das Auge kann ja wie gesagt im Extremfall bis zu 110Hz im äußeren Sichtfeld wahrnehmen.
Die Reizübertragung/Verarbeitung ist hier das Interessante.
Generell 150ms halte ich aber für zu viel.....das wären ja eher 60Hz V-sync Werte.
Das wär jetzt mal meine Schätzung: 10ms Gesamtverarbeitungslatenz Klick über Engine bis Router ->20ms Internetstrecke 1 ->40ms Verarbeitung/Koordination+Komprimierung der Daten im Rechenzentrum+ Versand an externes Gateway ->20ms Internetstrecke 2 ->10ms Gesamtverarbeitungslatenz Router bis Bildschirmausgabe.
Dann lassen wirs da 100 ms sein.
Wenn man die Werte mit einem schnellen Monitor und einem guten Ping auf beiden Seiten testet, kommt man auf deutlich niedrigere Werte.
Genau- Und ab da wird dann auch tatsächlich immer mehr der Fokus Richtung Skill verschoben.
Deswegen sind die ESL Preisgeld- Turniere immer lokal.
Natürlich ist es je nach Ping der Spieler, Tickrate, Hardware usw deutlich mehr....da können auch 150ms hinkommen.
Daher stimme ich dir auch zu, dass z.B. die 10ms, die ich das Bild früher sehen könnte, oft keine Rolle spielen....aber will man das beste Erlebnis, sind es ja auch bei 150ms eine Verbesserung von ca 7%.
Und im besten Fall von 40ms, zu 50ms eine 25%ige Verschlechterung......oder auch mal 300+% wenn man 60Hz V-sync dazuschaltet.
Da ist wiederum die Frage, wie die Engine auf V-sync reagiert. Wenn die darauf geeicht ist, das Bild mit den Ticks zu synchronisieren, hast Du quasi 0 Verzögerung.
ich sehe den Unterschied von 60 FPS zu 100FPS und von 60Hz zu 144Hz....
Wie gesagt- Es gibt wissenschaftliche Studien, die Menschen mit gutem Sehvermögen durchaus 110Hz Zeitauflösungsvermögen bescheinigen. Deswegen gehe ich mit mit der Gegenfraktion mit, die sagt, dass es eben schon einen Unterschied macht, ob 60Hz oder mehr. Das wird ja doch von einigen bestritten, dass es da einen wahrnehmbaren Unterschied gibt.
und ich sehe deutlich den 60Hz+V-sync lag, den manche Spiele bekommen.
Ja schon....Mediziner würde ich da aber etwas gesondert einsortieren.
Die interessiert es ja auch nicht wie der Wert absolut ist, die wollen nur wissen wer über und wer unter dem Nomalfall liegt....und wie stark.
Daher meine Skepsis, ob deren Tara nicht einfach auf 100 stellt ohne zu wissen, ob 100 überhaupt der echte Wert ist.
ZeroZerp schrieb:
Da ist wiederum die Frage, wie die Engine auf V-sync reagiert. Wenn die darauf geeicht ist, das Bild mit den Ticks zu synchronisieren, hast Du quasi 0 Verzögerung.
Ja V-sync häng stark von der Engine ab.
Das das mit der Tickrate synchronisiert wird, höre ich aber zum ersten mal.
Was bei V-sync den input lag so stark ansteige lässt, sind die vorbereiteten Drawcalls.
Ohne V-sync ruft die GPU ja kurz vor Ende ihrer Arbeit bei der CPU an und bestellt neue Daten für das nächste Bild(Drawcalls).
Mit V-sync scheint das irgendwie anders zu laufen....da die GPU auf den nächsten Monitorrefresh wartet und dann innerhalb von 16,66ms mit dem Rendern fertig sein muss, müssen die Drawcalls schon abgeschlossen sein und die GPU muss sofort loslegen können.
Das schein bei den Entwicklern zu einer verstärkten Sicherheitsbedürfnis zu führen, so dass diese 4-5 oder mehr Framedaten von der CPU vorbereiten lassen, die dann in einer Warteschlange auf die GPU warten.
So sind die Daten mit denen die GPU das Bild berechnet schon ca70ms oder mehr alt und der inputlag daher so viel höher.
Wenn das so gehandhabt wird, funktioniert der Trick mit den Framelimitern auf 59FPS, weil sich dann die Warteschlange auf null senkt, nur wird dann alle X Frames die GPU nicht rechtzeitig fertig und es wird ein Bild doppelt dargestellt.
Das ist sowas wie der Unterschied von dubblebuffer zu tripplebuffer(nicht die version die Fast sync nutzt) auf GPU Seite.....nur eher ein 5fachbuffer auf seiten der CPU....Und leider machen das sehr viele Spiele so.
So nun mal DX 12 RTX ON und OFF gegenübergestellt.
Die zu sehenden 600er Spikes waren wirklich heftig :-D
Ansonsten verschlechtert sich die Frametime von 9 auf 13-14 im höchsten Bin.
Viele dieser großen Schwankungen hängen einfach auch noch da dran, dass bei Explosionen oder so RTX einfach noch macken hat.
Bis auf diese extremen Spikes war auch Rotterdam sehr gut spielbar.
Nichts desto trotz achtet man auf die RTX Effekte nicht so sehr während des Spiels.
Manche wie in Explosionen stechen aber definitiv hervor.
Und wie zu sehen ist, kann man auch in WQHD RTX Ultra ohne größere Probleme mit über 60 fps spielen ;-)
Fjell RTX OFF
Fjell RTX ON
Rotterdam RTX ON
Fjell DX11