Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Battlefield V mit DXR: Update beschleunigt Raytracing massiv
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Battlefield V mit DXR: Update beschleunigt Raytracing massiv
- Registriert
- Apr. 2008
- Beiträge
- 12.658
So mache ich das auch, aber es scheint nicht so als würden die einzelnen frametimes auch aufgezeichnet.Esenel schrieb:Hoffe das hilft dir:
Am Ende stehen in der Log Datei nur ein Wert pro Sekunde, der passend zu den Frames dieser Sekunde ist.
Für eine Analyse der frametimes braucht man aber jeden Wert und nicht den Durchschnitt.
So bleibt der msi AB unbrauchbar für ernsthafte Benchmarks.
- Registriert
- Juni 2017
- Beiträge
- 4.104
Ja klar ist das der Wert der Sekunde.
Du brauchst ja nur die Abtastrate hochsetzen.
Hardware Polling auf 1.
Kostet aber dann einiges an Leistung.
Als Unbrauchbar sehe ich den Näherungswert nicht an.
Die Auswertung mit 1ms wird dir Höchstwahrscheinlich das gleiche Bild zeigen.
Teste es doch einfach mal ;-)
- Registriert
- Apr. 2008
- Beiträge
- 12.658
Also ich kann das nur auf min 100ms setzen....Esenel schrieb:Du brauchst ja nur die Abtastrate hochsetzen.
Hardware Polling auf 1.
Und auch sonst ist es halt unbrauchbar, wenn nicht klar wird, wie die Werte entstehen.
- Registriert
- Juni 2017
- Beiträge
- 4.104
Baal Netbeck schrieb:Also ich kann das nur auf min 100ms setzen....
Und auch sonst ist es halt unbrauchbar, wenn nicht klar wird, wie die Werte entstehen.
Mit was würdest du denn dann aufnehmen?
- Registriert
- Apr. 2008
- Beiträge
- 12.658
Fraps oder presentMon/OCAT.Esenel schrieb:Mit was würdest du denn dann aufnehmen?
Besser Fraps, aber das overlay geht nicht in DX12...man bencht blind......und vulkan geht gar nicht.
Da muss dann presentMon her, das ist aber minimal träger und funktioniert auch nicht überall.
Schön am msi AB wäre halt, das man direkt das umfangreiche overlay hat und mit dem gleichen Programm auch CPU und GPU Auslastung loggen kann.
Und der AB hat den Vorteil, direkt einen Blick auf den Verlauf werfen zu können.
Mit Fraps oder presentMon muss ich die frametimes erst verarbeiten bevor ich sie sehen kann.
Ein weiterer Nachteil am AB bleibt der negative Einfluss des overlays selbst....es kostet halt leicht Leistung und ab und zu verursacht es auch periodische frametime peaks....nur selten, und einmal Spiel minimieren und maximieren behebt es in der Regel, aber es bleibt halt ein fader Beigeschmack.
Hat man den Anspruch Messungen reproduzierbar und mit bestmöglicher Genauigkeit zu machen, geht immer noch kein Weg an Fraps vorbei....wobei OCAT kaum abweicht und mit immer mehr vulkan und DX12 immer wichtiger wird.
Gnageseil
Lt. Junior Grade
- Registriert
- März 2017
- Beiträge
- 259
Tolle Spiegelungen auf Lacken, Glas und Wasser gabs vorher auch schon und es ist jetzt nicht so, als hätte ich da etwas vermisst. Bei aktuellen Titeln schon gar nicht.
Möglicherweise bin ich auch bloß ignorant.
- Registriert
- Apr. 2008
- Beiträge
- 12.658
Naja "tolle" Spiegelungen waren bis jetzt selten.Gnageseil schrieb:Tolle Spiegelungen auf Lacken, Glas und Wasser gabs vorher auch schon und es ist jetzt nicht so, als hätte ich da etwas vermisst.
Space Screen ist einfach und kann gut aussehen wenn es sich um Wasser auf einem See oder Fluss handelt.
Aber kommt man näher, guckt unter dem falschen Winkel usw. Dann klappt es nicht und macht hässliche Fehler.
Cube Maps können nur vorgerenderte Sachen zeigen....kann man natürlich gut mit gefaketen Spiegelungen des Spielers ergänzen, was dann ganz gut wirkt....Spiderman z.B.
Die beste Konkurrenz sind die Spiegelungen in Hitman 2 und die kosten leider auch viel Leistung.
RT ist da schon ziemlich cool....nur wie du schon sagtest ist es nicht zwingend notwendig....was man nicht kennt vermisst man auch nicht.
In Verbindung mit dem Preis und Nvidias absurden Vorführungen...falschen Ankündigungen.."It just works!"..usw. ist die öffentliche Resonanz nicht so gut wie sie hätte sein können.
Es ist halt schade, das AMD nicht mit macht....physX hätte auch cool und erfolgreich werden können wenn es von Anfang an offen gewesen wäre.
Wobei es diesmal an AMD liegt, dass sie keine RT cores entwickelt haben.
Auf 2560*1440 High Fidelity (=alles auf Ultra, auch DXR) gibt es tatsächlich 70-80 fps in "dichten" Maps und sogar 100+ fps auf "weiten" Maps. Das ist nun doch viel mehr als erwartet zu Beginn und nunmehr weit entfernt von den Horrorszenarien.
Allerdings schiebt die 2080Ti das auch gut, und 1300+ Euro sind dann eher für das Enthusiasten Budget.
Ohne DXR habe ich meine 135 bis 155 fps, aber mit DXR Ultra dann eben nicht mehr - wie vorher - die frames um 50 % eingebrochen.
Es "lohnt" sich also eher, dann mal DXR anzulassen.
Interessanterfinde ich DXR für Singleplayer Spiele und die visuelle Immersion. Unter Action und Feuer wie beim BF V Multiplayer achte ich eher weniger auf die Spiegelungen
Aber, hübsch sieht das alles mit DXR in jedem Fall das aus, auch wenn "nice optic" eher egal ist im Gefecht.
@Gnageseil, ich glaube das ist, im Wortsinne, eine Sache der "Sicht". Und ob man auf so etwas überhaupt achtet. Ich bevorzuge die Games im "optischen Maximum" dessen, was die Entwickler implementiert haben.
Für mich sind Ultrasettings der "normale" Sliderstand, alles andere ist eine Reduktion, weil es weniger ist, als es sein könnte.
Über den Sinn von DXR im Multiplayerchaos kann man lange diskutieren. Sehr gespannt bin ich, wie erwähnt, auf diese Technik in Singlerplayer Spielen, in denen ich auch mehr Raum und Zeit und Möglichkeiten habe, das zu genießen. Ich habe genug Gamingkumpels, denen reicht alles auf Mittel, hauptsache 144 oder 165 fps auf 144p oder 4K, die opfern alles an visuellen Effekten, hauptsache der Monitor ist auf der Maxrefreshrate.
Jeder, wie sie oder wie er mag :-)
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
In der Tat, dadurch ist auch zum Beispiel sehr übel, so etwas wie GTA IV noch mal (gfx unmodded) zu spielen, die Grafik geht - für mich - heute echt nicht mehr.pietcux schrieb:Bei mir ist es schon so, dass ich in Wildlands die nicht vorhandenen Raytracing Spiegelungen stark bemerke und vermisse. So gefährlich ist es halt sich auf eine bessere Optik einzulassen. Nach Crysis konnte ich auch Dinge wie UT3 oder World at War kaum noch spielen.
Ich spiele gerade DMC: Devil May Cry, das ist von 2015 oder so, ein audiovisuelles Feuerwerk, aber grafisch echt weit abgefallen. Mindert nicht den Spielspaß, aber den optischen Genuss.
Wildlands habe ich auch noch auf meiner "To Play" Liste. Wäre ja toll, wenn einige Games noch nachträglich DXR imnplementiert bekämen, aber warum sollten die Devs das tun? Monetär sind die sales durch, der Zusatzaufwand wäre ein Geschenk. Ich glaube, das ist nicht realisitisch.
Für Quantum Break (ein famoses Spiel!! https://store.steampowered.com/app/474960/Quantum_Break/) würde ich aber sogar 10 Euro für einen DXR Patch zahlen. Ja, kein Joke!
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
Ja Remedy werkelt ja eh mit RTX rum. Ich bin auch dabei. Plus Crysis 1-3!Laphonso schrieb:In der Tat, dadurch ist auch zum Beispiel sehr übel, so etwas wie GTA IV noch mal (gfx unmodded) zu spielen, die Grafik geht - für mich - heute echt nicht mehr.
Ich spiele gerade DMC: Devil May Cry, das ist von 2015 oder so, ein audiovisuelles Feuerwerk, aber grafisch echt weit abgefallen. Mindert nicht den Spielspaß, aber den optischen Genuss.
Wildlands habe ich auch noch auf meiner "To Play" Liste. Wäre ja toll, wenn einige Games noch nachträglich DXR imnplementiert bekämen, aber warum sollten die Devs das tun? Monetär sind die sales durch, der Zusatzaufwand wäre ein Geschenk. Ich glaube, das ist nicht realisitisch.
Für Quantum Break (ein famoses Spiel!! https://store.steampowered.com/app/474960/Quantum_Break/) würde ich aber sogar 10 Euro für einen DXR Patch zahlen. Ja, kein Joke!
ZeroZerp schrieb:Full Scene Raytracing auf einer Riva TNT2, die keine programmierbaren Shader hatte? 1000FPS mit Schatten, Spiegelungen und Co.? Das konnte ja der RAMDAC der Karte garnicht verarbeiten.
Hört sich für mich nach Perpetuum Mobile an. Kannst Du vielleicht den Bericht irgendwo hervorkramen?
Nein die Saarland Eperimente waren mit CPU's durchgeführt wurden - damals gab es nicht mal GPGPU. Rate mal wer GPGPU massentauglich gemacht hat - es waren die grünen.
Es gibt auch den Bericht - sogar mit Youtube Video http://www.q3rt.de/
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ja der gute Daniel - das hat ihm einen Job bei Intel gesichert https://de.linkedin.com/in/pohldaniel
Das war damals extrem beindruckend - genauso wie heute DXR von NVidia extrem beeindruckend ist.
Ich zähle wohl schon zu den "alten Hasen" unter den Realtime-Raytracing "RTRT" "fanatikern" - damit kann ich leben .
Danach kam Quake 4 Raytraced
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
und diverse Demos von Intel
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
ZeroZerp schrieb:Die Uni Saarland weist was anderes aus:
Derartiger Realismus hat aber natürlich einen hohen (Hardware-)Preis: Um Quake 3 in einer Auflösung von 512 x 512 mit 20 Bildern pro Sekunde, 4fach-FSAA und komplett in Echtzeit berechnetem Raytracing zum Laufen zu bringen, wurde eine Intel-CPU-Rechenleistung von 36 GHz - bzw. ein Cluster von 20 AMD-XP1800-Prozessoren - benötigt.
Da ist mir dann doch das bereits jetzt mit 4K und um die 60FPS nutzbare Hybrid Raytracing einer 2080TI lieber.
Das war 2002 - Ich habe keine GFLOP angaben für den AMD-XP1800 auf die schnelle gefunden.
Nach https://forums.anandtech.com/threads/what-is-the-gigaflop-of-an-amd-athlon-xp2000-and-2700.960432/ schafft ein AMD-XP 4 FLOP pro Takt - das sind 1.53GHz * 4 = ~ 6.12 GFLOP pro core.
Das ganze mal 20 macht ~ 122.4 GFLOPS.
Also soll es doch eine 2080TI sein mit einer theoretischen Rohleistung von 10609 GFLOPS - also das 86.67 fache ?
Vielleicht soll es mit 4K laufen - dann benötigt es:
122.4 GFLOP / (512 * 512) * (3840 x 2160) = 3872.8125 GFLOPS
- eine 1080 TI schafft das also mit ~60 FPS
Was denn nu? Ich bin verwirrt
Die "grünen" waren nicht die ersten die eine Kommerzialisierung von (Hardware) Raytracing versuchten - Intel versuchte sich mit Software Raytracing auf dem Larabee "ran zu-pirschen" - hat leider nicht funktioniert.
Vielleicht klappt es ja jetzt dank den "grünen".
Wenn man mal so in der Zeit etwas zurck geht findet man so etwas
https://www.computerbase.de/forum/t...it-core-2-extreme-qx6700.237959/#post-2323648 Hopla das ist dann wirklich so passiert - so was.
Ach ist das schön
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Ist ja alles keine Theorie mehr- Man hält die Hardware ja schon in Händen.
Diese ist auch auslast- und Messbar in ihren Leistungswerten.
Auch für den letzten Block- Nämlich die neue Shader- Pipeline wurde jetzt ein Praxisbeispiel veröffentlicht (Asteroids Demo), in der man sich frei bewegen kann und die demonstriert, was die RTX Karten im Gegensatz zu den GTX Karten an Polygon/Cullingdurchsatz bieten.
Auf einer nicht schienengesteuerten Demo kann man sowas auch nicht faken...
Es gibt also für alle großen neuen Features inzwischen Praxisbeispiele (auch wenn sich diese noch im Beta- Stadium befinden).
Die Dinge funktionieren also in der ersten Generation und Beta Software schonmal vielversprechend, was sowieso schon im Gegensatz zu den sonstigen Technologieérneuerungen steht.
Es war nämlich bisher wirklich eher der Fall, dass bei Ersteinführung die Technik kaum nutzbar war (T&L, Tesselation etc.). Also z.B. statt 7FPS dann 20FPS.
Davon praxisuntauglich zu sein, sind wir aber selbst in der frühen Phase von RTX schon weit entfernt.
Grüße
Zero
Ich musste ebenfalls den Thundermaster deinstallieren und neu starten, damit das BIOS 2 (Umschalter an der Grafikkarte) aktiviert wird.
Jetzt stehen die Lüfter still bis 60C erreicht werden.
Mit Hilfe des MSI Afterburner Curve Editor habe ich das tatsächlich einfach durchzuführende OC ausgeführt und die Karte läuft jetzt mit dem BIOS 2 problemlos mit 2.025 MHz / 2.000 MHz (Memory Clock habe ich auch erhöht).
Hier ein Link zu "Nvidia Benchmark-Rangliste nach Modellen" von @KCX
- Registriert
- Juni 2017
- Beiträge
- 4.104
Intes schrieb:Seien wir mal ehrlich. Nvidia und Dice haben gelogen bis zum geht nicht mehr.. Man erkennt kaum bis GAR KEIN unterschied zwischen Raytracing und halt kein Raytracing in BF. Allein das ist ein Grund beide zu Boykottieren.
Deine Aussage ist einfach falsch.
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
Eventuell schaust du dir erst das Video an und dann nochmal das Spiel mit deiner eigenen RTX Karte in aller Ruhe:Intes schrieb:ich hab's heute begutachtet und das Ergebnis ist ein Witz.. so leid es mir auch tut, viel mehr als ein PR-Bluff ist es einfach nicht.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ähnliche Themen
- Antworten
- 187
- Aufrufe
- 23.741
- Antworten
- 574
- Aufrufe
- 76.746
- Antworten
- 210
- Aufrufe
- 26.232