Test 3DMark Steel Nomad im Test: Das kann der neue Benchmark und so schnell läuft er

Was ist eigentlich mit den Unigine-Benches? Da hört man garnichts mehr.
Die letzte Version, Superposition, hat nun auch schon einige Jährchen auf dem Buckel.
Die Engine wird ja noch weiterentwickelt.
 
  • Gefällt mir
Reaktionen: simonx
mcbloch schrieb:
Also ist das Ding für mich nicht nutzbar ??
In FHD mit 60 Hz Monitor ??
Bei Deinen System-Specs sollte doch eigentlich jedes Spiel zufriedenstellend laufen. Sehe nicht den Sinn eines Benchmarks.
Habe es bei mir mal durchlaufen lassen. Nach dem Vergleich mit anderen Systemen (Ryzen 5800X3D, RTX 4080 Super, 32 GB RAM) sehe ich bei 22.900 Punkten insgesamt noch etwa 10% "Performancereserve". Werde mich mal an PBO sowie ein leichtes Übertakten/Undervolting der GPU wagen. Ob das jetzt unbedingt nötig ist? Für VR-Simracing wären manchmal ein paar FPS mehr noch nett, sonst wird das System sicherlich mittelfristig für alles reichen, weil ich nur in WQHD spiele.
 
floTTes schrieb:
@Dark Soul,
die Extra-INT32-Einheiten im Streaming-Multiprozessor kamen mit Turing.
Ja, aber diese können nicht parallel zusätzlich zu FP32 ausgeführt werden? Dachte Turing hätte da nur die Möglichkeit erhalten INT32 und FP32 in der selben Einheit zu rechnen. In einem SM können also maximal 64 Operationen ausgeführt werden - statt wie vorher nur 64xFP32, geht nun zB: 10xINT32 und 54xFP32 - oder stimmt das nicht?
 
@Dark Soul,
doch, parallel. Das war ja der Trick. Früher musstest du, wie DevPandi schrieb, erst von FP32 zu INT32 wechseln. Du konntest also nur einem Datentyp je SM füttern.
Nun kannst du FP32 und INT32 parallel betreiben - also zwei Datentypen je SM.
Damit konntest du je nach Szenario/Auslastung also mit Turing schon theoretisch doppelt so schnell sein. Das war (vielleicht) Quatsch. Da muss ich nochmal drüber nachdenken ... am besten mit Kaffee. :evillol:

Und mit Ampere hast du - soweit ich das verstanden habe - nicht nur FP32+INT32, sondern auch die Möglichkeit für FP32+FP32 - also doppelt so viele FP32-Berechnungen. Daher auch doppelt so viele "ALUs" bzw. Cuda-Cores wie nVidia sie nennt.

Das Ganze natürlich dann mal 64 bzw. 2x64 je SM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faust2011
gustlegga schrieb:
Was ist eigentlich mit den Unigine-Benches? Da hört man garnichts mehr.
Die letzte Version, Superposition, hat nun auch schon einige Jährchen auf dem Buckel.
Die Engine wird ja noch weiterentwickelt.
Ja, kommt aber vorwiegend in der Industrie / Architektur zum einsatz.
Die Benchmarks waren ja immer vorführ modelle dafür was die Engine auch in Spielen zu leisten vermag.
Aber die anzahl Spiele in der Unigine Engine waren... naja... an 2 Händen abzählbar.
Ich bin mir nicht sicher, aber glaub mal iwo gelesen zu haben das sie die Spiele Entwicklung eigentlich aufgegeben haben und sich nur noch auf Industrie fokusieren.
 
  • Gefällt mir
Reaktionen: simonx und gustlegga
DevPandi schrieb:
RDNA 3 kann hier auch mehr in die Waagschale werfen, wegen der Dual-Issue-Fähgkeit und kann sich entsprechend auch stärker von Ada absetzen.
Ich sehe im Test nicht, wo sich RDNA3 von Ada absetzen kann. Die 2% Unterschied entsprechen den 2-4% in eurer GPU-Rangliste. RDNA3 performt also nicht besser als sonst. Alle Karten sind in etwa da wo man sie erwarten würde, nur RDNA2 fällt kurioserweise massiv ab.

Dass Vulkan einer 4080S weitaus besser liegt als einer 7900XTX, ist auch eher fragwürdig.
 
  • Gefällt mir
Reaktionen: SweetOhm
Der offensichtliche Leistungsabfall von RDNA 2 im Vergleich zum Timespy wundert mich etwas. Bin jetzt schon gespannt auf die ersten Community Ergebnisse und der Unterschied von einer 6800XT zu einer 7800XT und wie hier wahrscheinlich auch RDNA 2 im Treiber von AMD absichtlich verlangsamt wird oder zumindest nicht mehr priorisierend optimiert wird.
 
hab da schon auf den Release gewartet. Da werd ich morgen mal das 600W Bios für die 4090 rausholen :D - morgen wird super, da kommt auch noch Hellblade II raus! Naja 570W ist das Höchste was ich bisher gesehen hab. Bin gespannt ob Nomad das toppen kann>=)
 
pitu schrieb:
Und Tschüss AMD 😁

Warum sind die AMD Chips eigentlich langsamer? Wurde der Benchmark spezielle für NVIDIA entwickelt?
Das ist mir bei einem synthetischen Benchmark total egal. Ich nutze solche Benchmarks, wenn ich wissen will: "Läuft meine GPU so wie es sein sollte?" D.h. ich vergleiche die Testbenchmarks meiner GPU mit den Community-Werten, um zu erkennen, ob mein System korrekt konfiguriert/installiert ist!
Das wars! Das diese Benchmarks immer weniger geignet sind, um auf die - für mich relevante - Spieleleistung Rückschlüsse vornehmen zu können, ist für mich klar.

Ja AMD schneidet hier schlechter ab! Aber das sollte dir egal sein! Es gibt Spiele, wo eine 7900 XTX die 4090 schlägt! Das würde man nach interpretieren der Steel Nomad Benches nicht erwarten!
 
  • Gefällt mir
Reaktionen: Baal Netbeck, pitu und Cempeg
Die Grafik reicht mir ja echt total aus … sieht super aus auch ohne RT.
 
  • Gefällt mir
Reaktionen: MiroPoch
RDNA 2 altert leider nicht so gut, ist nicht das erste mal, dass sie in neuen Spielen seit diesem Jahr gegen Ampere 20-30% hinten dran ist, man muss bedenken, dass die bei rls. 2020 ziemlich gleich waren. Ob es an der FP Leistung liegt? Ampere verdoppelte nämlich die FP Leistung und auch RDNA3.
 
@jimmy13
@AthlonXP
Wird das dann beim starten als "DLC" heruntergeladen oder muss ich das ganze nochmal komplett ziehen? 🤔
 
DJMadMax schrieb:
Meinst du? Der Benchmark attestiert einer RTX 4090 340% Renderleistung gegenüber einer RTX 3060 Ti. In jedem Spiel hingegen, in dem ComputerBase mal beide Grafikkarten gleichzeitig testet, liegt das Leistungsniveau eher im Bereich von ca. 250-270%.
Das Problem dürfte sein, dass die 3060 Ti (oder die etwas schnelleren 4060 Ti / 3070) nicht im CB-Parkour für die UHD-Auflösung mit drin sind. Bei den niedrigeren Auflösungen bremst ja oft bereits die CPU.

Hier mal der PCGH-Vergleich der 4060 Ti und 4090 in der UHD-Auflösung: Durchschnitt von 20 Rasterizing-Spielen attestiert 316% Renderleistung gegenüber der 4060 Ti... und zwischen 3060 Ti und 4090 Ti wäre der Abstand noch größer, 340% wären da also gar nicht ungewöhnlich.

Und im Durchschnitt von 10 Raytracing-Spielen werden 372% Renderleistung gegenüber der 4060 Ti attestiert... zwischen 3060 Ti und 4090 Ti wäre der Abstand also ca. 390 - 400%:

pcgh-uhd.png

Hier sind noch ein paar Rasterizing-Einzelspiele, bei denen das Leistungsniveau der 4090 gegenüber der 4060 Ti bereits 329 - 376% beträgt... gegenüber der 3060 Ti wären das ca. 350 - 400%:

pcgh-uhd2.png

Da Steel Nomad den Leistungsabstand von hardwarefordernden Rasterizing-Spielen (der Gegenwart und Zukunft) darstellen soll, scheinen mir die 340% daher sehr realistisch.
 
Zuletzt bearbeitet:
Machen die X3D Ryzens Probleme oder warum wird augerechnet ein 13900K wie bei PCGH verwendet? Wäre ein 14900K instabil?
 
CDLABSRadonP... schrieb:
Endlich liefert ein 3DMark mal wieder ab und ist nicht bloß eine große Enttäuschung...
ich bin doch etwas verwundert. bins gewohnt dass neue Benchmarks erst mit der uebernachsten GPUgeneration 60fps+ erreichen, aber den hier meistert selbst ne refreshAMDGPU anno 2021 easy..
 
Makkaroni schrieb:
Das ist mir bei einem synthetischen Benchmark total egal.
Das hier ist kein synthetischer Benchmark
 
  • Gefällt mir
Reaktionen: Shir Khan
Freiheraus schrieb:
Machen die X3D Ryzens Probleme oder warum wird augerechnet ein 13900K wie bei PCGH verwendet? Wäre ein 14900K instabil?
Purer Zufall. Der 7950X3D ist quasi rund um die Uhr bei Wolfgang im Spiele-Test-Einsatz, da habe ich mir was geschnappt, was er nicht kurzfristig für CPU-Spiele-Tests brauchen wird: Der 14900K war deshalb raus, der 13900K nicht.
 
  • Gefällt mir
Reaktionen: BrollyLSSJ und Freiheraus
floTTes schrieb:
doch, parallel. Das war ja der Trick. Früher musstest du, wie @DevPandi schrieb, erst von FP32 zu INT32 wechseln. Du konntest also nur einem Datentyp je SM füttern.
Nun kannst du FP32 und INT32 parallel betreiben - also zwei Datentypen je SM.
Bis hier hin ok - aber eben, man hat 64 Einheiten und die Rechnen entweder float oder int.

Bsp: Hat man 63 Float OP und 1 Int OP, so kann man diese ab Turing sofort rechnen - statt vorher die 63 Floats zu rechnen mit 1 "Brach liegender / Ausmaskierter" Einheit und dann die Int OP mit 63 brach liegenden Einheiten.

floTTes schrieb:
Das war (vielleicht) Quatsch. Da muss ich nochmal drüber nachdenken ... am besten mit Kaffee. :evillol:
Haha eben :D Turing kann wenn ich es eben richtig im Kopf habe nicht doppelt so schnell sein. Denn eine Einheit kann entweder FP32 oder INT32.

floTTes schrieb:
Und mit Ampere hast du - soweit ich das verstanden habe - nicht nur FP32+INT32, sondern auch die Möglichkeit für FP32+FP32 - also doppelt so viele FP32-Berechnungen. Daher auch doppelt so viele "ALUs" bzw. Cuda-Cores wie nVidia sie nennt.
Ja, da hast du recht! Habe es gerade nachgelesen im Ampere Architecture Paper (Quelle, Seite 7):
2x FP32 ProcessingMost graphics workloads are composed of 32-bit floating point (FP32) operations. TheStreaming Multiprocessor (SM) in the Ampere GA10x GPU Architecture has been designed tosupport double-speed processing for FP32 operations. In the Turing generation, each of the fourSM processing blocks (also called partitions) had two primary datapaths, but only one of the twocould process FP32 operations. The other datapath was limited to integer operations. GA10xincludes FP32 processing on both datapaths, doubling the peak processing rate for FP32operations. As a result, GeForce RTX 3090 delivers over 35 FP32 TFLOPS, an improvement ofover 2x compared to Turing GPUs.
Bei Turing hat man wie oben erwähnt FP32 oder INT32. Bei Ampere hat man diesen Block wohl um einen weiteren FP32 Pfad erweitert. Somit geht 2xFP32, 1x FP32 & 1x INT32 oder nur 1x INT32.

DevPandi schrieb:
Turing, Arc haben "eigentlich doppelt" so viele ALUs, wie angeben werden.
Somit stimmt aber eben diese Aussage nicht? Ist erst ab Ampere wahr. Bei Arc keine Ahnung - hatte ich noch nie in den Händen :D
 
Fresh-D schrieb:
Den gibt's doch gerade mit Ghost of Tsushima? 🤔
Schon, aber ich glaube der 3DMark ist weiter verbreitet 😉.
 
Wollte gerade nochmal TimeSpy laufen lassen. Nach der 3DMark installation (nur 3 MB) bekomme ich eine Fehlermeldung beim Starten.
1716231037988.png


Wenn ich versuch das kostenlose TimeSpy "DLC" herunterzuladen bekomme ich einen Fehler bezüglich der Lizenz. Hat wer so spontan eine Idee an was das liegt?

Edit: Integrität der Installation natürlich schon geprüft
 
Zurück
Oben