Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Ich sehe da nur „jetzt vorbestellen“ und kann die Karten nicht in den Warenkorb legen.
Bestellbar sind die Palit und Zotac, aber eben teurer als zum Release
 
wickedgonewild schrieb:
  1. Upgrade von O11 auf O11 Evo (ist etwas breiter, sonst hätte ich die Karte vertikal verbauen müssen, das wollte ich nicht)
  2. Upgrade des Netzteils wegen der dussligen Adapterlösung
  3. Upgrade meiner 2 verbauten 8 TB HDDs, da das O11 Evo unschön vibriete (hatte zuvor versucht es anders in den Griff zu bekommen) auf 2x 8 TB SSDs
Abgesehen von einem Neukauf eines Systems war das mein teuerstes Upgrade überhaupt. Eigentlich ziemlich dumm :D.
Ach ja, haste recht. Aber egal: Neue Karten kommen und gehen, Noctua Lüfter und große Speicher-SSDs bleiben (zumindest etwas länger). :)
 
  • Gefällt mir
Reaktionen: Asghan
Die Karte ist so absolut brutal effizient.

Meine 6900XT schafft bei 288W ca, 70-95FPS in 4K; Extreme Preset Modern Warfare 2 DMZ. Dabei wird die Karte trotz AiO ca. 59°C warm.

Die 4090 schafft bei 50% PT (225W) konstant 116FPS und wird 48°C warm.... absolut verrückt.

Der Screenshot sieht so hell aus, weil ich mit HDR spiele ^^.

1668953409459.png
 
  • Gefällt mir
Reaktionen: PHuV, MortyMcFly, Asghan und eine weitere Person
t3chn0 schrieb:
Die Karte ist so absolut brutal effizient.

...........................

Dein Spiel unterstützt nativ HDR und nativ erweiterten Farbraum? Kriegst du auch Youtube-Videos auf HDR? Bei mir tun sie das nämlich nicht, obwohl der Billo-Fast-IPS-Monitor auch HDR hat, wenn auch richtiger Fake. Windows und SRGB-Spiele sind dann im Standardfarbraum, aber auch die Videos und Youtube zeigt bei den Auflösungseinstellungen kein HDR, was am Handy hingegen der Fall ist.

Wieviel FPS kommt aus MW2 DMZ raus, wenn man die Limiter alle abstellt?

# Glorreiche PC-Herrenrasse
 
Zuletzt bearbeitet:
@Banger

Puh, da bin ich leider überfragt wie qualitativ gut das HDR ist. Es sieht auf jeden Fall ganz ordentlich aus. Das HDR von Battlefield sieht aber noch beeindruckender aus. Richtig krass ist der FS2020, da ist HDR hervorragend.

HDR+Raytracing+OLED sieht einfach nur pervers gut aus, wirklich. Muss man mal gesehen haben. Versaut einen aber auch sofort.

Ohne Limiter kommen in 4K Extreme ca. 140-160FPS raus. Das lohnt sich aber so rein gar nicht, weil meine Sync Rang ja von 40-120Hz geht. Also lasse ich das Spiel mit 116FPS laufen.

Was richtig toll ist, die Zotac Karte hat gar kein Spulenfiepen. Sowas hatte ich noch nie. Die ist komplett still, selbst bei > 140FPS.
 
  • Gefällt mir
Reaktionen: Banger
t3chn0 schrieb:

Eigentlich braucht die glorreiche PC-Herrenrasse einen OLED-Bildschirm mit UHD und 240Hz und dann notfalls die Sachen, die keinen Mehrwert bieten, runterdrehen, um in die Nähe von 240Hz zu kommen.

:freaky:

HDR bei Youtube geht bei dir auch nicht?
 
Zuletzt bearbeitet:
@Banger

Du musst in Windows selbst HDR in den Anzeigeoptionen einstellen, dann kannst Du auch Youtube in HDR sehen =).
 
  • Gefällt mir
Reaktionen: Kommando
Neubauten schrieb:
Nutzt du den Firefox?

Ja, aber ich sehe gerade, bei Edge geht HDR. Beim Fake-HDR des Monitors sieht es in Windows alles richtig blass aus, während das Video kontrastreicher wird. Dunkle Töne wie bei den Fensterrahmen vom Mezzo-Laden bei 8 Sekunden werden abgedunkelt, helle Töne übersteigen dem, was in Windows sichtbar ist. Die gleiche Stelle bei Firefox ist wieder kontrastarm und weniger hell oben rum.
 
  • Gefällt mir
Reaktionen: Neubauten
Irgendwo hab ich gelesen, dass der VRAM, der 4000er-Serie schlechter performt, wenn er zu kühl ist :confused_alt:
Kann jemand was dazu sagen?
 
Wurde hier schon mal thematisiert, was die 4090 gegenüber der 4080 so stark zurückhält?
Sie hat ja 60%! mehr Recheneinheiten, liegt in Benchmarks aber nur ca. 25% vorn. Das ist aus meiner Sicht auffallend wenig Zugewinn. Limitiert hier etwa der Cache?
 
Das liegt primär am cpu limit eigentlich müsste die rtx4090 um 68% schneller sein als die rtx4080
 
Woody17 schrieb:
Wurde hier schon mal thematisiert, was die 4090 gegenüber der 4080 so stark zurückhält?
Also in Wissenschaftlichen Applikationen rechnet die 4090 die 4080 in Grund und Boden, da hier selten bis nie ein CPU Limit vorliegt.
Ebenso beim Rendering etc.
 
Woody17 schrieb:
Wurde hier schon mal thematisiert, was die 4090 gegenüber der 4080 so stark zurückhält?
Sie hat ja 60%! mehr Recheneinheiten, liegt in Benchmarks aber nur ca. 25% vorn. Das ist aus meiner Sicht auffallend wenig Zugewinn. Limitiert hier etwa der Cache?

Am Ende ist es ja eine Mischung aus Benchmarks. Bei manchen Anwendungen ist sie 50% schneller, bei manchen aber auch nur wenige Prozente. Ebenso bei Spielen. Manche Spiele sind dann bei 30-40%. Manche Spiele aber auch nur wenige Prozente, weil z.B. die CPU limitiert. Am Ende hast du dann einen Durchschnitt von aktuell eben ~25%. Auch skalieren die Recheneinheiten nicht 1:1 mit der Leistung. Du wirst also fast nie die 60% Mehrleistung schaffen.
 
Woody17 schrieb:
Wurde hier schon mal thematisiert, was die 4090 gegenüber der 4080 so stark zurückhält?
Sie hat ja 60%! mehr Recheneinheiten, liegt in Benchmarks aber nur ca. 25% vorn. Das ist aus meiner Sicht auffallend wenig Zugewinn. Limitiert hier etwa der Cache?

Wie kommst du auf die 25%? Ich sehe da bei der relevanten Auflösung selbst ohne Raytracing 34% (mit Raytracing 38%)

1670331881728.png
 
Asghan schrieb:
Also in Wissenschaftlichen Applikationen rechnet die 4090 die 4080 in Grund und Boden, da hier selten bis nie ein CPU Limit vorliegt.
Ebenso beim Rendering etc.

Kommt ganz drauf an weil auch videoumwandeln als rendering manche bezeichnen. Es kommt jedoch auch auf die Einstellung an ob die CPU limitiert oder nicht.
Beim videoumwandeln ist die gpu schneller aber die CPU holt langsam auf.
Die gpu ist um 40 % schneller als aktuelle cpus. Ob sich das jemals ändern wird. Aber selbst da wird die CPU zu rund 30 % mit genutzt. Also komplett nur auf die gpu ist halt auch da nicht.
Und mir schon klar das ne cpu niemals ne gpu schlagen könnte. Aber seien wir mal ehrlich. Wenn man auf gpu Seite die selben Einstellung wie auf cpu zum Umwadeln einstellen könnte, wäre gewiss die gpu nicht schneller als CPU. Und bei niedrigste setting ist allerdings selbst da die gpu nur noch minimal schneller als die CPU.

Also weit kann die gpu nicht mehr davon rennen. Oder ist das generell so das bei videoumwandeln automatisch die gpu schneller ist als die CPU?
Und ja das zauberwort heist eingeschränkte Einstellung unter gpu. Wie es bei der rtx 4090 so aussieht ist ne andere frage.

Achja zu genre würde ich wissen wie schnell so ne rtx 4090 ist. Die ist sogar so schnell die müsste die Zeit ja 1/3 gegenüber einer rtx 3050. Vorausgesetzt die CPU kommt hinter her. Ich versuche derweil noch alles herausholen was geht.
Bezweifle jedoch ob ich die 10 Sekunden videoumwandeln pro Video schaffen werde. Bisher ist das schnellste auf low bei 28 Sekunden und bei high 42 Sekunden.
Nur wenn ich einen mit so einer gpu frage, dann müsste diese Person auch über ne fette cpu verfügen, damit die gpu das volle Potenzial zeigen kann. Erwarte also bei dem preis volle Leistung. Alles andere würde mich doch sehr wundern.
 
DerMas schrieb:
Wie kommst du auf die 25%? Ich sehe da bei der relevanten Auflösung selbst ohne Raytracing 34% (mit Raytracing 38%)

Anhang anzeigen 1293059
Ich habe mir diverse Tests der 4080 angesehen, nicht nur CB.
Wenn wir genau rechnen sind es aber sogar 68%! mehr Recheneinheiten, also verzeih mir, dass ich auch 34-38% als underperforming interpretiere.

Wenn man sich im selben Diagramm die Shaderanzahl und Leistung der Ampere Karten anschaut skalieren diese wesentlich besser!

Verstehe es bei der 4090 echt nicht.
Klar ist es ein toller Sprung zu Ampere, aber auch der fällt deutlich kleiner aus als zu erwarten. Schließlich haben wir eigentlich +100% Rohleistung zur 3090(ti) durch Shaderanzahl+ und Taktfrequenz+
 
Zuletzt bearbeitet:
Zurück
Oben