Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Falc410 schrieb:
Ich frag mich eher was ich spielen muss damit ich mal sehe, dass meine CPU benutzt wird. Laut Afterburner Overlay ist die Auslastung meiner CPU beim Zocken zwischen 1-5%, noch nie mehr gesehen. Gut Anno hab ich schon lange nicht mehr angeworfen aber z.B. Spider-man, Control, Shadow of the Tomb Raider fallen mir spontan ein die ich in den letzten Wochen gespielt habe (1440p, Target 144 FPS, wobei die Spiele wegen meiner 3070 eher drunter liegen).

Ich habe das Gefühl, die CPU wird immer unwichtiger. Natürlich sieht man hier in den Benchmarks einen Unterschied wenn man im künstlich im CPU Limit ist, aber bei welchen Spielen tritt das bitte in der Realität ein? Wenn man eine 4090 kauft, dann spielt man doch in 4K. Je halbwegs aktuelle CPU mit 6+ Kernen sollte da keinen großartigen Einfluss haben - ausser ich teste eben unrealistische Szenarien.

Wie kommt man auf die Idee so einen Quark zu schreiben, wenn einem scheinbar komplett das Basiswissen fehlt?
Gerade dieser Punkt wird hier ständig durchgekaut, dann noch so tun wie wenns allgemeingültig wäre.

Wie es hier im Forum hunderte mal schon erklärt wurde kann eine CPU schon meist weit vor 100% limitieren.
Da gibt es extrem viele Faktoren, eine Anwendung kann nur max. 1 Thread oder so auslasten, allgemeine Eigenheiten der Engine usw.... Auch skaliert nichts perfekt und voll.

Ich habe soeben mal einen Screen gemacht von dem Game was ich derzeit installiert habe welches die CPU am meisten bei mir fordert.

New World.

Ich stehe hier in einer Ortschaft, Windkreis. Da geht meinem 11700k mit 4,8Ghz Allcore absolut die Puste aus, die Leistungsaufnahme brachial nach oben, die GPU wird bei weitem nicht mehr ausgelastet.
In einer Instanz oder weit draußen langweilt sich meine CPU und meine GPU wird auch zu 95-100% ausgelastet.

Meine 3080 Ti (@ wqhd ) wird hier durch meinen 11700K massiv limitiert der eigentlich nur zu 17% ausgelastet ist.
Die Leistungsaufnahme von 141.3 Watt verrät einiges.

2022-10-14.png
 
  • Gefällt mir
Reaktionen: Octa, Laphonso, akuji13 und eine weitere Person
Hutzeliger schrieb:
Wie kommt man auf die Idee so einen Quark zu schreiben, wenn einem scheinbar komplett das Basiswissen fehlt?
Gerade dieser Punkt wird hier ständig durchgekaut, dann noch so tun wie wenns allgemeingültig wäre.

Wie es hier im Forum hunderte mal schon erklärt wurde kann eine CPU schon meist weit vor 100% limitieren.
Da gibt es extrem viele Faktoren, eine Anwendung kann nur max. 1 Thread oder so auslasten, allgemeine Eigenheiten der Engine usw.... Auch skaliert nichts perfekt und voll.

Ich habe soeben mal einen Screen gemacht von dem Game was ich derzeit installiert habe welches die CPU am meisten bei mir fordert.

New World.

Ich stehe hier in einer Ortschaft, Windkreis. Da geht meinem 11700k mit 4,8Ghz Allcore absolut die Puste aus, die Leistungsaufnahme brachial nach oben, die GPU wird bei weitem nicht mehr ausgelastet.
In einer Instanz oder weit draußen langweilt sich meine CPU und meine GPU wird auch zu 95-100% ausgelastet.

Meine 3080 Ti (@ wqhd ) wird hier durch meinen 11700K massiv limitiert der eigentlich nur zu 17% ausgelastet ist.
Die Leistungsaufnahme von 141.3 Watt verrät einiges.

Anhang anzeigen 1270346
Wtf ? Das sind schräge Werte. 17% bei einer 8 Core CPU wären ja lediglich 1,36 Cores oder 2,72 Threads. Und dabei 140W+ an Saft ziehen ?

Bruzzel. 😂 :freak:
 
ThirdLife schrieb:
Wtf ? Das sind schräge Werte. 17% bei einer 8 Core CPU wären ja lediglich 1,36 Cores oder 2,72 Threads. Und dabei 140W+ an Saft ziehen ?

Bruzzel. 😂 :freak:

New World ist das.
Da läuft auch alles "optimal" ohne Fehler.

Sind doch keine schrägen Werte, ist nun mal so.
Die Tendenz ist normal, hier bei New World aber schon extrem.

Auslastung ist ja nicht gleich Auslastung, auch nicht gleich aufwendig.
CB23 bei 100% Auslastung habe ich einen Verbrauch von 220 Watt.

Weis jeder der seine Werte beim Zocken beobachtet, so wie ich.
 
Bringt uns beiden
Maxminator schrieb:
Super, danke für den Test!
Bin von der Leistung und dem Verbrauch positiv überrascht worden! Wow!

Nun ist der Tag gekommen wo man mit einer 3090FE nicht mehr das Beste vom Besten hat :(
Irgendwie traurig in der ersten Sekunde aber dann: man kann ja jede Zeit upgraden...

Dennoch warte auf 5090FE + GTA6!

PS: wie kommen sich Leute jetzt vor, die vor 6 Monaten sich eine 3090Ti oder 3090 für über 2000€ gekauft haben :-)
Bringt uns beiden nix, denn alleine bei meinem betagten Prozessor gehen schon bis zu 15 FPS durchn Flaschenhals flöten. Erst mal umsockeln & auf den Vollausbau alla Ti warten.
 
Hutzeliger schrieb:
New World ist das.

Sind doch keine schrägen Werte, ist nun mal so.
Die Tendenz ist normal, hier bei New World aber schon extrem.

Auslastung ist ja nicht gleich Auslastung, auch nicht gleich aufwendig.
CB23 bei 100% Auslastung habe ich einen Verbrauch von 220 Watt.

Weis jeder der seine Werte beim Zocken beobachtet, so wie ich.
Ich find sie schräg. Zum einen nur 4,8 Ghz, dann auch nur auf einem bis zwei Kernen und dann so einen Verbrauch ziehen.

Krieg ich mit 5.05Ghz auf einem Kern bei mir nicht hin, auch nicht wenn ich zwei Kerne und vier Threads mit 4.9 Ghz auslaste. Da bin ich dann evtl. bei 60-80W. Und ich rede von AVX2 Loads. Mehr wird auch ein New World nicht ziehen.

Du direkt beim Doppelten. Find ich schon ein klein bisschen heftig.
 
ThirdLife schrieb:
Ich find sie schräg. Zum einen nur 4,8 Ghz, dann auch nur auf einem bis zwei Kernen und dann so einen Verbrauch ziehen.

Krieg ich mit 5.05Ghz auf einem Kern bei mir nicht hin, auch nicht wenn ich zwei Kerne und vier Threads mit 4.9 Ghz auslaste. Da bin ich dann evtl. bei 60-80W.

Du direkt beim Doppelten.

Das ist New World mit einer extrem ineffizienten CPU.

Es werden alle Kerne angesprochen die aber insgesamt nur zu 17% ausgelastet, deswegen "nur" 4,8 Ghz*.
Es werden ja nicht nur 2-3 Kerne angesprochen und die anderen gar nicht.
Läuft zusätzlich auch noch Zeug im Hintergrund.

Ich weiß, ein künstliches Benchmark für Singlecore spricht auch nur einen Teil aber auf allen Kernen verteilt an und dann taktet er höher aber bei Games ist das etwas ganz anderes.

Auslastung ist nicht gleich Auslastung.

Bitte beschäftigt euch mal damit und beobachtet wie sich euer System wirklich verhält.
Lasst es euch im Afterburner anzeigen und mal im Hintergrund HWINO64 laufen.

*Mein System ist undervoltet und per Core Usage konfiguriert.

2 Kerne = 50x
4 Kerne = 49x
8 Kerne = 48x

Kein Throttling durch Leistungsaufnahme oder Wärme etc...

So bleibt meine Gletscherwasser 280 auch unter Volllast noch sehr sehr leise.

Und ja, der 11700K ist nen Hitzkopf und nen ineffizienter Arsch!
 
Zuletzt bearbeitet:
HyperSnap schrieb:
Also die Palit Gamerock hat ganzschön spannung auf der Backplate.
Sofort zurücksenden, mein mir ist alles gerade. Palit Game Rock 4090.
1665750206106.png
 
  • Gefällt mir
Reaktionen: akuji13
Hutzeliger schrieb:
Es werden alle Kerne angesprochen die aber insgesamt nur zu 17% ausgelastet, deswegen "nur" 4,8 Ghz*.
Es werden ja nicht nur 2-3 Kerne angesprochen und die anderen gar nicht.
Läuft zusätzlich auch noch Zeug im Hintergrund.

Ich weiß, ein künstliches Benchmark für Singlecore spricht auch nur einen Teil aber auf allen Kernen verteilt an und dann taktet er höher aber bei Games ist das etwas ganz anderes.

Auslastung ist nicht gleich Auslastung.
Ok, kein Ding, war mir so nicht bewusst.

Evtl. arbeiten die diversen CPU Archs aber auch einfach anders. Bei mir wird immer erst auf die vier besten Cores verteilt bevor irgendwas woanders hin geht, der Rest ist meist im Sleep State.
 
@ThirdLife

Du hast auch eine wesentlich effizientere CPU als ich.

Bei allen anderen Games liege ich auch "nur" bei 80 Watt Leistungsaufnahme.

Ich habe mich extra für New World entschieden weil man das Elend da am besten zeigen kann,
ist ein extremes Beispiel.
 
  • Gefällt mir
Reaktionen: ThirdLife
Hutzeliger schrieb:
Hast du dich schon mal mit dem beschäftigt über was du hier schreibst?

Es werden alle Kerne angesprochen die aber insgesamt nur zu 17% ausgelastet, deswegen "nur" 4,8 Ghz*.
Es werden ja nicht nur 2-3 Kerne angesprochen und die anderen gar nicht. Läuft zusätzlich auch noch Zeug im Hintergrund.

Bitte beschäftigt euch mal damit und beobachtet wie sich euer System wirklich verhält, hier argumentieren ganz viele mit total falschen Annahmen.
Deine Art und Weise ist absolut unverschämt und es ist toll wie du jedem hier Unwissen unterstellst.

Sicher gibt es unter Windows auch so etwas wie htop, dann würdest du sehen, dass in deinem Beispiel von New World sehr wahrscheinlich tatsächlich nur ein Kern angesprochen wird. Wahrscheinlich gibt es aber kein Thread Pinning, daher springt der nach jedem Context Switch auf einen anderen Core und lastet den dann aber zu 100% aus. Ist eine Vermutung aber naheliegend.
Also die CPU ist zu 17% ausgelastet aber ein einzelner Kern zu 100%. Lass dir halt die Cores einzeln anzeigen.

Des weiteren erwecken deine Aussagen nicht gerade den Eindruck als ob du von der Materie mehr Ahnung hast als "ich lese meine Watt mit Afterburner aus". Aber das kann auch einfach nur an deiner Ausdrucksweise liegen.
 
Also die Asus Strix und MSI Suprim dürften damit die besten Custom Modelle sein:

1665701055599.png


Über 10 Grad zur FE rechtfertigen schon einen Aufpreis, da man so die Lüfter noch weiter drosseln kann und es damit deutlich leiser wird.

Bleibt nur zu klären, welche am wenigsten Spulenfiepen hat. MSI wirbt jedenfalls explizit mit HCI für weniger Spulenfiepen.
 
Taxxor schrieb:
@Wolfgang habe ich die FG von DLSS 3 da eigentlich richtig verstanden? Sollte nicht immer zwischen 2 Frames ein Zwischenframe generiert werden? Dann würde ich ja erwarten, dass die FPS um maximal 50% steigen(3 statt 2 Frames in der gleichen Zeit).
In den Benchmarks sind es aber eher knapp Richtung 66%. Hab ich da nen Denkfehler oder arbeitet auch der SR Part bei DLSS 3 schneller als bei DLSS 2?
Nicht ganz. Du hast immer Render --> KI --> Render --> KI... Darum maximal 100 Prozent mehr FPS.
Sun-Berg schrieb:
Enflich mal ein reviewer der das versteht. DLSS erhöht nicht die Performance weil die Latenz gleich bleibt. Damit ist das Feature wirklich nur auf den High-End 40x0er Karten brauchbar wo die Frametimes eh schon niedrig sind.
Wir sind sowohl im DLSS-3-Abschnitt als auch im Fazit ausführlich auf die Sache mit der Latenz und damit der Limitierung von DLSS 3 eingegangen.
Sun-Berg schrieb:
@Wolfgang : Könnt ihr die Schlussfolgerungen von HWU zum Thema DLSS 3 bestätigen?

Vor Allem die Frage ob DLSS3 bei Midrange 40x0 Karten überhaupt Sinn machen würde, weil man ja zum Einen mit unangenehm schlechter Latenz ein komisches Spielgefühl haben würde und zum Anderen weil höhere Frametimes Artefakte sichtbarer machen und sich UI Elemente bei einigen Games verzerren sollen.
Wie bei uns im DLSS-3-Abschnitt und im Fazit steht, ist Latenz eine Limitierung von DLSS 33. Darum schreiben wir explizit, dass DLSS 3 anders als DLSS 2 keine Allzweckwaffe ist, sondern viel mehr ein Spezialist. Und auch wenn ich mir bis jetzt noch nicht alle Spiele mit DLSS 3 angesehen habe, bin ich auch der Meinung, dass es quasi eine Mindest-FPS-Anzahl benötigt, um DLSS 3 vernünftig nutzen zu können, da man den Input-Lag sonst schon gut merkt.

Ganz so eng wie HWUB sehe ich es aber nicht. Du solltest mit DLSS 3 jetzt nicht versuchen, aus 40 FPS mehr zu machen. Dazu sollte man DLSS 2, aber nicht DLSS 3 nutzen. Aus 80 FPS (und vielleicht noch etwas weniger) kann man aber zumindest in Cyberpunk gut mehr mit DLSS 3 machen, da helfen die zusätzlichen Animations-FPS dann schon gut, ohne das der Lag plötzlich spürbar wird.
 
  • Gefällt mir
Reaktionen: Taxxor, Laphonso, akuji13 und eine weitere Person
Gerithos schrieb:
aber die standhaft Weigerung die Preise zu senken um die Bestände zu leeren haben schon etwas surreales
Warum sollte Nvidia ihre Preise senken, wenn sie gegenüber der alten AMD Generation deutliche Leistungsvorteile bieten und die GPUs sich auch so verkaufen?
Ich glaube die Sichtweise der Kunden ist größenteils an der Realität vorbei.
AMD hat gerade 40% ihres Umsatzes eingebüßt.
 
Bezüglich New World habe ich in Immerfall Stadt (viele Spieler) 80 FPS mit einen 7600x und außerhalb der Stadt 130-150 FPS

EDIT: Also wer eine 4090 noch sucht kann wohl in Hamburg NBB eine gigabyte Gaming OC für 2179€ kaufen. Liegt im Schaufenster xD
 
  • Gefällt mir
Reaktionen: xneo70
Sun-Berg schrieb:
Enflich mal ein reviewer der das versteht. DLSS erhöht nicht die Performance weil die Latenz gleich bleibt. Damit ist das Feature wirklich nur auf den High-End 40x0er Karten brauchbar wo die Frametimes eh schon niedrig sind.
Natürlich wird die Performance erhöht, lediglich die Eingabereaktion (Inputglag) mit deiner Maus bleibt auf dem gleichen Niveau.
Das Bild wird deutlich flüssiger, vor allem wenn du bei Cyberpunk inkl. RT mit ~25 FPS zockst, oder hohe CPU Last provozierst, ein Bereich in dem DLSS 2 nicht helfen kann.

Sun-Berg schrieb:
Gut dann brauchen wird das im Midrange und Lowend wohl nicht.
Genau in diesem Bereich hat es den größten Nutzen.
Wenn ich eh schon hohe FPS, niedrige Latenzen und ein gutes Spielgefühl habe, ist der Nutzen gering.
 
So, GPU Parade:
Die größere TUF ist in der kleineren Verpackung. :confused_alt: Unten die 3060 TI FE für den Anwendungsrechner.
1665750314742.png


Die Größenverhältnisse, Asus TUF ist oben, Palit Game Rock unten
1665750464135.png


Im Gehäuse (Cooler Master HAF X) paßt die TUF nicht rein:
1665750555286.png


Palit passt:
1665750609738.png


Performance wirklich in den ersten Test wie z.B. BoundaryBenchmark verdoppelt (mit Intel Core i9-12900k nicht selbst übertaktet):

CPU/BenchmarkBoundaryBenchmarkSuperposition 4k optSuperposition 8k opt
2080TI FE42,7
3080 FE66,2160026868
4090 Palit133,32690012405

Man hört die Palit wenig. Die Frage ist nun, hole ich mir das Fractal Design Define 7, um noch die TUF zu testen, oder lasse ich es?

Für alle, die auch hoch vielleicht eher ältere Gehäuse wie ich haben, klare Empfehlung, 4090 FE, die Palit Game Rock, aber Finger weg von der Asus Strix und TUF, die deutlich zu groß sind, siehe auch hier:
https://www.computerbase.de/forum/t...und-ohne-dlss-3.2107311/page-90#post-27385384

Angesichts des Erfolges verlasse ich den Walk-of-Shame wieder und darf nun wieder stolz meinen Avatar ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek, bart0rn, Sturmwind80 und 3 andere
Ich bitte um Entschuldigung !! Wirklich!! Mit weniger Spulenfiepen werben ? Oh mein Gott , wo sind wir angekommen!! Ich würde keine!! keine Karte akzeptieren, die Spulenfiepen hat. Egal ob für 20, 200 oder 2000 Euro. ! Niemals. Liebe Leute!! Ihr gebt Euer hart verdientes Geld für Grafikkarten aus die ein Spulenfiepen haben? :o
Ich empfinde das wirklich als respektlos von den Herstellern, dem Kunden gegenüber!! Das ist kein Sarkassmus!!
Manchmal hilft ja eine Steckdosenleiste mit Störfilter. Aber als Hersteller damit zu werben, dass mein Produkt nicht so gut ist, wie es sein sollte, empfinde ich als eine maßlose Frechheit. Egal von welchem Hersteller, egal für welches Produkt.
Aber gut, dass ich das gelesen habe hier. Da werde ich ein Auge drauf haben, falls meine R9 290X mal ersetzt werden muss. Das Thema hatt ich gar nicht auf dem Zettel.! :schluck:
 
  • Gefällt mir
Reaktionen: Neronomicon
Ragnarök88 schrieb:
bieten und die GPUs sich auch so verkaufen?
Ist das so? Wenn ich mir die benches so anschaue ist rdna2 gar nicht so viel schlechter als Ampere, bis auf rt herrscht da sehr viel parität und Davon mal abgesehen verkaufen die sich eben nicht mehr wie geschnitten Brot.
Die 40 Prozent haben mit der Situation unmittelbar nichts zu tun, auch nvidia hat ne milliardenabschreibung hinter sich und wollte nicht umsonst bei tsmc Kapazitäten abbestellen.
Man kann aber auch alles mit allem vermischen und einfach mal ohne Kontext amd bashing betreiben 🤷
 
  • Gefällt mir
Reaktionen: Illithide
@Wolfgang Danke für deine Antwort. Ich fand eure Tests bezüglich DLSS3 gut aber sie waren noch nicht so umfangreich. (Ich denke das ist normal, weil die Zeit nicht gegeben war, also kein Vorwurf) Bei HWU war gerade der Teil mit den reduzierten PT interessant.

@Ragnarök88 Ich denke eben gerade nicht. Du solltest dir den HWU Test nochmal anschauen. Je niedrieger die Grund-FPS, je schlechter das Spielgefühl.
 
Zuletzt bearbeitet:
Zurück
Oben