Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

0ssi schrieb:
Oder die Leute bilden sich und nutzen den von Nvidia im Treiber integrierten Frame Limiter.
Nvidia Systemsteuerung, 3D Einstellungen, Max.Bildfrequenz FPS auf Monitor Hz -3 stellen.

Die Zielgruppe dieser HighEnd Karten hier hat ja (hoffentlich?) eh ein G-Sync (compatible) Display. Da würde es sich dann ohnehin anbieten, einfach der offiziellen nVidia Empfehlung zu folgen und im Treiber VSync global einzuschalten und Low Latency auf "Ultra". Fertig ist die G-Sync Hütte mit Limitierung auf die G-Sync Range des Monitors.

Ich fahre damit seit Jahren sehr gut mit 4K@144Hz Display. Kein Tearing, kein Ruckeln, kein Input-Lag... alles smooooth as fuck :D .
 
  • Gefällt mir
Reaktionen: Geringverdiener, Backfisch und Celinna
Und schon verpufft die von vielen geäußerte Kritik bzgl. Leistungsaufnahme im Nichts. Für die meisten Spiele des Testparkours kann man die Karte entspannt auf 300 - 350 Watt laufen lassen, und ist so mit erheblich weniger Strom erheblich schneller unterwegs als die 3090 Ti mit 450 Watt.

Ganz ehrlich: Die letzten 100 Watt für die letzten drei Prozent? Und dann nochmal für OC 150 Watt für weitere sieben Prozent durch die Leitung saugen, ist einfach nicht vernünftig.

Das ist schlicht beeindruckend, Grafikchips können die einfach bei Nvidia und TMSC. Ich ziehe meinen Hut und bin trotzdem gespannt, ob AMD auf Schlagdistanz kommt. Die Latte liegt auf jeden Fall sehr hoch.
 
Chilisidian schrieb:
Ist ja auch nicht falsch. Das sind die Schlagzeilen der neuen Karte auf einer Seite zusammengefasst. Und 2x stimmt ja auch, aber eben nur bei RT in manchen Szenarien.
Das wäre nach standard Marketing dann ein "up to 2x" aber kein 2-4x welches suggeriert, dass es mindestens 2x sind.

Man hätte dann sogar noch extra ein "up to 4x using DLSS 3" darunter schreiben können, um den Wert von DLSS3 zu betonen.

Da fand ich AMD zuletzt deutlich ehrlicher in ihren Präsentationen, vor allem die letzte Ryzen Präsentation, wo man dazu übergegangen ist, Minimalwerte zu nennen, was man vorher noch nie gemacht hat.
Und das gleiche hat man bei RDNA3 auch gemacht, von daher bin ich mal gespannt was am Ende dabei rumkommt, aber mit dem Ergebnis von Zen4 gehe ich stark davon aus, dass auch bei RDNA3 die angegebenen 50% Perf/W das Minimum darstellen.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, Geringverdiener, SVΞN und 3 andere
Dagegen sieht meine 3090 alt aus, freue mich schon auf mein neues Monster, war ja klar, dass die Karte dermaßen einschlägt und vermutlich die Preise aller Karten oben lässt. Kann mir nicht vorstellen, dass AMD auch nur ansatzweise mithalten kann.
 
Simanova schrieb:
@Wolfgang Wann kommen die 4080er Reviews? Danke für die Info
Die RTX 4080 wird im Laufe des Novembers erscheinen. Irgendwann dann kommt auch das Review.
Dai6oro schrieb:
Ich sehe es wie Taxxor. Hätte jetzt mehr erwartet, was da nicht alles im Umlauf war. Ja bei 4K beeindruckt die Leistung keine Frage . Darunter macht sich aber Ernüchterung breit, da hätte ich eine konsistenteres Bild erwartet/erhofft. Schade dass CB 3440x1440 nicht testet, denn auf 4K werde ich sicher nicht umsteigen. Mal sehen wie es bei PCGH aussieht.
Du bist halt in niedrigeren Auflösungen als UHD sehr schnell CPU-limitiert, das ist da das Hauptproblem. Sicherlich reduziert sich auch nochmals die Auslastung der ALUs, das Hauptproblem wird aber die CPU sein.
Syrato schrieb:
Brachiale Rohleistung!
Aber DLSS 3.0 hat genau die Macke, welche ich vermutet habe: mehr FPS werden angezeigt aber es wird sich nicht so anfühlen. Für mich ist das kein Vortschritt.
Ganz so einfach ist es nicht. Die Frage ist eigentlich primär, von welcher "Basis-Framerate" du kommst, wenn die die Frame Generation aktivierst. Das ist zumindest mein Ersteindruck in Cyberpunk.
Topflappen schrieb:
@Wolfgang
Leistungsaufnahme beim Spielen, im Diagramm in FPS statt in W, dazu noch mit "144" FPS.
Da steht doch überall Watt? Oder reden wir aneinander vorbei?
Chilisidian schrieb:
Wer immer noch glaubt, AMD wird locker vorbeiziehen, ist definitiv auf dem Holzweg. Ich glaub AMD hat massiv unterschätzt, was hier durch den Nodesprung trotz gleicher Architektur möglich sein würde. Zumal man schon längst davon gehört hätte, wenn AMD ein ähnliches Monster in der Pipeline hätte.
Ich glaube nicht, dass die Raster-Performance für RDNA 3 unmöglich wird. Die Chance dafür schätze ich persöhnlich eigentlich sogar als ganz gut ein (kann damit mich also nur blamieren :D). RT-Performance wird das Problem werden...
habla2k schrieb:
@Wolfgang

Wie kann das sein, wenn CP2077 in 4K gar keine 144FPS erreicht? Müsste dort dann nicht Vollast anliegen?
Die Messreihe ist mit Doom Eternal gemessen, nicht mit Cyberpunk 2077.
Atnam schrieb:
Kann mir mal jemand helfen.
Warum sind die FPS bei CP 2077 mit RT + DLSS bei Linus Tech Tips soviel höher als hier in den Benchmarks?



Vergess ich irgendwas ?
Unsere Testszene ist Cyberpunk ist sehr FPS-intensiv. LTP hat vermutlich den internen Benchmark genommen, der deutlich mehr FPS ausspruckt.
 
  • Gefällt mir
Reaktionen: Dama, SVΞN, Nasedo00 und 7 andere
Xes schrieb:
.Mal sehen ob wir dann 2024 die selbe Leistung mit deutlich weniger Verbrauch und zu einem günstigeren Preis in Form einer RTX 5070 bekommen. Eine solche könnte dann meine RTX 3070 ablösen, die mir heute noch voll ausreicht.

Die Nodesprünge werden auf jeden Fall immer aufwendiger und teurer zu erreichen was man ja auch daran sieht, dass Moores Law praktisch tot ist. Das heißt entweder die Sprünge werden immer kleiner oder die Entwicklungszyklen länger. Mittlerweile sind wir ja auch bei 2 Jahre pro Gen und nicht mehr unter einem, so wie damals.

Es ist also zu erwarten, dass das so jetzt nicht weitergeht.
 
Piak schrieb:
Das seh ich absolut anders. Was hat man gemacht, mehr Shader, was möglich wurde durch die bessere fertigung bei TSMC. Höherer Takt auch durch bessere Fertigung. Es bleibt sogut wie kein Fortschritt der von NVidia kommt. Keine neue Architektur. Technisch 6.
Sorry, aber was du da von dir gibst ist absoluter Käse. Die Fachpresse ( die 100 x mehr Ahnung als wir beide zusammen ) lobt das Produkt wie schon lange nichts mehr anderes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro und Celinna
Atnam schrieb:
Kann mir mal jemand helfen.
Warum sind die FPS bei CP 2077 mit RT + DLSS bei Linus Tech Tips soviel höher als hier in den Benchmarks?

Anhang anzeigen 1269268

Vergess ich irgendwas ?
Ok ich glaube ich weiß warum.
Linus hat auf Windows 11 22H1 getestet weil Nvidia wohl noch Treiberprobleme mit H2 hat.
Hat Computerbase auf H2 getestet? @Wolfgang

Mit den 4000er Karten wurde meines Wissens in Cyberpunk ein neues Grafiksetting eingefügt, das noch deutlich mehr Raytracing betreibt. LTT hat dieses Preset ("Overdrive") allem Anschein nach nicht verwendet.
 
Nero2019 schrieb:
ist 300W das minimum oder kann man noch weiter runter gehen? Ich denke dass die 4090 mit 150W genauso schnell ist wie die 450W des 3090.
Man kann die Leistungsaufnahme auch noch deutlich mehr reduzieren. Da bricht die RTX 4090 dann aber irgendwann weg.
 
Aber alleine das Verhältnis von 50% mehr Strom für 10% mehr Fps ist für mich einfach ganz klar der 300-Watt-UV-Modus der Gewinner. Und ganz ehrlich, die 10%, die tuen nicht weh^^(und ich weiß, dem anderen tuen die 150 Watt mehr nicht weh^^). Wie auch immer
 
  • Gefällt mir
Reaktionen: Alex1966, Balikon und MGFirewater
Die 4090 FE ist 3x schneller als meine 3070. Das beeindruckt mich dann doch muss ich gestehen.
Wie immer hat alles im Leben seinen Preis....
 
  • Gefällt mir
Reaktionen: av4l
Balikon schrieb:
Das ist schlicht beeindruckend, Grafikchips können die einfach bei Nvidia und TMSC. Ich ziehe meinen Hut und bin trotzdem gespannt, ob AMD auf Schlagdistanz kommt. Die Latte liegt auf jeden Fall sehr hoch.
Eigentlich liegt sie nicht hoch.. AMD setzt auf Chiplets und hat damit die Kosten auf ihrer Seite. Und ich glaube nicht, dass die 7900XT mal so eben an die 4090 rankommt.. Wenn die 7900Xt 999 USD kostet und eine 4080/16 bei besserer Effizienz verraucht, reicht des doch.. Die Messlatte zur 4090 ist hoch, richtig. Aber sonst hat Nvidia durch ihre Preispolitik und der Nummer mit EVGA ganz andere PR Sorgen.
Mich stört eher, dass wir 3-4 Slots für die GPU brauchen... Damit werden dann "Gamingcubes" echt schwer. Ich würde mir sowas wie ne Nano mal wieder wünschen.
 
  • Gefällt mir
Reaktionen: av4l, Lupin III und edenjung
möchte nicht wissen, was die naechste Generation in 3 Jahren mit der 50xx fuer uns vorhaelt? Wahrscheinlich 3 Slots die belegt werden, ein 1500 Watt Netzteil und ne mechanische Extrastuetzte weil es mit der Steck-Pin-Leiste und den 2 Schraube auf der linken Seite nicht mehr haelt bei 2 Kilo Gewicht?! ;-)
 
Wolfgang schrieb:
Da steht doch überall Watt? Oder reden wir aneinander vorbei?

ja:
1665497224909.png


1665497246035.png


1665497262537.png
 
Syrato schrieb:
Brachiale Rohleistung!
Aber DLSS 3.0 hat genau die Macke, welche ich vermutet habe: mehr FPS werden angezeigt aber es wird sich nicht so anfühlen. Für mich ist das kein Vortschritt.

Sehe ich anders, wer zB 120FPS schon als flüssig genug wahrnimmt, kann diese jetzt durch eig. 60 FPS erreichen durch DLSS 3.0. Dementsprechend also das Power Limit noch weiter herabsetzen, also eine deutlich bessere Effizienz fahren für das gleiche Endprodukt.
 
@Topflappen Und was ist daran nun falsch?
Die Werte sind in Watt und zwar einmal bei maximalen FPS und einmal bei 144FPS Limit
 
0ssi schrieb:
Max.Bildfrequenz FPS auf Monitor Hz -3 stellen.
Ich weiß, ich weiß, komplett OT, aber:
Warum -3? 120Hz Monitor = Max FPS: 117. Hab ich das richtig verstanden?
 
Ich fürchte die Redaktion muss die 4090 nochmal testen sobald es CPUs gibt, welche die 4090 nicht limitieren 😂😂🤣🤣
 
  • Gefällt mir
Reaktionen: karl_laschnikow, Ragnarök88, Keinhorn und 2 andere
W0dan schrieb:
Aber mit welcher CPU schafft man 240 FPS in einem Open World Game? Erstrecht mit RT?
Völlig utopisch.

Aber mit Frame Generation gibts ja zumindest teilweise eine Lösung, wenn auch die Microruckler im CPU limit mit Frame Generation nicht beseitigt werden, sondern einfach weiter bestehen.

Von Open World war nicht die Rede. In Hell let loose beispielsweise würde meine CPU das sicherlich schaffen, bisher bin ich immer GPU Limit. In Online Shootern generell sinnvoll, wie ich finde.
 
Zurück
Oben