Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

th3o schrieb:
Dem stimme ich ebenfalls zu. Wobei ich aber sagen muss dass mich Raytracing bisher recht wenig reizt weil die Kosten dafür noch zu hoch sind im Vergleich zu RT aus. So wie damals (vor sagen wir mal 15 Jahren) auch Antialiasing noch ein Luxus war und jetzt mittlerweile denkt man gar nicht mehr drüber nach. Da wird RT auch irgendwann ankommen. Mit der 4090 ists schon mal ein großer Schritt nach vorne.
Muss aber auch sagen dass es mir teilweise negativ auffällt wenn ich sehe wie bestimmte Spielbereiche auf Zwang quasi so designed werden dass da möglichst viele Reflexionen sind, extra shiny Boden oder ne Unmenge an Pfützen etc. Das wirkt so "naja komm, das habt ihr jetzt hier nur fürs raytracing damit es scheinen kann hingeklatscht".
Was ich viel mehr als RT Reflexionen oder RT Schatten mag ist Raytraced Global Illumination. Das ist für mich der Game Changer.
Das hast du recht. Teilweise sind die Reflexionen zu übertrieben. Ein feuchter Untergrund ist nun mal kein Spiegel. Ne 1:1 Spiegelung hast du in der Realität auch nicht am Boden. Da kommts dann eben auch auf die Entwickler ein RT mit vernunft und nicht mit der Brechstange einzusetzen. Aber wie du es mit AA geschrieben hast... sobald es die Masse nutzen kann wird es auch weiter verbreitet sein.
 
  • Gefällt mir
Reaktionen: edenjung
Die wilde Inge schrieb:
Ein Auto mit doppelt so viel PS oder KW kann ja auch nicht automatisch doppelt so schnell fahren, selbst wenn es nicht abgeriegelt wäre.
Mir geht es ja nicht darum, dass der theoretische Zuwachs nicht erreicht wird, sondern dass die Diskrepanz - meiner Meinung nach - sehr groß ist. Und dafür hätte ich gerne eine Erklärung.
 
Beatmaster A.C. schrieb:
Ein cleverer Trick von Nvidia den Preis zu "normalisieren"
Das Video habe ich auch gestern schon gesehen und finde seine Argumentation etwas übers Knie gebrochen nur damits sich ausgeht. Dem Argument hätte ich beim Release der 3090 noch eher zugestimmt.
In der aktuellen Situation finde ich dass NVIDIA mit 1599$ die 4090 eher zu günstig gemacht hat und das zeigt dass sie unter Druck stehen. Wäre die ganze Energiekrise, Russlandkrieg und Cryptodeath nicht, dann wäre die 4090 auf jeden fall nicht 1599$ sondern 1999$ MSRP.
Die Preise der 4080er spiegeln indes nicht die Realität wider sondern sind künstlich oben damit die Leute die 30er Restbestände kaufen.
 
  • Gefällt mir
Reaktionen: speedfire2
Chilisidian schrieb:
700-800 Euro ist gerade realistisch bei Kleinanzeigen. Einfach mal etwas anhauen und die Leute ein wenig runterhandeln. Als verschenken sehe ich das nicht. Ich hab für meine netto in zwei Jahren 720 Euro bezahlt, völlig ok.
Habe mal gerade die ersten 10 Seiten hier im Markplatz des Forum durchgeschaut, sieht eher mau aus, gerade mal 2 3090 Angebote und die auch höher als genannte Summen. Falls also jemand mitliest und seine 3090 bis 700 loswerden möchte, wie gesagt PM bitte an mich.
 
Also mit 350Watt ist diese Karte wirklich Super 👍. Mal sehen ob/ wann eine ti kommt (hoffe AMD macht Druc), Potenzial ist schließlich noch reichlich beim AD102
 
Atnam schrieb:
4060 oder 4070 sind noch nicht mal angekündigt :-D
Als nächstes folgt 4080 mit 12 und 16gb was Tests angeht.
Die RTX 4080/12GB ist de facto eine RTX 4070, nur umgelabelt für höhere UVP.
Auf die bin (UVP-Erwartung) war ich am meisten gespannt.
 
laurooon schrieb:
DLSS 3 ist imho ein Trick, da man dieses nur der 4XXX spendiert und so Überlegenheit suggeriert, die schnell
schmilzen würde, wenn man das auch auf der 3XXX Generation verfügbar macht. Für mich ne Mogelpackung.

dazu hat ein entwickler schon stellung genommen
die neuen karten haben bestimmte hardware die diese art von DLSS3 besser unterstützt.

die alten karten sind mit der alten dlss version besser dran, und hätten deutlich weniger mehrgewinn, bis hin zu schlechterer perfromance ggü der alten dlss version, deswegen haben sie dlss3 auf die 4000er gecapt
 
Also die Leistung bei 300W ist schon richtig geil muss ich sagen. Wärs mir das wert, würde ich sagen "shut up and take my money" und die Karte auf 300W begrenzen.
Ansonsten Leistungsmässig das, was man bei den Specs erwarten darf.
Ohne FG hätte man evtl. sogar einige der Tensor Cores einsparen können.
 
ALDeeN1982 schrieb:
Wie kommen sich Leute vor, die sich über einem Jahr eine 3080 für 1800 gekauft haben..

alle leute die ca. vor einem jahr egal welche karte gekauft haben fühen sich bei speziell diesem kauf scheiße, weil jeder min 50% verlust beim weiterverkauf hat.
 
Melu76 schrieb:
alle leute die ca. vor einem jahr egal welche karte gekauft haben fühen sich bei speziell diesem kauf scheiße, weil jeder min 50% verlust beim weiterverkauf hat.
Das konnte man jedoch voraussehen.

Wer allerdings vor einem Jahr gleichzeitig eine ältere GPU mit Bonus veiterverkaufen konnte, sollte sich nicht beklagen. Ich habe damals meine Vega64 teurer weiterverkaufen können als ich selbst Jahre zuvor dafür bezahlt habe. Damit geht die Rechnung wieder auf.
 
  • Gefällt mir
Reaktionen: Vitec
Pisaro schrieb:
Also dann für gar keine CPUs?

Ganz genau, wenn man es richtig genau nimmt!

Igor und co. haben mit dieser Karte ohne Probleme das CPU Limit in FHD und WQHD, teils sogar 4K erreicht. Igor mit einem 7950x, andere mit einem 12900KS.

Das bei einer realen average Leistungsaufnahme von teils unter 350 Watt @ wqhd (Igor: 321 Watt)

Diese Architektur/ Karte ist derzeit einfach brachial.
Dabei ist das nicht mal der Vollausbau.

AMD wird dem auch absolut nichts entgegen setzen können da ihr Fertigungsvorteil mit der neuen Reihe geringer ist als der von NVIDA von Samsung zu TSMC.
 
  • Gefällt mir
Reaktionen: CM286
Cr4y schrieb:
Mir geht es ja nicht darum, dass der theoretische Zuwachs nicht erreicht wird, sondern dass die Diskrepanz - meiner Meinung nach - sehr groß ist. Und dafür hätte ich gerne eine Erklärung.

Meine Erklärung dazu ist die , die ich bereits abgegeben habe: fehlende Optimierung am Game und am Treiber, zudem sind Spiele keine synthetischen Anwendungen. Sieht man ja alleine schon an den krassen Schwankungen zwischen den einzelnen Spielen. Vielleicht gibt es noch mehr Erklärungen.
 
RTX 4090 ist bei Händlern aktuell bei 2.000 -2.700 gelistet.
Leistung sieht super aus wenn man 4k mit höhere refreshrates spielt.
Denke mal aufgrund Preis und mangels eines high refresh 4k screens werde ich die Generation mal skippen.

Generell finde ich es großartig, dass inzwischen wieder "ordentliche" Leistungssprünge geliefert werden aber bei der Preisgestaltung bin ich schlicht raus zumal ich auf WQHD spiele.

Meine RTX 3090 wird wohl mindestens bis 2024 halten müssen allerdings sehe ich dem schmerzfrei entgegen.
 
Tornavida schrieb:
Habe mal gerade die ersten 10 Seiten hier im Markplatz des Forum durchgeschaut, sieht eher mau aus, gerade mal 2 3090 Angebote und die auch höher als genannte Summen. Falls also jemand mitliest und seine 3090 bis 700 loswerden möchte, wie gesagt PM bitte an mich.

Das wird wohl daran liegen, dass die Angebote erst reingestellt werden mit Auftragsbestätigung beziehungsweise Erhalt einer neuen Grafikkarte.
 
  • Gefällt mir
Reaktionen: Maxminator
Denke auch, dass die 3090FE auf dem Gebrauchtmarkt sehr preisstabil bleiben wird...
Nicht zur Letzt wegen 24GB GDDR6X Speichers!
Und die 700€ für eine 3090FE wird wohl der Mindestpreis für die nächsten 1-1,5 Jahre bleiben
 
Erstmal wow, beeindruckend, kann man erstmal nicht anders sagen.

Verbrauch ist trotzdem eine Hausnummer für sich, aber die Effizienz wirklich beeindruckend.

Vielen Dank für den umfangreichen Test, hat Spaß gemacht. Wie ihr schon schreibt, für mich ist die Karte unerreichbar :D aber ich will sie auch nicht haben. Diesen Einsatzzweck kann ich der Karte gar nicht bieten.
 
Cr4y schrieb:
Mir geht es ja nicht darum, dass der theoretische Zuwachs nicht erreicht wird, sondern dass die Diskrepanz - meiner Meinung nach - sehr groß ist. Und dafür hätte ich gerne eine Erklärung.

die erklärung wird darin liegen, das die Tools (benchmarks), die die leistung angeblich messen, eben doch nicht so präzise sind
 
Lohnt sich so eine Karte überhaupt bei einem 12700K :-D oder ist die CPU hier schon Flaschenhals???
 
Zurück
Oben