Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Max007 schrieb:
Die reine Leistungssteigerung hat schon Seltenheitswert. Die 2080 Ti OC lag in 4K bei 80% zum Release der RTX 3090 (100%).

Jetzt reden wir von 60% einer 3090 Ti (!) zu den 100% der RTX 4090 FE. Die 4090 könnte so legendär werden wie die 980 Ti.
Niemals, einfach weil der Preis alles andere als legendär gut ist. Das kaufen die wenigsten....die 980ti war für 600-700€ glaub zu haben damals.
 
Stromstecker, Adaper, TDP, Preis und Größe der dicksten Ada Karte sind zu krass.
 
Zuletzt bearbeitet:
Test nun gelesen.

@Wolfgang (und Helfer): Jetzt nochmal mein expliziter Dank für einen weiteren hervorragenden Test. Seit wann konntet Ihr testen?


Hucken schrieb:
Verstehe da genauso wie die Redaktion nicht die Entscheidung es Stock auf 450Watt aufzublasen, wenn weniger locker gereicht hätte.
Siehe Intel, siehe AMD - aktuell mit Zen 4 und früher mit Vega. Letzter als 56er nutze ich ja immer noch. Auch diese ließ/lässt sich wunderbar auf Effizienz trimmen.

Natürlich kann - oder "muss" - die Frage nach dem Warum gestellt werden, warum das nicht out of the Box geschieht.
Die Antwort ist aber immer dieselbe: Weil diese Spitzenwerte a la "längster Balken" weiterhin von einer ausreichenden Anzahl Kundschaft mit Käufen goutiert werden. Es ist so banal. Zudem addiert sich die Tatsache, dass gerade das zu einem dauerhaften Widerhall führt. Das lässt sich ja auch wunderbar hier im Forum beobachten.
 
  • Gefällt mir
Reaktionen: Alex1966 und Eller
StefVR schrieb:
Und dazu nimmst du eine 2022er Sheet und dann 4K? Respekt., so dreht man sich echt die Wahrheit... Ach ja es sind 300W TDP zu 350W TDP. Und die Karte ist in 1440p und 1080p effizienter.. Warum nicht in 4K? Weil das SI schmaler ist und dank des Caches eben die 4K Leistung abnimmt, was Igor aber auch mehrfach erwähnt hat in fast 2 Jahren.
Und du fotografierst nicht echt deinen Bildschirm ab, oder? :D
Ich finde Propellerjungs immer wieder witzig... Demnächst ist das hier wieder AMDBase..
Selbst deine 0,5Pkt sind schon fast Messtoleranz, und machen den Kohl nicht fett.
 
  • Gefällt mir
Reaktionen: Eller
Da bin ich wohl in der Minderheit derjenigen, die von der Leistung insofern enttäuscht sind, als dass es:
  • kaum eine Architekturleistungsverbesserung im gaming gibt: In "4K" (also die reine maximal mögliche GPU gaming performance und nicht CPU-bound) ist sie gegenüber der 3090 Ti (auch eine 450W Karte) nur 70% schneller, das ist gerade mal das, was die beiden full node shrinks ca. ausmachen: SAMSUNG's 8 nm basiert auf deren 10 nm und TSMC's N4 basiert auf deren N5; full node shrinks sind 10nm->7nm->5nm (10/√2->~7; 7/√2->~5; usw.). Da interessiert es nicht was alle Reviewer, die die Karte geschenkt bekommen haben, schreiben (außer sie kommen auf höhere Werte und CB hätte iwas inkorrekt gemacht). Insofern man SAMSUNG's "nm" Zahl mit TSMC's "N" Zahl direkt verglichen kann, wobei bei gleicher Zahl TSMC SAMSUNG immer überlegen zu sein scheint (soweit ich weiß aber auch teurer).
  • Außerdem ist die Karte dabei auch noch entsprechend 60% teurer. Also keine/kaum Verbesserung.
Ja, TSMC's N4 Fertigungsprozess ist bestimmt einer der teuersten die sie aktuell anbieten, aber ich vermute selbst dann will NVIDIA hier einen überproportionalen Gewinn machen. Sie wissen ja spätestens seit dem mining-boom, was die Leute bereit sind zu zahlen (NVIDIA hust GREEDIA hust ist eben kein gemeinnütziger Verein).
Und ja, ich hätte es auch besser gefunden, wenn die Karte statt 450W 350W hätte: 3% langsamer in 4K, 22,22% weniger Stromverbrauch und die Übertakter hätten etws mehr Spaß ("etwas mehr" weil +10% mit 600W ist jetzt nicht gerade viel).

Irgendwo habe ich gehört, dass das damals seit der Einführung von RTX bzw. Raytracing, welches durch denoising aus nur wenigen Rays viel anfangen kann, schon in vorher öffentlich zugänglichen Akademikerarbeiten zu sehen war und NVIDIA hier das ganze nur in Hardware übertragen hat (also nicht NVIDIA's eigene Erfindung war), obs mit DLSS 3 auch so ist? Trotzdem sehe ich es NVIDIA positiv an, dass sie Raytracing (und jetzt Frame generation mit DLSS 3) somit überhaupt erst eingebracht haben, wenn auch erst mal die FPS nicht so waren/sind. Kann nur besser werden, aber selbst mit RTX 4000 hätte ich mir ehrlich gesagt mehr gewünscht.

Edit:
Persönlich habe ich eine 6600XT (durch 32MB "Infinity Cache" am besten nur für FullHD geeigent) und möchte auf OLED 4K,120Hz upgraden..DayZ läuft bei 1680*1250,MSAA=2 insofern nicht so flüssig, als dass es oft auf 80-90 FPS fällt (99% GPU Auslastung) und mit 144 Hz sieht es deutlich schöner/flüssiger aus. 'Ne Karte die 4-5 mal schneller ist als meine aktuelle wäre schön/nötig. Mal sehen was AMD mit RDNA3 liefert. Es wird wohl eine 7800XT oder 7900XT werden, je nachdem weilche offiziell schon für 4K gaming geeignet ist (vermutlich beide wie bei RDNA2). Wahrscheinlich wird selbst das top Modell nicht ganz für 4K und stabile 120 Hz reichen, aber mal schauen. 2k€ bin ich aber nicht bereit zu zahlen, außer die gaming Leistung ist überproportional bzw. dann auch für das 1k€ Modell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
iWebi schrieb:
Du willst mehr an Nvidia zahlen?

"Verpulvern" bedeutet ja, dass es einem Wurscht ist. Da ists auch egal wer die Kohle bekommt. Mir ist es gerade absolut nicht egal.
 
  • Gefällt mir
Reaktionen: iWebi und PHuV
2000 € für eine Grafikkarte, lul.
 
  • Gefällt mir
Reaktionen: MrChlorophil, Beatmaster A.C., Gene Jackman und 4 andere
Mit leichtem undervolt bei 350 Watt TDP wahrscheinlich dann so schnell wie bei 450 ohne UV, das leiser und kühler
 
Ich gurke mit meiner GTX 980 Ti rum und warte immer noch auf das eine Super-Spiel, dass mir eine solche Geldausgabe schmackhaft macht. Irgendwie reißt mich nichts mehr vom Hocker, vielleicht werde ich aber auch einfach nur alt.

Damit will ich die Leistungen dieser geilen Grafikkarte natürlich nicht klein reden.
 
  • Gefällt mir
Reaktionen: MrChlorophil, Gene Jackman, PegasusHunter und 4 andere
Bin mehr beeindruckt von TSMC als von nvidia :P

Aber wieder ein Lob von mir für die Optik, Haptik und generell sehr hohe Qualität der Founders-Varianten (auch schon auf den 30ern, mit Ausnahme der ärgerlichen Ram-Temps auf doppelseitig bestückten Varianten). Sind wirklich gute Karten.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Diese Grafikkarte rasselt unter Last gut hörbar, was aber nach kurzer Zeit aufgrund der Lüfterlautstärke aus einem geschlossenen Gehäuse nicht mehr auffällt
Sorry, aber das finde ich für fast 2000€ ziemlich inakzeptabel, dass man den Mist nicht mal in den Griff bekommt.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
3x schneller als meine RTX 3070 aber 2k fast ein Monatsgehalt Netto :(
 
  • Gefällt mir
Reaktionen: msv
goodnight schrieb:
Wer die kauft, dem ist der Preis egal.
Und kaufen tut man am besten sofort, bevor man eine dreimal zurückgeschickte angedreht bekommt und die fünfmal umtauschen muss...

Die Kreditkarte liegt für morgen bereot, das Ding (FE) soll bis Samstag im PC stecken...
 
  • Gefällt mir
Reaktionen: Celinna und Sturmwind80
Wenn ich mir hier die Kommentare so durchlese, wie viele bereit sind sofort 2000-2300€ für eine Grafikkarte auszugeben, bin ich mir noch sicherer, dass Nvidia die nächste Generation noch einmal um 500€ (oder mehr) erhöht. Sogar für 2500 UVP hätten viele anscheinend zugeschlagen. :D

Aber gute Karte von der Leistung. Keine Frage.
 
  • Gefällt mir
Reaktionen: MrChlorophil, danyundsahne, MGFirewater und 4 andere
alloSelbstDenke schrieb:
Da bin ich wohl in der Minderheit derjenigen, die von der Leistung insofern enttäuscht sind, als dass es:
  • kaum eine Architekturleistungsverbesserung im gaming gibt: In "4K" (also die reine maximal mögliche GPU gaming performance und nicht CPU-bound) ist sie gegenüber dem Vorgängermodell 3090 Ti (auch eine 450W Karte) nur 70% schneller, das ist gerade mal das, was die beiden full node shrinks ca. ausmachen: SAMSUNG's 8 nm basiert auf deren 10 nm und TSMC's N4 basiert auf deren N5; full node shrinks sind 10nm->7nm->5nm (10/√2->~7; 7/√2->~5; usw.). Da interessiert es nicht was alle Reviewer, die die Karte geschenkt bekommen haben, schreiben (außer sie kommen auf höhere Werte und CB hätte iwas inkorrekt gemacht).
  • Außerdem ist die Karte dabei auch noch entsprechend 60% teurer. Also keine/kaum Verbesserung.
Das ist insofern richtig.. Aber unter 300W sieht man wie gut die Auslastung und die damit einhergehende Leistung der 160.00 Shader läuft. Ja es ist ein optimierter N5, aber auch hier sieht man die Effizienz.. Rechne ich allerdings eine RDNA hoch auf diese Menge Shader, komme ich auch auf ~350 W
Das könnte Spannend werden.. Der Preis ist halt der Margenvorstellung des Hauses Nvidia geschuldet:
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2023
 
alloSelbstDenke schrieb:
Da bin ich wohl in der Minderheit derjenigen, die von der Leistung insofern enttäuscht sind, als dass es:
  • kaum eine Architekturleistungsverbesserung im gaming gibt
Und selbst wenn die Karte nur schneller ist, weil Nvidia Flammen-Sticker an den Seiten angebracht hat: Wenn juckt das? Performance und Performance pro Watt ist beim Thema Leistung alles was zählt, egal wo man die rausholt.
 
  • Gefällt mir
Reaktionen: KlaasKersting, Ragnarök88, GeoPic und eine weitere Person
W4RO_DE schrieb:
Ich gurke mit meiner GTX 980 Ti rum und warte immer noch auf das eine Super-Spiel, dass mir eine solche Geldausgabe schmackhaft macht. Irgendwie reißt mich nichts mehr vom Hocker, vielleicht werde ich aber auch einfach nur alt.

Damit will ich die Leistungen dieser geilen Grafikkarte natürlich nicht klein reden.

Für CB 2077, 4k mit RT, ohne zu heftiges DLSS ist die 3090 zu schwach, ich sehe diese Spiele die von einer 4090 profitieren sind bereits auf dem Markt.
 
  • Gefällt mir
Reaktionen: guillome und Laphonso
Wenn die veralteten 1.4 Displayports nicht wären, würde ich sie mir fast kaufen, aber so warte ich lieber auf die RTX 50X0er...
 
Zurück
Oben