Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

ridde schrieb:
mhhh interessant. Bei dem "shitstorm" vor zwei Wochen als alle rumgeheult haben als bekannt wurde, was diese in € in DE kosten wollte keiner mehr was von den Dingern wissen. Nun sind die tests da und alle hängen sabbernd vor dem Bildschirm

Das eine schließt das andere nicht aus. In solchen Foren treiben sich nunmal viele Technikbegeisterte rum. Ich bin begeistert über diese Hardware und die brachiale Leistung, werde mir aber nicht für 2k eine Grafikkarte in das Gehäuse packen.
 
  • Gefällt mir
Reaktionen: edenjung
Matthias B. V. schrieb:
Bin es nur ich oder kommt einem das Gefühl dass die Architektur Generation eigentlich nicht so prickelnd ist und von TSMC gerettet wird.
Man schafft auf den Vorgänger, die 3090 oft die doppelte RT Leistung und auch Rasterleistung, wenn keine CPU limitiert und das ist selbst in 4 K noch ab und zu der Fall.

Gab es so schlicht noch nie.
Nicht Mal die 8800GTX schaffte das.

Matthias B. V. schrieb:
60-70% Mehr Leistung in Spielen klingt toll aber man ist von Samsung 8LPP einem 10nm Prozess auf TSMC N4 einem 5nm Prozess gewechselt. Das Sind zwei Node Generationen und sollte alleine schon für einen Großteil der Mehrleistung sorgen.
Mit RT sind es häufig +100% auf die 3090.
Und eine Titan bzw. 4090 Ti dürfte ja noch kommen.

Matthias B. V. schrieb:
Also was genau hat Nvidia in den letzten zwei Jahren gemacht? DLSS 3.0 ist für mich zu wenig seitens Nvidia.
Eine der größten Steigerungen der letzten 20 Jahre hat so eine Bewertung nicht verdient.
 
  • Gefällt mir
Reaktionen: laxus222, Celinna und Laphonso
paperw_ngs schrieb:
Sogar die Bitte den Adblocker hier zu deaktivieren ist so freundlich, dass man nicht nein sagen kann...

Einfach ComputerBase Pro kaufen, dass hilft am meisten. Glaub das is schon mein drittes Jahr!
Habs mir bisher immer am 24.12. gegönnt :daumen:
 
  • Gefällt mir
Reaktionen: Icetrey, scotch.ofp, ro///M3o und eine weitere Person
Wenn man den CB Bericht liesst, mehr als die FE braucht es nicht. Der Kühler hat die Probleme der 3090 nicht (schlechte RAM Pads) und kaum mehr Lautstärtke beim OC, zudem passt sie, wie schon bei der 3090, in einen größeren Midi-Tower mit Wakü. Hoffe morgen gibt es keine Probleme mit der Verfügbarkeit.
 
ridde schrieb:
Sind die hohen Preise jetzt eigentlich gerechtfertigt und wir kaufen alle direkt bei Release?
Wer ist alle? 🤔
Das ist eine GPU für ein sehr spezielles Segment.

Aber sehr viele, nicht alle, aus der Zielgruppe werden sicher zuschlagen, sofern AMD nicht am Horizont in den nächsten Tage irgendetwas teasert, was eine Option zur 4090 darstellt....

Meine Gaming Threema Gruppe überschlägt sich gerade im Hype. Wir beteiligen uns mit mindestens 5 Käufen der 4090 :D

Wir sind aber nicht "alle".
Sondern Gaming Daddies/Nerds/Enthusiasts der solventen Gruppe 40+ Jahre (Nettogehalt deutlich jenseits der 3000) und alle auf UWQHD und 4K unterwegs.
 
  • Gefällt mir
Reaktionen: one2know
Atnam schrieb:
Echt wo? Link mal bitte.
Gerne doch:

In dem gleichen Trailer sind auch an anderer Stelle Körperteile zu sehen die es gar nicht gibt (Teile des Arms vor dem blauen Himmel, z.B.). Er sagt ein bisschen später, dass das in Bewegung "smooth" aussehe und weniger problematisch sei. Aber das soll "teils besser als nativ" und knapp 2000 Euro wert sein - im Ernst??

Edit: Dlss mag seinen Platz haben, keine Frage. Am Ende des Tages bleibt ein fancy AI Tool aber Interpolation, und da sollte man nicht einfach die NVidia-Aussagen nachplappern. Früher wurden Grafikkarten abgewertet, wenn der anisotropische Filter etwas unscharf war, weil das nichts anderes als Betrug ist, bei dem Qualität gegen Leistung getauscht wird. Heute nennt man das DLSS und sieht es als Feature?
 
  • Gefällt mir
Reaktionen: MrChlorophil, Terminator-800, FLCL und 6 andere
ABCD. schrieb:
Mich würde interessieren, wieviel Leistung die Karte mit 250, 200, 150 Watt liefert im Vergleich zu einer 3090TI stock?
Kaufen und probieren :).
Ich werde eher wie CB im OC test die Leisting auf 600 Watt stellen. Ich werde dann mit dem Scanner eine optimale Kurve einstellen, mal schauen was das bringt. Das manuelle OC von CB brachte etwa 7% im Schnitt bei 1% Perzentil gegenüber Standard, mit der Kurve holt man eventuell mehr raus.
 
  • Gefällt mir
Reaktionen: ABCD.
Laphonso schrieb:
Wer ist alle? 🤔
Das ist eine GPU für ein sehr spezielles Segment.

Aber sehr viele, nicht alle, aus der Zielgruppe werden sicher zuschlagen, sofern AMD nicht am Horizont in den nächsten Tage irgendetwas teasert, was eine Option zur 4090 darstellt....

Meine Gaming Threema Gruppe überschlägt sich gerade im Hype. Wir beteiligen uns mit mindestens 5 Käufen der 4090 :D

Wir sind aber nicht "alle".
Sondern Gaming Daddies/Nerds/Enthusiasts der solventen Gruppe 40+ Jahre (Nettogehalt deutlich jenseits der 3000) und alle auf UWQHD und 4K unterwegs.

Mit alle meine ich die 95,9% denen die 4000er zu teuer ist.

Die 4,1% ist dann vermutlich deine Threema gruppe :)

Mal abgesehen, dass es in Tagen überschaubar ist, wie lange ich dafür arbeiten muss, kann ich micht trotzdem nicht dazu bringen eine zu kaufen. Auch wenn ich in jeder freien Minute vor der Kiste hänge

2022-10-11 18_38_21-GeForce RTX 4090 und 4080_ Wie geht die Rechnung von Ada Lovelace für Nvid...png
 
  • Gefällt mir
Reaktionen: _Flattermann_, edenjung, McTheRipper und 2 andere
Looniversity schrieb:
Gerne doch:

In dem gleichen Trailer sind auch an anderer Stelle Körperteile zu sehen die es gar nicht gibt (Teile des Arms vor dem blauen Himmel, z.B.). Er sagt ein bisschen später, dass das in Bewegung "smooth" aussehe und weniger problematisch sei. Aber das soll "teils besser als nativ" und knapp 2000 Euro wert sein - im Ernst??

Edit: Dlss mag seinen Platz haben, keine Frage. Am Ende des Tages bleibt ein fancy AI Tool aber Interpolation, und da sollte man nicht einfach die NVidia-Aussagen nachplappern.

Ich fand Spidermans DLSS schon in 2 etwas flackerig. Da gibt es definitiv bessere Games.
 
Looniversity schrieb:
Aber das soll "teils besser als nativ" und knapp 2000 Euro wert sein - im Ernst??
Jup, ist für mich und meinem Grafikjunkie Umfeld tasächlich einer der Kaufgründe. :)
Die OFA Technik wird wie DLSS1 auf DLSS 2 reifen.
 
  • Gefällt mir
Reaktionen: Ragnarök88 und one2know
.Sentinel. schrieb:
Jetzt kapieren vielleicht auch mal die letzten hier, warum man CPUs nicht im GPU Limit testet ;)

Nein, das werden trotzdem viele nach wie vor nicht verstehen, auch wenn man mit der 4090 praktisch beliebig viele FPS selbst in 4K erzeugen kann, um fast jedes Spiel ins CPU Limit zu bringen, es wird weiterhin genug Leute geben, die dir sagen, dass die CPU in 4K nicht (so) wichtig ist.

Da ist halt Hopfen und Malz verloren. Entweder man versteht den Sachverhalt oder eben nicht. Aber gut, nicht jeder ist technisch versiert. Was ja okay wäre, wenn man es sich eingestehen könnte. :freaky:


Edit: Trotzdem muss ich hier noch loswerden, dass es trotz des Erfolgs von Nvidia und der hohen Performance sowie der Innovationen bei den Features aktuell einige Probleme gibt, die die Attraktivität für mich neben dem Preis weiter schmälern.

Da wäre zum einen das absolut Unerträgliche, potthässliche und teils nicht abschaltbare DLSS Sharpening in vielen neueren Games, was DLSS in solchen Spielen fast schon unbenutzbar macht.

Und da wäre das ständige Ruckeln durch Shader Compiling in vielen modernen DX12 Spielen, allen voran Unreal Engine 4 und künftig Unreal Engine 5.

Zumal auch Techniken wie Direct Storage weiterhin auf sich warten lassen

Aktuell zwei Probleme, die mir extrem den Spaß am PC Gaming vermiesen und auch zwei Probleme, unter denen Konsolen nicht leiden. Es gibt kein ruckeln wegen shader compiling und die APIs für direkten SSD zugriff werden auf Xbox und PS5 bereits genutzt.
Ach ja und der HDR support auf Konsole ist auch besser, gibt sogar automatische SDR/HDR Umschaltung, was am PC wieder nur mit gebasteln Funktioniert....


Ich meine, Performance und FPS Balken sind ja schön und gut, aber auch diese "kleinigkeiten" sind verdammt wichtig. Gerade das Shader Ruckeln ist ein fundamentales Problem des DX12 Designs, das uns noch viele Jahre begleiten wird. Selbst wenn es die großen Engines irgendwann in den Griff bekommen sollten, stehen Entwickler mit eigenen Engines trotzdem immer vor diesem Problem, das sie aus Gründen von Zeit, Kosten oder Know How nicht lösen können.
Und so ruckelt halt die RTX 4090 im zweifel mehr als ne fuckin' Series S für 300€. Und das ist einfach nur Bullshit.

Die PC Plattform steht aktuell vor Problemen, die sich mit Leistung alleine nicht lösen lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Player49, mrcoconut, Master_Chief_87 und 4 andere
Laphonso schrieb:
Wer ist alle? 🤔
Das ist eine GPU für ein sehr spezielles Segment.

Aber sehr viele, nicht alle, aus der Zielgruppe werden sicher zuschlagen, sofern AMD nicht am Horizont in den nächsten Tage irgendetwas teasert, was eine Option zur 4090 darstellt....

Meine Gaming Threema Gruppe überschlägt sich gerade im Hype. Wir beteiligen uns mit mindestens 5 Käufen der 4090 :D

Wir sind aber nicht "alle".
Sondern Gaming Daddies/Nerds/Enthusiasts der solventen Gruppe 40+ Jahre (Nettogehalt deutlich jenseits der 3000) und alle auf UWQHD und 4K unterwegs.

Tendenzen zur FE oder den Customs?
 
ridde schrieb:
Die 4,1% ist dann vermutlich deine Threema gruppe :)
Ich sehe uns eher als die 1% Bekloppten :D
Mal sehen ob am in einem Jahr 4% der Nvidia GPUs durch eine 4090 repräsentiert werden.
 
  • Gefällt mir
Reaktionen: one2know
Dh dann wohl, wenn die 4090 die „3090/TI“ so torpediert, dass wohl die Mittelklasse GPUs kaum unter 1000€ fallen werden, oder?
 
Eventuell werden die Mittelklassekarten schneller billiger wenn sich die Mining-Seuche nicht wieder einstellt? Wer weiß aber ob Mr. Moschus nicht wieder seine mindless drones durch Twitterposts "hochmanipuiliert" und die Leute anfangen die Miningrigs mit den Karten zu füttern?
 
Wann kommen die Tests der Partnerkarten?
 
Du hast auch die 3090 FE, keine Lust mehr auf die Founder Edition? Du hast eventuell auch einen Midi-Tower., da geht wenig mit den Costoms..
Interessant wäre ob wieder einige an den Kondensatoren sparen.
 
iWebi schrieb:
Sehr verdächtigt find ich das AMD das erste mal im GPU Bereich kein Jahr zurückliegt.

Beide Hersteller kommen in selben Zeitraum.

Was soll daran verdächtig sein? Vor ein paar Jahren war das der Normalfall, weil beide viele Jahre lang Tandem bei TSMC gefahren sind (nVidia fast immer auf dem Vordersitz :D ).

Dann ist AMD mal zu GloFo ausgewichen für ein paar Generationen, dann nVidia für eine Generation zu Samsung und es hat sich alles etwas -vor allem zugunsten von nVidia- verschoben, aber nun wo beide wieder unter einem Dach sind, ist "the old normal" wieder "the new normal".

Wenn jetzt beide bei TSMC bleiben, dann wird das vermutlich auch in Zukunft wieder so weitergehen, dass sie plus/minus wenige Wochen oder Monate mit ihren neuen GPUs beieinander liegen, weil sie logischerweise gleichermaßen auf die TSMC Weiterentwicklungen angewiesen sind.
Auch Performance und Effizienz werden bei TSMC stets relativ ähnlich sein, wobei nVidia historisch hier bis auf ein- oder maximal zweimal in den letzten 25 Jahren immer die Nase etwas vorne hatten.
 
  • Gefällt mir
Reaktionen: iWebi
BetaHydri schrieb:
Tendenzen zur FE oder den Customs?
"Leider" (weil 500 Euro Aufschlag) die 4090 Asus Strix, weil die 3090 Strix bereits superb war in Sachen Lautstärke und Kühlung. Die schnurrte selbst nach Stunden an 100% Auslastung ganz smooth vor sich an bei maximal 75 Grad, selbst im Sommer. Irres Teil.

Und lässt sich gut verkaufen.

Außerdem ist die 4090 Strix alias Brickxs als Meme GPU sicher zukünftig wertstabil :D
 
Laphonso schrieb:
Dafür ist das, was die 4090 abliefert, einfach zu mächtig und übt Druck aus.
Mit viel Glück hat in 6-8 Jahren 1% beim Steam Survey eine 4090. Die billige 3090 hat's immerhin auf 0,5 gebracht.
Auf die werden sich die Spieleentwickler dann natürlich voll konzentrieren. :D
 
  • Gefällt mir
Reaktionen: bai0varii
Zurück
Oben