Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Tobias123 schrieb:
Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
In dem segment? Ja, das ist immerhin die high end Variante.
 
  • Gefällt mir
Reaktionen: ben12345
Beeindruckende Leistung,
ich verstehe nicht wie die UVP der 4080 16 GB sinn ergibt.

Die 4080 16 GB wird in etwa 60% der Leistung der 4090 haben. (49 vs. 83 TFLOPS).
Die 4080 16 GB kostet aber 75% der 4090. (1469 € vs. 1949 € UVP).

Das heißt die 4090 hätte eine bessere Preis/Leistung als die 4080 16 GB, wann war das jemals so?

Oder glaubt ihr die 4080 16 GB wurde nur so teuer angekündigt um die Preise der 30er-Serie noch hoch halten zu können und wird eibrechen wenn die Leute merken dass die Preis/Leistung im Vergleich zur 4090 schlecht ist?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna
Schöner Test.
Beeindruckendes Stück Technik.
Superschnell.
Relativ effizient.
Schönes Design.

Nix für mich.
 
  • Gefällt mir
Reaktionen: MrChlorophil, SirDoe, superrocko und 4 andere
Benni1990 schrieb:
Wer bei der Karte nicht zuschlägt ist selber schuld und alle die eine 3090 haben bekommen noch halbwegs gutes Geld und können mit knapp 1000€ auf eine 4090 umsteigen besser und Billiger geht es nicht
Eine 3090 gibt es zum Teil bereits für knapp unter 1000€ neu. Auf den Gebrauchmarkt ist die eher so um die 750-800€ wert.
 
klar viel Leistung, aber die Mehrleistung rechtfertigt nicht den Preisaufschlag von 62,55% ausgehend von einer 3090ti oder 77,50% einer 3090
1665511312616.png

wooooow 73% native Mehrleistung bei 77% höherem Preis, einfach nur Lächerlich.
Hoffentlich bleiben die Karten wie blie im Regal liegen. Dann werden die Preise schnell fallen.....MÜSSEN!
 

Anhänge

  • 1665510923632.png
    1665510923632.png
    8,6 KB · Aufrufe: 165
Schrank schrieb:
der glaubt ihr die 4080 16 GB wurde nur so teuer angekündigt um die Preise der 30er-Serie noch hoch halten zu können und wird eibrechen wenn die Leute merken dass die Preis/Leistung schlecht ist?
Nicht auszuschließen, weil die neue Serie, überträgt man deren Leistungsgefüge auf die alte Serie, diese eigentlich obsolet macht.
 
Hat jemand hier etwas mehr Durchblick und kann dazu was sagen, in welchem Maße die effektive Rechenleistung gemessen am Zuwachs an Shader wächst?

Bsp.
4090 FE: 16.384 Cores, 165% in 4K
3090 Ti: 10.752 Cores, 100% in 4k

7900 XT: 12.288 Cores, xxx% in 4K (?)
6900 XT: 5.120 Cores, 100% in 4K

Bei der 4090 steigt die Leistung in 4K fast linear zur Anzahl der Cores (FPU 32 ALU).
Wenn man das einfach so auch auf RDNA 3 anwenden kann, dann wird RDNA 3 doch auf 4090-Niveau sein, oder?
 
habla2k schrieb:
Verbrennt euer Geld wie ihr wollt, aber vielleicht könnte man über solchen Überfluss und Ressourcenverbrauch mal nachdenken.
Weil die alten Grafikkarten direkt im Müll landen? Wer aufrüstet verkauft seine alte Karte oder gibt sie in der Familie weiter, und diese müssen dann keine neue Karte kaufen. Das Gerede von Ressourcenbedarf und Ressourcenverschwendung ist einfach falsch.
 
  • Gefällt mir
Reaktionen: Atnam
Ayo34 schrieb:
Naja, die Karte ist gerade rausgekommen und wird auch in einigen Jahren noch laufen. Auch jetzt gibt es schon 4k - 240hz Monitore. Mit DLSS3.0 erreicht man auch entsprechende Framezahlen. Schon Schade, dass da dann Displayport 1.4 limitiert. Benutzt man dann HDMI2.1 für den Spiele-PC?

PCIE5 oder 4 ist hingegen völlig egal, da die Grafikkarte auch mit PCIE4 die volle Leistung abruft. Auch in der Zukunft wird da niemals von PCIE5 profitiert. Das wird vielleicht bei der nächsten, schnelleren Grafikgeneration ein Thema.
Ja genau es gibt 4k 240 Hz Monitore und braucht man mehr? Eigentlich nicht oder? Solang die monitor hersteller doch nicht anfangen dp 2.0 zu verbauen ist es doch überflüssig. Anderseits kann man hier ja natürlich in beide Richtungen argumentieren und sagen das die monitor hersteller das auch von den gpu Herstellern abhängig machen.
 
Mracpad schrieb:

Er meint das gute alter "Abschreibungsmodell". Relativ früh zu Release konnte man die RTX3090 ja noch bekommen und dort im Preisrahmen 1500 - 1900 EUR. Die kann man heute, ziemlich genau 2 Jahre später, immer noch für um die 800 - 900 EUR verkaufen.
D.h. im Mittel hat die Grafikkarte um die 400 - 500 EUR pro Jahr gekostet.
Legst man auf den Erlös von 800 - 900 EUR dann gute 1000 EUR drauf dann dann ist man in Reichweite zu einer RTX 4090. Denkt man das Spiel nun weiter und schaut 2 Jahre in die Zukunft dann wird auch dort mit sehr hoher Wahrscheinlichkeit ein Erlös von um die 1000 EUR für eine gebraucht 4090 möglich sein, also hat sie effektiv wieder 500 EUR pro Jahr gekostet.
D.h. in diesem Modell hätte man für einen Eigeninvest von ca. 2000 EUR (grob gerechnet) eine RTX3090 und dann direkt im Anschluss eine RTX4090 gehabt. Die Krönung ist das man beide GPUs während Ihrer Generation absolut ausgenutzt und Spiele in höchster Grafikqualität genossen hat.

Speziell bei High End Hardware im GPU Bereich klappt dieses Modell schon seit einigen Generationen ganz gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b und Wichelmanni
Max007 schrieb:
7900 XT: 12.288 Cores, xxx% in 4K (?)
6900 XT: 5.120 Cores, 100% in 4K

Bei der 4090 steigt die Leistung in 4K fast linear zur Anzahl der Cores (FPU 32 ALU).
Wenn man das einfach so auch auf RDNA 3 anwenden kann, dann ...
Erstmal prognostiziert AMD nur 50% mehr Fps/Watt.
(hat nicht direkt mit Shaderanzahl linear skalen zu tun, sondern eher wie weit man über Sweetspot taktet,
also könnte man mehr Shader niedriger takten bei deutlich weniger Volt sofern man die Auslastung gleichmäßig hinbekommt mittels OREO)

Wenn ne 6900XTXH OCed bei 2,8GHz 1,175V braucht, sinds bei der 7900@2,75GHz vllt. sogar <<1,05V.
(gehe mal davon aus, das mit 5nm deutlich weniger Volt gebraucht werden für den gleichen Takt)

bei der 4090@5nm sieht die Kurve so aus:
 

Anhänge

  • clock-vs-voltage.png
    clock-vs-voltage.png
    22,8 KB · Aufrufe: 158
Zuletzt bearbeitet:
und was denkt ihr wie die Verfügbarkeit morgen aussieht? Wirds so enden wie bei der RTX 3000er Reihe?

Bin gespannt:)
 
Nvidia hat extrem übertrieben angekündigt und letztlich aber im Rahmen stark vorgelegt.
Insbesondere weil sie könnte auch effizient sein. Leider werde die meisten User wohl alles so lassen und 150 Watt weitgehend ohne Zuwachs in Wärme umwandeln. Das und der brachiale Preis ist der Zielgruppe aber eh egal.

Von daher muss man jetzt erstmal sehen, ob AMD jetzt auch die Faktor 1.65 Verbesserung bringen können.
 
Tobias123 schrieb:
Bin ich der einzige, der auch eine auf 300 Watt gedrosselte Karte als nicht mehr zeitgemäß ansieht?
Vollkommen richtig hätte Nvidia doch 1000watt Bios geben können und jeder begrenzt wie er es will und was er brauch und alle anderen drehen halt die 1000watt auf und freuen sich und jeder ist zufrieden
 
Ich benötige einen Abnehmer für meine 3090 FE, die 4090 ist einfach ein zu nettes Spielzeug, um es ignorieren zu können. :)
 
  • Gefällt mir
Reaktionen: Sturmwind80
SKu schrieb:
Ich benötige einen Abnehmer für meine 3090 FE, die 4090 ist einfach ein zu nettes Spielzeug, um es ignorieren zu können. :)
Zahle Versand, entsorge die Karte für dich fachgerecht ;)

Bin echt gespannt, wie sehr der Run morgen ist.
 
Irrsinnige Karte in jeglicher Hinsicht. Ich freue mich schon auf die „Vernunftmodelle“ zwischen 100W-150W. Falls die denn dann irgendwann erscheinen.
 
  • Gefällt mir
Reaktionen: mannefix
Wann geht der Verkauf eigentlich morgen los?

Mein Gefühl ist, dass es viel mehr 4090er zu Release geben wird und gleichzeitig ist die Karte für Mining nicht relevant. Bei dem Preis sollten auch Scalper nicht auf noch höhere Preise spekulieren. Könnte mir daher eher einen normaleren Start vorstellen.
 
  • Gefällt mir
Reaktionen: II n II d II
GerryB schrieb:
Erstmal prognostiziert AMD nur 50% mehr Fps/Watt.
(hat nicht direkt mit Shaderanzahl linear skalen zu tun, sondern eher wie weit man über Sweetspot taktet,
also könnte man mehr Shader niedriger takten bei deutlich weniger Volt sofern man die Auslastung gleichmäßig hinbekommt mittels OREO)

Okay, also ausgehend von der 6900 XT Stock (260 Watt)...50% mehr fps/Watt wären bei 260 Watt einer 7900 XT 150% Leistung zu einer 6900 XT.

Wenn sich die 7900 XT dann 350 Watt genehmigen darf, liegen wir auf jeden Fall bei mindestens 165%, also ohne RT auf 4090- Niveau.
 
Zurück
Oben