Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

anthony274 schrieb:
Es ist ein brutales Stück Hardware, welches jedoch einfach zur falschen Zeit erscheint

Also bei mir gehts hauptsächlich um VR - sonst ist die Karte aktuell schon echt der Zeit n bissl voraus.
Ich bin gespannt was Intel für CPU Leistung nun raushaut noch, denn aktuell machen ja nichtmal andere Karten außer der FE wirklich Sinn - Overclocking schon gar nicht, wenn schon jede aktuelle CPU die es quasi gibt limitiert :o
 
Hutzeliger schrieb:
Ja Dicke,

bitte schaut euch die Empfehlung von IGOR an! Wirklich, die realen Zahlen sind noch viel besser als hier dargestellt, der reale Gaming Verbrauch liegt deutlich unter 450 Watt.
WQHD: 321 Watt Average
Das stimmt so halt auch wieder nicht.
Es ist zwar richtig, dass sich die RTX 4090 die 450 Watt in Spielen nur selten genehmigt. Wenn du aber wirklich im GPU-Limit liegst, werden etwa 400 bis 430 Watt immer benutzt. Bei 350 Watt oder noch weniger wird schlicht die GPU nicht richtig ausgelastet, dann limitiert irgend etwas.
 
  • Gefällt mir
Reaktionen: lalelu, Geringverdiener und Recharging
Die Karte muss doch so Teuer sein. sonst lassen sich die Lagerbestände der 3000er Serie nicht mehr verkaufen.
 
Wollte mir eigentlich ne 4090 kaufen damit ich bei 1080p und 60hz besser spielen kann.
 
  • Gefällt mir
Reaktionen: [SM]Valen und GrafityAP
@ThirdLife
An ihren Umgangsformen können sie noch feilen. Wir kennen uns nicht, daher duzen wir uns auch nicht. Ein "Du" verbitte ich mir.

Sie Minen also selbst nicht, meinen aber zu wissen, wie genau Miner ihre Rigs betreiben? Bei 50% Powerlimit? Und das stoppt dann die unausweichliche Austrocknung der Paste?
Schön wär's, aber die Realität ist eine andere. Deshalb werden die Karten sehr wohl irgendwann im Temperaturlimit und somit an ihren Spezifikationsgrenzen betrieben. Da nützt der gedrosselte Stromverbrauch auch nichts, wenn die Paste nach einigen Monaten fast keine Wirkung mehr hat.


Ihre eigene Wärmeleitpaste auf den Karten trocknete also nicht aus, wo sie auch kein Mining betreiben? Haben sie mal selbst nachgesehen, also den Kühler entfernt? Gut ich glaub ihnen, dass sie nix bemerkt haben, es ist aber ein Einzelfallbericht zu drei Karten, der nichtmal was mit Mining zu tun hatte, mehr nicht. Insofern sind sie schon fleißig dabei ihrer eigenen Devise "..Es braucht keine Statistik, ich sags einfach und ich habe Recht, denn ist so weil ist so.." zu folgen. Tolle Argumentation, muss ich schon sagen, das sollte hiermit nur für die Nachwelt festgehalten werden.

Beim Mining tritt das Problem der Austrocknung aber durchaus auf. Statistiken dazu sind natürlich nicht vorhanden, aber dennoch gibt's genügend Berichte davon.
Zudem trocknet jede Wärmeleitpaste irgendwann aus, weil das die Physik bedingt, die Frage ist nur wie schnell (hängt von der Paste und den Temperaturen ab) und ob man es merkt...

Hier ein Beispiel:

https://www.gamestar.de/artikel/kryptomining-grafikkarte-schaden-test,3367364.html


Nochmal zu den Umgangsformen:

Ich zitiere sie: "Du stellst hier doch wilde Thesen auf die du nicht untermauern kannst und erklärst mir was von Argumenten."

Selbst wenn das stimmen würde, rechtfertigt das sicher nicht, den Gesprächspartner mit "...einfach mal geblubbert oder wie ?.. " anzugehen.
Schämen sie sich.
 
ach würde mich doch sehr interessieren was der 4090FE Kühler kostet. Wahrscheinlich 300 USD

Ich würde dann lieber nur die nackte 4090FE für 1600€ kaufen und WaKü für 150€ draufbauen...
 
  • Gefällt mir
Reaktionen: LiFeSII und Capthowdy
Ist noch jemandem aufgefallen das gerade immer mehr bereits gelistete 4090 Karten aus den Shops verschwinden? Ein Zeichen? Oder bedeutungslos?
 
  • Gefällt mir
Reaktionen: Celinna
Wolfgang schrieb:
Das stimmt so halt auch wieder nicht.
Es ist zwar richtig, dass sich die RTX 4090 die 450 Watt in Spielen nur selten genehmigt. Wenn du aber wirklich im GPU-Limit liegst, werden etwa 400 bis 430 Watt immer benutzt. Bei 350 Watt oder noch weniger wird schlicht die GPU nicht richtig ausgelastet, dann limitiert irgend etwas.

Mein "JA DICKE" war Antwort auf die Frage ob ein 1000 Watt Netzteil reicht, zusätzlich habe ich die zahlen nur zu WQHD, nicht 4K oder Ausnahmen gepostet.

Bitte nicht aus dem Zusammenhang reisen.

Danke
 
Zuletzt bearbeitet:
Schaut ja echt gut aus was Nvidia da abgeleifert hat auf den ersten blick.

Nun bin ich echt gespannt was AMD mit Rdna3 auf den Markt wirft, denn dann kann man erst wirklich sagen wie gut die 4090 wirklich ist.
Sehr spannender Herbst/Winter:)
 
Artikel-Update: Sämtliche Tests im Review wurden auf einem Core i9-12900K mit PCIe 4.0 durchgeführt. Doch nicht jedes Mainboard hat PCIe 4.0, ältere Platinen wie AMDs 300- und 400-Generation können nur auf PCIe 3.0 zurück greifen und dennoch leistungsstarke CPUs tragen. ComputerBase hat nun mit Hilfe einer BIOS-Einstellung untersucht, was dies für Leistungseinbußen zur Folge hat. In der Testreihe tritt die GeForce RTX 4090 nur noch mit 16 Lanes des alten Standard PCIe 3.0 an.
 
  • Gefällt mir
Reaktionen: wexoo, the_IT_Guy, Zwirbelkatz und 8 andere
Wolfgang schrieb:
Artikel-Update: Sämtliche Tests im Review wurden auf einem Core i9-12900K mit PCIe 4.0 durchgeführt. Doch nicht jedes Mainboard hat PCIe 4.0, ältere Plattformen wie AMD Ryzen 2000 oder Ryzen 3000 können nur auf PCIe 3.0 zurück greifen und dennoch leistungsstarke CPUs tragen. ComputerBase hat nun mit Hilfe einer BIOS-Einstellung untersucht, was dies für Leistungseinbußen zur Folge hat. In der Testreihe tritt die GeForce RTX 4090 nur noch mit 16 Lanes des alten Standard PCIe 3.0 an.
Sehr interessant. Man kann also auch bei Zen 4 bedenkenlos auf die non-E-Chipsätze gehen, wenn nicht einmal PCIe 4 ausgelastet wird.
 
wtfNow schrieb:
Oha das hat mich ja wirklich interessiert mit PCIe 3.0 da es mich betrifft...

So um die ~2 fps Unterschied sind ja völlig zu vernachlässigen:)
Da kann man beruhigt einen non-E Chipsatz kaufen, wenn PCIe 5.0 so "schlimm" einbricht. ;)
 
Wolfgang schrieb:
Strategiespiele sind da halt schwierig, weil die super schnell CPU-limitiert werden. Das galt es hier zu verhindern.
Bei Warhammer total War 3 ist man im GPU Limit. Das wäre das perfekte Strategiespiel.
 
Captain Mumpitz schrieb:
Man möchte die Qualität des mitgelieferten PCI Adapters nicht unerwähnt lassen:



Zudem scheint der Connector auf dem PCB ziemlich zu wackeln wenn man das Kabel bewegt.
@Wolfgang ist euch so was auch aufgefallen? Scheinbar soll man beim Kabelmanagement aufpassen, nicht dass da unter Umständen sogar eine Lötstelle oder ein Kabel bricht.
Alle Stromstecker bei Grafikkarten wackelt wenn man dran rüttelt, da ist der neue keine Ausnahme, die alten aber auch nicht. Und nein, der neue Stecker wackelt nicht mehr als der alte.

Der Adapter ist qualitativ derweil absolut vergleichbar mit älteren Adaptern. Diese sind nie 100 Prozentig super, aber das Ding wird bei 99,9 Prozent der Nutzer völlig problemlos arbeiten. Die Panik über den Stromstecker ist völlig überzogen, als Spieler wird das absolut überhaupt keinen auch nur irgendwie angehen.
MeisterOek schrieb:
Interessanterweise hat Igor in seinem Video das Gegenteil gesagt oder war es der 8auer? Jedenfalls haben die es anhand der Bilder analysiert und meinten es würde mit DLSS(3) schärfer aussehen und wäre nativ weicher.
Mit DLSS 3 bzw. FG sieht erstmal alles absolut gleich aus wie mit DLSS SR. Es gibt nur super selten da einen Unterschied. Wenn ein Video mit DLSS SR + FR schärfer`/unschärfer aussieht als mit DLSS SR behaupte ich, stimmt mit dem Video etwas nicht. Verglichen mit nativ kann das natürlich anders sein, dass liegt dann aber nicht an der FG, sondern an der SR.
erazzed schrieb:
Ich vermisse etwas die Anmerkung, dass es mit DLSS3 nicht möglich ist, VSync oder GSync zu nutzen, bzw. in irgendeiner Form die fps zu begrenzen. Dafür, dass DLSS3 dafür gedacht ist, den Bildfluss zu verbessern, finde ich es doch etwas befremdlich, dass damit kein GSync möglich ist.
GSync funktioniert supi mit Frame Generation :)
Affenzahn schrieb:
Hat irgendwer getestet ab wieviel Watt Parität zur 3090 herrscht?

Im Luxx sind sie auf 250 Watt runter und die 3090 auf 450 sieht immer noch kein Land.

Rein von den Balken her, könnte das eine 150-180W 3090 sein.

@Wolfgang könnt ihr so nen Test noch nachschieben?
Wir haben zwar noch so einiges mit der RTX 4090 geplant, aber nichts mehr in der Hinsicht.
onkel_axel schrieb:
@Taxxor
Natürlich nimmt nVidia Einfluss auf den Test mit review guidlines.

Und die Änderungen sind für jeden super leicht ersichtlich. Zum ersten Mal haben massig reviewer die Karten auf begrenzte TPD getestet um die die Effizienz so zu zeigen. Dazu Cost per Frame und solche Sachen.

In den 3 Jahren davor gab es das nicht, oder nur vereinzelt von outlets, die extrem ausführliche Tests durchführen und quasi alles betrachten.

Hardwareluxx hat fremde Bilder aus dem Netz vom PCB und dem Kühler genommen, anstatt sie selbst auseinander zu bauen und Fotos zu machen, wie sonst immer.
Es gibt keine Review Guidelines. Keine einzige. Es gibt natürlich Vorschläge und Hinweise, aber keine Guidelines. Und Effizienztest machen wir schon seit...ewig...seit zig Generationen. Das ist wahrlich nichts neues.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Maggolos, MeisterOek und 6 andere
anthony274 schrieb:
Es ist ein brutales Stück Hardware, welches jedoch einfach zur falschen Zeit erscheint

2000€ GPU
150€ NT
2150€ nur um Spiele besser spielbar zu machen? Ich habe vor 4 Monaten eine 3080 für 650€ gekauft. Der 3fache Preis ist trotz der Leistung nicht gerechtfertigt. Jedes Spiel, was ich persönlich spiele, läuft auf allen Details völlig flüssig.

Bringt also derzeit nicht viel für mich
150 € NT ist aber schon sehr äh.. genügsam ;)

Habe für meine 10900K/11900K/12900KS Systeme immer schon das Corsair AX1600i genommen
da war die Entwicklung noch nicht SO vorhersehbar - wenn ich eins "günstig" schiessen konnte habe ich eins gekauft ( 4x1600er und 1x das 1500er).

Der minimal höhere Idle Verbrauch gegenüber nen Enermax 500W Platin ist wirklich zu vernachlässigen.

Bin mal gespannt wieviele mit ihrem 150 € NT probleme bekommen werden mit dieser Karte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zockmock
warum wartet keiner amd ab? diese geilheit auf die 4090 hier ;)
bedeutet schnelleres NVENC auch ein schöneres bild bei gleicher bitrate?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging, Zockmock und Keloth
TuxXx schrieb:
Beeindruckend 😲 aber der Preis .... 🥵

Waren das noch Zeiten als meine eine GraKa im Mid für ca. 200€ und eine HighEnd für ca. 400€ bekommen hat.
Radeon 9700 Pro HIS Excalibur 499€ ca. im Jahr 2002 im MediaMarkt gekauft.
Wären heute 667€ mit Inflation für ein Topmodell.
Wechselkurs US Dollar zu Euro war 1,06106 im Schnitt also nicht so viel anders als heute.
 
Das die PCI-e Versionen nicht wirtklich einen Unterschied bringen war ja abzusehen. das bringt Hauptsächlich bei wenig Speicher/Einsteiger Bereich und den gibts ja Preislich garnicht mehr wirklich.
Nvidia hat nur PCI-e3 Karten unter 200EUR mit 4GB, AMD immerhin die RX6500XT mit PCI-e4.
für den Preis gab es vor 3Jahren noch eine RX590-8GB oder GTX1060 -6GB im Abverkauf und die haben im verhältnis zu heute weit mehr geleistet wie die heute verfügbaren lowpreis Karten.
 
seyfhor schrieb:
Ok, sie ist mehr als doppelt so schnell wie meine RX6700XT (in WQHD), Aber sie kostet mit ~2000,- gegenüber 500,- auch 4x so viel.
Man könnte fast meinen die 4090 wäre nicht für Mäusekino gemacht. :p

fortknox schrieb:
An ihren Umgangsformen können sie noch feilen. Wir kennen uns nicht, daher duzen wir uns auch nicht. Ein "Du" verbitte ich mir.
Zum Spiegel-Online-Forum gings rechts lang; Auf CB (so wie eigentlich auf allen Technikforen) ist das "Du" Usus, nicht das "Sie".

mkbftw schrieb:
warum wartet keiner amd ab? diese geilheit auf die 4090 hier ;)
Ich habe ja noch die Hoffnung, dass AMD kurz vor Launch noch mal nen Banger bringt um NV ordentlich in den Karren zu fahren.

Aber naja, irgendwo ist Haben besser als Brauchen. :D
 
  • Gefällt mir
Reaktionen: MeisterOek, twoface88, Zockmock und 4 andere
Zurück
Oben