Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Wo wird es nun eigentlich "genug" Karten geben?
Bislang höre ich nur von NBB und sehe bei Proshop einige auf Lager.
Caseking scheint sie mittlerweile nur noch im Zulauf oder nicht mehr auf Lager zu haben.
 
250-275W Stock und 350W Customs hätten es auch getan. So vollkommen unsinnig!
Aber beeindruckender Leistungssprung, hätte ich so nicht erwartet. Jetzt ist leider zu befürchten das AMD mit der Brechstange kontert
 
ThirdLife schrieb:
Hast du Statistiken zu defekten GPUs durch Mining ? Wenn nicht, dann einfach mal geblubbert oder wie ? :D
Repräsentative Statistiken dazu aufzustellen dürfte schwierig sein. Es ist aber nicht unbedingt eine unbegründete Sorge, dass ein monatelang unter Dauervolllast und ansonsten unbekannten Bedingungen (etwa bzgl. Thermik etc.) betriebenes Stück Mikroelektronik eine deutlich verringerte Lebensdauer aufweisen wird. Immerhin läuft keine Grafikkarte unbegrenzte Zeit fehlerfrei und intensives Mining braucht einen Teil der vorhandenen Reserven definitiv auf. Dass der Gebrauchtmarkt von heute daher nicht unbedingt mit dem von "früher" vergleichbar ist, ist keine allzu steile These.
 
Wahrscheinlich wird mein Ryzen 5900X auch weichen müssen für UWQHD. Welches Gehäuse mit guter Belüftung gibt es den bei dem das Netzteil nicht wie hier im Testgehäuse oben sitzt?

Werde das Teil wohl erstmal mit meinem 5900X in meinem Fractal Design Define 7TG Dark betreiben und mir die GPU Auslastung + Temperaturen anschauen. Dann wird überlegt gleich auf eine neue Plattform zu gehen, mal schauen!
 
Ja, unterm Strich sind die Preise abartig, das kann man drehen und schönreden wie man will. Die Preisentwicklung ist nicht schön.

ABER, das bedeutet doch nicht dass dadurch das Hobby Gaming gestorben wäre. Das Hobby bestimmt sich für mich durch die Qualität der Spiele und die ist nur zu einem kleinen Teil abhängig von der Grafik. Beispiel Cyberpunk. Super mega Grafik (wenn auch viel zu bunt) aber in Teilen eher mittelmässiges Spiel (imo). Wenn die Faszination an der Grafikpracht erst abgeflaut ist, steht auf einmal Spielewelt und Gameplay im Mittelpunkt und dann erst zeigt sich ob das Spiel es überhaupt wert ist.

Und dann gibt es Schieberegler, Freesync, G-Sync, DLSS, FSR etc. womit man diese AAA Spiele doch meist sehr gut und angenehm flüssig spielen kann. Ausserdem haben die meisten doch bestimmt noch ein mega Backlog an Spielen die es überhaupt noch zu Spielen gilt und die auf ihrem Setup gut laufen.

Ausser denen, die jetzt einfach Bock auf die schnellste GPU für 4K haben, gibt es bis zur nächsten Konsolen Generation erstmal kein Grund aufzurüsten oder zumindest mit einer 3080/3070/6800XT/6700XT etc. nicht glücklich zu werden.

Der Markt kühlt sich momentan so ab, dass wir mit etwas Glück in den nächsten Jahren wieder eine preiswertere Mittelklasse bekommen.
 
  • Gefällt mir
Reaktionen: angband1
mtheis1987 schrieb:
Moment, bei DLSS wird intern mit niedrigerer Auflösung gerendert,
nur im ersten Frame nach einem kompletten Szenenwechsel
mtheis1987 schrieb:
und das verlorene "Material" via KI wiederhergestellt.
Das Material wird durch Kumulation von vorhandenen, also nicht einfach erfundenen Pixeldaten, über mehrere Frames hinweg supergesampled.

Ähnlich wie bei 4K Beamern, die 4- Fach Pixelshift verwenden.
Grundauflösung des Beamers sind 1080p. Das Bild wird aber extrem schnell über eine Kippvorrichtung hintereinander 4x versetzt projeziert, so dass man dann auf die 2160p kommt.
mtheis1987 schrieb:
Bei SSAA wird intern mit dem x-Fachen der Auflösung gerendert und dann "gedownsampelt" auf die Ausgabeauflösung.
Exakt- Also das was DLSS macht nur ohne temporale Kumulation und Framegenau. Deswegen ist die Kantenglättungsleistung beim nativen downsampling mit der von DLSS zu vergleichen und im Normalfall den anderen Techniken sichtbar überlegen.
 
RaptorTP schrieb:
Ich hab ja schon bei 872€ für die 3080 Ti gekotzt.
Meine 2080S ist inmitten des Preiswahnsinns abgeraucht. Bekam den kompletten Kaufpreis erstattet und hab dann 800€ für die 3060ti gelatzt, damit ich nicht gerade das schlechteste Kühlermodell hatte. Hätte ich mal 9 Monate aufs Zocken verzichtet...:lol:

Zum Thema:

Den Preis außen vor (siehe Sig :D), überrascht mich der Leistungssprung dann doch. Hut ab!

Bin mal auf 4060ti & Co. gespannt, dann ändere ich meine Sig vielleicht wieder. ;)
 
hahaqp schrieb:
Wo sollte die 4080 16GB vs. 3080 12GB landen? Ca. 60% schneller?

Die 4090 ist doch "nur" 60-90% schneller als die 3090. Die 3080 war nicht weit weg von der 3090. Die 4080 wird hingegen deutlich langsamer als die 4090. Der Sprung zwischen 3080 und 4080 wird entsprechend viel geringer ausfallen als bei der 90er.
 
erazzed schrieb:
Ich vermisse etwas die Anmerkung, dass es mit DLSS3 nicht möglich ist, VSync oder GSync zu nutzen, bzw. in irgendeiner Form die fps zu begrenzen. Dafür, dass DLSS3 dafür gedacht ist, den Bildfluss zu verbessern, finde ich es doch etwas befremdlich, dass damit kein GSync möglich ist.

WTF, gibt es dann wieder Tearing oder sieht man es dank der hohen Framerates nicht?
Ich mein VRR ist für mich der größte Fortschritt in etlichen Jahren gewesen, neben der Umstellung von IPS auf OLED, darauf möchte ich nie wieder verzichten.
 
Katzenjoghurt schrieb:
Für 450€ krieg ich ‘ne 3060. Nur für Spiele kann ich mir dann auch gleich ‘ne Series X oder PS5 kaufen... ohne noch den restlichen PC drumrum noch dazu zu kaufen. Von der Leistung her nimmt sich das nicht viel.
Ja, dann mach das halt.
 
heroesgaming schrieb:
Repräsentative Statistiken dazu aufzustellen dürfte schwierig sein. Es ist aber nicht unbedingt eine unbegründete Sorge, dass ein monatelang unter Dauervolllast und ansonsten unbekannten Bedingungen (etwa bzgl. Thermik etc.) betriebenes Stück Mikroelektronik eine deutlich verringerte Lebensdauer aufweisen wird. Immerhin läuft keine Grafikkarte unbegrenzte Zeit fehlerfrei und intensives Mining braucht einen Teil der vorhandenen Reserven definitiv auf. Dass der Gebrauchtmarkt von heute daher nicht unbedingt mit dem von "früher" vergleichbar ist, ist keine allzu steile These.
Ich würde mal behaupten eine Minerkarte unter halbwegs guten Bedingungen wird insbesondere hier aus EU kommend besser behandelt worden sein als die 0815 Gamerkarte die immer an der Kotzgrenze lief. Ein Miner will Effizienz und maximalen Profit, den kriegt man nicht bei 2.1Ghz OC @450W sondern bei 1,6Ghz bei 180-200W.

Und damit sind thermische Bedenken wohl eher ausm Fenster.
 
  • Gefällt mir
Reaktionen: Veitograf
Pinsel schrieb:
Die Frage, die sich mir stellt: gibt es irgendwo gerade das MEHR an Anforderung softwareseitig?
Es war ja lange Zeit ein Intervall. Anfordernde Software -> stärkere Hardware -> anfordernde Software -> stärkere Hardware ...ich erinnere mal kurz an Crisis ;-)
Steht sogar im Artikel: die erste GPU mit der man in hohen Auflösungen (derzeit) Raytracing nutzen kann.

Es gibt drei Trends bei Graphik:

  • Raytracing
  • hohe Auflösung
  • hohe framerates

Bislang musste man sich für eines entscheiden.
Jetzt wird es langsam interessant auch einfach wirklich alles zu nutzen.
Ein Luxusproblem? Sicherlich. Aber das war Highendgaming auch schon in den 90ern... damals eben das Voodoo-SLI auf ner Matrox Millenium.

Der andere Aspekt ist wie üblich: VR

Und da kommen sogar gewerbliche Bedürfnisse zum Tragen.

Nicht jede GPU ist zwingend für Johny McBrummie gedacht damit er in CoD mehr roxxorn kann. Aber man kann sie auch dafür verwenden.
Und da sich nicht wenige irgendwelche Carbonteile für ihr Rad kaufen welche preislich drüber liegen und alle paar Jahre ausgetauscht werden müssen weil sie nicht mehr stabil sind, würde ich sagen, jedem sein Hobby.
 
  • Gefällt mir
Reaktionen: Pinsel
Wow, die Karte ist ein echter Kracher in allen Belangen!
Leistung / Grösse / Effizient und natürlich auch der Preis :freaky:
Wenn ich mir nicht vor weniger als 1 Jahr für über 1400 €uronen ein RX 6900 XT geholt hätte, wäre ich wohl schwach geworden...

Genau wie vielen hier, bin ich auch der Meinung, dass einen Powerlimit Standardmässig bei 350W gereicht hätten bzw. SOGAR 300W...

Es ist mittlerweile echt erschreckend, dass alleine die Grafikkarte soviel kostet wie früher ein ganzes Gamer PC!
 
@Taxxor
Natürlich nimmt nVidia Einfluss auf den Test mit review guidlines.

Und die Änderungen sind für jeden super leicht ersichtlich. Zum ersten Mal haben massig reviewer die Karten auf begrenzte TPD getestet um die die Effizienz so zu zeigen. Dazu Cost per Frame und solche Sachen.

In den 3 Jahren davor gab es das nicht, oder nur vereinzelt von outlets, die extrem ausführliche Tests durchführen und quasi alles betrachten.

Hardwareluxx hat fremde Bilder aus dem Netz vom PCB und dem Kühler genommen, anstatt sie selbst auseinander zu bauen und Fotos zu machen, wie sonst immer.
 
Beg1 schrieb:
WTF, gibt es dann wieder Tearing oder sieht man es dank der hohen Framerates nicht?
Ich mein VRR ist für mich der größte Fortschritt in etlichen Jahren gewesen, neben der Umstellung von IPS auf OLED, darauf möchte ich nie wieder verzichten.

"Aktuell" ist VSync und Framebegrenzung noch nicht möglich. Das sollte aber eine Softwaresache sein? Ich denke das wird in den nächsten Wochen auch noch nachgereicht. Zu GSync konnte ich noch gar nichts finden, funktioniert das wirklich noch nicht?
 
heroesgaming schrieb:
Dass der Gebrauchtmarkt von heute daher nicht unbedingt mit dem von "früher" vergleichbar ist, ist keine allzu steile These.
Doch ist es, denn deine gebrauchte GPU von vor 10 Jahren kann wesentlich dümmlicher behandelt worden sein. Kettenraucher, Tiere im Haushalt, schlecht belüftetes Gehäuse. Geil.

Bei Mining-GPUs kannst du dir i.d.R. sicher sein, dass die auf Effizienz getrimmt sind - also undervolted wurden und nie unter "Dauervolllast" standen. Denn die sollen $$$ generieren und deshalb möglichst lange halten.
Und ne GPU interessiert es nicht ob sie 1h oder 24h etwas berechnet. Das einzige mechanische Bauteil was darunter leiden könnte, ist der Lüfter.
 
  • Gefällt mir
Reaktionen: Veitograf und ThirdLife
Pisaro schrieb:
Wahrscheinlich wird mein Ryzen 5900X auch weichen müssen für UWQHD. Welches Gehäuse mit guter Belüftung gibt es den bei dem das Netzteil nicht wie hier im Testgehäuse oben sitzt?

P500a von Phanteks, Lian Li Lancool 2 Mesh, Fractal Design Meshify 2 etc. Wichtig ist, das genügend Lüfter montiert sind. Dann sollte jedes Gehäuse mit viel Mesh gute Ergebnisse liefern. Das P500a (ohne RGB) hat nur 2 Lüfter im Gehäuse. Da sollte man eventuell noch nachrüsten.
 
Ich hoffe das die 4070 dann endlich mit mehr VRAM erscheint.
Das war nVidias größter Fehler.....
 
  • Gefällt mir
Reaktionen: Cempeg
Zurück
Oben