Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Looniversity schrieb:
Gerne doch:

In dem gleichen Trailer sind auch an anderer Stelle Körperteile zu sehen die es gar nicht gibt (Teile des Arms vor dem blauen Himmel, z.B.). Er sagt ein bisschen später, dass das in Bewegung "smooth" aussehe und weniger problematisch sei. Aber das soll "teils besser als nativ" und knapp 2000 Euro wert sein - im Ernst??

Edit: Dlss mag seinen Platz haben, keine Frage. Am Ende des Tages bleibt ein fancy AI Tool aber Interpolation, und da sollte man nicht einfach die NVidia-Aussagen nachplappern. Früher wurden Grafikkarten abgewertet, wenn der anisotropische Filter etwas unscharf war, weil das nichts anderes als Betrug ist, bei dem Qualität gegen Leistung getauscht wird. Heute nennt man das DLSS und sieht es als Feature?
Standbilder sagen aber halt nunmal nichts darüber aus wie es in Bewegung aussieht.
Das wurde jetzt schon öfters diskutiert.
Standbilder verfälschen den Eindruck ebenso wie Zeitlupen.

Aber man sollte auch nicht vergessen DLSS wird stetig weiterentwickelt. Bei Version gab es in den Versionen schon signifikante Verbesserungen.

Cyberpunk hatte bei den Versionen 2.0 - 2.2.x z.b. Definitiv ghosting Probleme beim Auto fahren. Mit Version 2.3.x war das Problem fast komplett behoben. Ich hab es jetzt länger nicht mehr gespielt.

Er sagt in seinem video ja auch sehr schön das es kleinlich ist nach solche Fehlern zu suchen auch wenn es natürlich wichtig ist.

Denke an den AI frames wird man noch viel schrauben können.

Und zu behaupten das das Bild durch DLSS unscharf wird ist einfach falsch. Es war anfangs so aber ist mitlerweile definitiv nicht mehr der Fall. Das Bild wird sogar schärfer. Derbauer geht da z.b. In seinem Testbericht zur 4090 drauf ein.

Aber willst du mir ernsthaft erzählen das eine Technik die weitaus mehr frames liefert und zudem dafür sorgt das die Leistungsaufnahme sinkt und du zudem in real Geschwindigkeit keine schlechte Bildqualität nachweisen kannst überflüssig und fancy ist?
 
Laphonso schrieb:
"Leider" (weil 500 Euro Aufschlag) die 4090 Asus Strix, weil die 3090 Strix bereits superb war in Sachen Lautstärke und Kühlung. Die schnurrte selbst nach Stunden an 100% Auslastung ganz smooth vor sich an bei maximal 75 Grad, selbst im Sommer. Irres Teil.

Und lässt sich gut verkaufen.

Außerdem ist die 4090 Strix alias Brickxs als Meme GPU sicher zukünftig wertstabil :D

Ich hab sie in einem der Videos gesehen, passt einfach nicht in meinen Tower. Die 3090 passt da genau rein, es gibt nach hinten noch etwas raum, nach unten auch, aber keinen Platz für 1/3 mehr länge und Breite.
Die 4090 FE wird wieder ohne Probleme passen, die 4 fach Adapter-Kabelpeitsche ganz sicher scheiße aussehen aber was soll man machen?

IMG_4418.jpeg
 
Spaß beim zocken kommt bei gut gemachten Games auf, nicht das man die maximale Auflösung und Detailgrad einstellen und hohe fps erreicht. Wenn die Spiele schlecht sind bringt auch eine schnelle GPU nichts.

Ich überspringe mal 3 Generationen.
 
  • Gefällt mir
Reaktionen: thom_cat, MrChlorophil, Lutscher und 7 andere
Zugegeben, von der Performance pro Watt bin ich positiv überrascht. Der Preis hingegen ist ein schlechter Scherz. Wenn man dann folgendes liest...
DisplayPort 2.0 unterstützen der AD102 und die anderen Ada-Lovelace-GPUs nicht. Dasselbe gilt für PCIe 5.0, die Grafikkarte kann nur mit dem PCIe-4.0-Standard umgehen.
...kann man nur noch den Kopf schütteln. Kein DP 2.0 bei einer 2000€-Karte :freak:
 
  • Gefällt mir
Reaktionen: mythson und McTheRipper
Fuchiii schrieb:
ALLE sollten dafür die Daumen drücken - denn wenn nicht, wird Lederjacke sich noch mehr Geld für die Grakas zahlen lassen ;)
Aber gut.. ist den NV-Jüngern ja egal wenn sie nachher 3000€ oder mehr zahlen... NV. Beschte!
So wars gedacht eigentlich, natürlich hast du recht. Wenn DLSS 3 nun auch auf Ampere 3xxx kommt,was ich erwarte ,sich ähnlich zügig verbreitet wie bisher, sieht es nicht gut aus für AMD und somit Konkurrenz auch wenn AMD Fanboys gerne DLSS runterspielen. Nicht ohne Grund ist die 6900xt um auf 700 abgerutscht die letzten Wochen und 3080er noch relativ stabil im Preis. Das wird sich natürlich auch auf die Wiederverkaufspreise spiegeln und die Bereitschaft nochmals > 1000 bis 1500 Euro für eine AMD Karte auszugeben deutlich mindern > heisst weniger Käufer in diesem Segment. Wie man es auch dreht steht sowohl NV als Unternehmen als auch der NV 3xxx Käufer m.E. besser da. Da muss AMD jetzt echt liefern.
 
Atnam schrieb:
Aber willst du mir ernsthaft erzählen das eine Technik die weitaus mehr frames liefert und zudem dafür sorgt das die Leistungsaufnahme sinkt und du zudem in real Geschwindigkeit keine schlechte Bildqualität nachweisen kannst überflüssig und fancy ist?
Wie gesagt: Früher wurden Grafikkarten dafür abgewertet, aber heute ist es dank erfolgreichem Marketing ein Feature. Das ist nichts anderes als es früher per Treiber "zuschaltbares" verpfuschtes anisotropic Filtering war. Es sollte doch niemanden wundern, dass man mehr Leistung bekommen kann wenn man die Qualität runterdreht. Aber kann kann man ja auch gleich die Regler runterschrauben...

zivilist schrieb:
Spaß beim zocken kommt bei gut gemachten Games auf, nicht das man die maximale Auflösung und Detailgrad einstellen und hohe fps erreicht.
Bingo.
 
  • Gefällt mir
Reaktionen: Knaecketoast
Rockstar85 schrieb:
Ja und wenn man Cherrypicked, dann kommt sowas bei raus ;)
Herrgott nochmal, das wurde doch mehrfach und auch von mir angesprochen.. Leseverständnis?
Du hast gezielt danach gefragt wo AMD nicht geliefert hat und ich habe dir die Frage konkret mit Daten aus dem vorliegenden Test beantwortet.

Du hast von Effizienz ohne RT und der Leistung ohne RT gesprochen, demzufolge ein unvollständiges Bild gezeichnet und ich habe das Bild vervollständigt.
Rockstar85 schrieb:
Fahr Cry 6 als Fake zu bezeichnen ist witzig... .
Gut, man kann auch RT Light dazu sagen, könnte jetzt ausholen und den Unterschied genauer erklären, aber rt light trifft es recht gut. 😉
 
Jenergy schrieb:
...kann man nur noch den Kopf schütteln. Kein DP 2.0 bei einer 2000€-Karte :freak:
Es muss ja auch Kaufargumente für eine RTX5000 Serie geben, abgesehen von DLSS 4.0 das dann natürlich nicht Abwärtskompatibel ist...kleiner Scherz ;-)
 
  • Gefällt mir
Reaktionen: McTheRipper und Jenergy
Piak schrieb:
Nö.
Überschrift von Wolfgang:

"Die Rohleistung kommt in Spielen oft nicht an"​

Genau dass ist dass was ich kritisiere. An der Architektur hätte man mehr arbeiten können und sollen.
Das kommt daher, dass es noch keine Spiele gibt, die mit solchen Shaderkanonen entsprechend umgehen können.
Kommende Spiele mit entsprechender Auslegung werden den Abstand zu den alten Karten erhöhen...
 
  • Gefällt mir
Reaktionen: Master_Chief_87, Ragnarök88, B.L. Swagger und 2 andere
.Sentinel. schrieb:
Kommende Spiele mit entsprechender Auslegung werden den Abstand zu den alten Karten erhöhen...
Du hast mehr Hoffnung in die Zukunft der Konsolenports als ich. :)
 
  • Gefällt mir
Reaktionen: Maggolos, .Sentinel. und Mimir
Ich denke man bekommt auch in Spielen wie Zombie Army 4 die 4090 zum glühen.
Einfach 200% Rendering bei 4K einstellen und mit 4 Leuten spielen, mit der Sniper in die Zombie Mengen zoomen, da geht alles in die Knie.. .)
 
.Sentinel. schrieb:
Das kommt daher, dass es noch keine Spiele gibt, die mit solchen Shaderkanonen entsprechend umgehen können.
Kommende Spiele mit entsprechender Auslegung werden den Abstand zu den alten Karten erhöhen...
Wenn die PS6 und Xbox XYZ auf dem Markt sind?
Ja, sicherlich wird es Spiele geben die das nutzen. Andersherum (wie oben schon jemand schrieb) gibt es leider zu häufig auch einfach offenbar Spiele die auf der Performance Seite fürchterlich programmiert sind (ich behaupte zum Teil sogar mit Absicht damit dann das Performancewunder DLSS eingebaut werden kann). Andere Perlen bieten dann manchmal wahnsinnig tolle Optik und überraschen mit niedrigen Anforderungen. Kommt halt immer darauf an.
 
CB könnte einen spontan Poll machen wer das Ding morgen kauft und ob FE oder Custom, wäre interessant.
 
  • Gefällt mir
Reaktionen: Aysem
Balikon schrieb:
Na klar kann man das. Hast Du auch gesehen, wo man bei 300 Watt bei einer 3090Ti landet, oder blendest Du das gekonnt aus?
Nicht viel niedriger als jetzt, wenn ich für 1965-1980 MHz 330-350 Watt brauche. Bei 300 Watt sind das vielleicht 50 MHz weniger.

Balikon schrieb:
Umso weniger Du die 3090Ti saufen lässt, desto mehr Kreise zieht die 4090 um sie und säuft dabei immer noch nicht mehr.
Ach, sag bloß? TSMCs 4N Sind ja bloß gut 2 Nodes Fortschritt gegenüber den 8 nm von Samsung. Alles andere wäre nach 2 Jahren auch wirklich schlecht.

Beim Performance/Transistor Verhältnis fällt Ada jedoch weit hinten runter. Ada hat 3x mehr Transistoren gegenüber Ampere, wir bekommen aber nicht 3x mehr Peformance, ja nicht mal doppelt so viel. Ada ist ein Transistormonster sondergleichen bei dem niemand außer Nvidia weiß wofür eigentlich derart viele Transistoren benötigt werden.

Beim Wechsel von Turing zu Ampere war die zusätzliche Performance/Transistor so ziemlich 1:1.
 
Looniversity schrieb:
Du hast mehr Hoffnung in die Zukunft der Konsolenports als ich. :)

Fairerweise muss man sagen, dass die meisten aktuellen Games noch "cross-gen" sind und damit primär auf die Möglichkeiten der PS4 und OneX ausgelegt sind. Die sind aus 2012. (Für solche Spiele so eine GPU wie die 4090 zu kaufen ist an sich eigentlich ein Witz, aber gut^^)

Spiele, die diese alten Zöpfe abschneiden und next-gen only sind, wird man da ganz neu bewerten müssen. Cyberpunk ist nur ein erster Vorgeschmack.
 
ShiftC schrieb:

Das war auch meine Beobachtung, kurz vor dem Ende der Sync-Range Tearing. V-Sync an und Tearing weg. Niedriglatenzmodus auf Ultra noch rein und V-Sync-Inputlag weg, der sonst bei 144/144 aufgetreten wäre. Ebenso bin ich auch der Meinung, dass natives G-Sync besser ist. Das mit Overdrive ist beim 27GP850-B kein Thema mehr, jedoch ist das Nvidia-Modul beim Thema LFC-Stutterjump besser. Testweise GTA5 und Transport Fever 2 auf 60 limitiert. Nvidia war geschmeidig, Adaptive Sync nicht so geschmeidig. Da stört dann schon der LFC-Übergang, der in der Nähe bei 55 ist. Limiter weg und es geht dann auch geschmeidig, wobei die FPS-Änderungen nicht abgehackt sind im GPU-Limit.
 
  • Gefällt mir
Reaktionen: Celinna und ShiftC
Mich würde mal dir Leistungsaufnahme bei 4K60 interessieren - müsste ja noch mal niedriger sein, als bei 4K144!
 
Ist schon beeindruckende Leistung, muss ich sagen. Sogar bei 300W auch noch. Zum Glück spiele ich nur bei FullHD, sonst würde mich die Karte zu sehr beeindrucken. Der Preis und trotz der Effizienz der Stromverbrauch schreckt auch ab.
Nun ja, da müssten die kleineren 4070/ 4060/ 50 hoffentlich ja auch Effie Wunder sein. Schauen wir mal.
 
Apocalypse schrieb:
Digital Foundry erkennt immer das, was der Sponsor gerade hören will.
Zum glück zeigen sie es ja auch wie schlecht dann die frame spikes werden wenn die CPU selbst in 4K anfängt zu limitieren ;)
 
Jo, kann man nicht meckern,

bei den Verbrauch Mimimis haben die Grünen einen kräftigen 🤛 reingegeben.
Die mimimis wurden abgefertigt.

AMD wird sich abermals die Zähne ausbeißen.
 
Zurück
Oben