Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

th3o schrieb:
Diese Zeit ist mit der 4090 gerade wieder gekommen wenn du nur willst. Du hast echt die Tests nicht gelesen.

@Stock sicherlich nicht. Das ist genau der gleiche Blödsinn wie beim Ryzen 7000. Man muss erst selbst handanlegen. Anstatt die Teile Out-of-the-box sparsam zu machen und für die "Freaks" einen "Power-Modus" zu implementieren, geht man den Weg leider anders herum.

Und die enorme Mehrleistung rechtfertigt eben nicht, dass die Karte mehr verbraucht als der Vorgänger. Wo kommen wir denn hin, wenn dies bei jeder Generation als Ausrede herhält.
 
  • Gefällt mir
Reaktionen: McTheRipper und Illithide
Linmoum schrieb:
AMD selbst teasert heute nichts. Es soll ein weiterer Artikel von Angstronomics kommen mit noch mehr Details zu RDNA3, deswegen schreibt Kepler auch "juicy" (der Herr hinter Angstronomics nennt sich SkyJuice).
…also kommt “etwas“. Aber danke für die Präzisierung. Damit hast Du wahrscheinlich recht.
 
  • Gefällt mir
Reaktionen: Gerithos
Looniversity schrieb:
Edit: Dlss mag seinen Platz haben, keine Frage. Am Ende des Tages bleibt ein fancy AI Tool aber Interpolation
Hast du genau das gleiche gesagt als Sony mit seinem Checkerboard Rendering in Horizon Zero Dawn ein zu 95% 4k ähnliches Bild produzieren konnte mit einer 4,5TF Maschine?
"Fancy tools" ist übrigens alles was Grafik-rendering, Shader compilation etc angeht, alles ist in irgendeiner Form eine Um- und Verwandlung um ein Bild zu erzeugen.
DLSS 1.0 wurde in der ersten Iteration belächelt, genauso wie Raytracing. Jetzt sind es treibende Kauf- und Verkaufsargumente nicht nur bei NVIDIA sondern durch die Bank weg.
DLSS 3.0 ist halt einfach nur die nächste Stufe und wie schon DLSS 1.0 vorher braucht es eine gewisse Phase bis es anläuft.
Und wenn man am Ende des Tages visuell ein fast perfektes Bild bekommt und höhere fps mit viel weniger Grundleistung der GPU dann ist das in meinem Notizheft ein fetter Win und ich wüsste nicht warum man da so gegen sein sollte.
Ich sehe darin eher einen tollen Schritt in Richtung dass Spielehersteller viel schöner aussehende Games machen können für die man jetzt endlich nicht mehr nur die Rohkraft aufwenden muss um sie in guten Details laufen zu lassen. Auf einmal kann jemand mit einer Mittelklassekarte visuelle Ergebnisse bekommen die vor DLSS nur mit den absoluten High End Karten der Generation möglich waren.
 
CrustiCroc schrieb:
DLSS ist eine fantastische Technologie, wir könnten dir jetzt zig Gegenbeispiele aufzeigen, aber das führt zu nichts.

ich muss aber eins nennen xD ... auch für @Looniversity

Cyberpunk, Porsche, Heckscheibe - Heizdraht.

ohne DLSS - eine unterbrochene Pixellinie weil Heckscheibe gewölbt
mit DLSS - schöner smoother Draht - also eine gebogene Linie entlang der Scheibenwölbung

Bei DLSS 3.0 will ich auch erst mal echte Aufnahmen in nativ sehen.
Aber bisher bin ich davon einfach nur begeistert und habe es immer aktiviert !

Immer mehr FPS bzw. in meinem Fall weniger Auslastung der Karte :)

Schade das man nicht DLSS 3.0 "Light" ... oder 2.5 für die Vorgänger zaubert :/
 
Ist schon bekannt, wann mit Tests von AIB Karten gerechnet werden kann?
 
zivilist schrieb:
Spaß beim zocken kommt bei gut gemachten Games auf, nicht das man die maximale Auflösung und Detailgrad einstellen und hohe fps erreicht. Wenn die Spiele schlecht sind bringt auch eine schnelle GPU nichts.
Absolut korrekt. Nur gilt andersrum auch das: Wenn die Spiele gut sind dann verbessert eine schnelle GPU das Spielerlebnis noch mehr.
Ergänzung ()

asm schrieb:
Ist schon bekannt, wann mit Tests von AIB Karten gerechnet werden kann?
Heute 15 Uhr.
 
  • Gefällt mir
Reaktionen: asm
Cr4y schrieb:
Theoretisch 100% mehr Rechenleistung übersetzen sich in ~60 bis 70% mehr praktischer Framerate - warum? Bremst die CPU selbst unter 4 und 5k? Kann die GPU sich selbst nicht auslasten? Oder ist das ein normales Verhältnis (habe den GPU Markt längere Zeit nicht mehr genau verfolgt)?
Absolut gesehen eine beeindruckende Leistung, aber auf der anderen Seite wirkt es wie eine Verschwendung von Silizium.

@DevPandi : du wirkst immer so kompetent - kannst du mir Licht ins Dunkel bringen? Ich wollte ungern 990 Kommentare nach einer Antwort durchforsten :)
Transistorcount ist wohl sogar x3. Dass die Architektur von nV bzgl. RZ wohl überhaupt nicht angefasst wurde, schreibt ja auch CB im Artikel. Der Fortschritt bei RZ scheint bei Ada ausschließlich durch den Wechsel von Samsung N8 auf TSMC N5 (4N) zu kommen. Scheint so, als würde da viel von den AI-Features weggefressen werden, was mich persönlich etwas stören würde.
 
JJJT schrieb:
Das solltest du nochmals nachrechnen.
So funktioniert Prozentrechnung nicht.

Ausgehend von 300W muss ich 50% von 300, also 150W aufbringen für rund 10% mehr Leistung. Absolut sind 150W von 450W natürlich nur 33,3% und nicht 50%. Insofern spare ich absolut keine 50% Energiekosten, etwas unglücklich formuliert zugegebenermaßen.
 
Ich bin trotzdem enttäuscht, aber war irgendwie zu erwarten. Es wurde mit der bis zu 2,5 fachen Leistung geworben, tatsächlich ist die Leistung nicht mal doppelt so schnell. Eher so 60-70%.

DLSS 3 ist imho ein Trick, da man dieses nur der 4XXX spendiert und so Überlegenheit suggeriert, die schnell
schmilzen würde, wenn man das auch auf der 3XXX Generation verfügbar macht. Für mich ne Mogelpackung.

Werde wohl bei AMD bleiben, da ich mir die 7900 XT deutlich günstiger erhoffe und wahrscheinlich max. 10-15% hinter der RTX 4090 liegen wird.
 
  • Gefällt mir
Reaktionen: Simonsworld, Recharging und Illithide
Rickmer schrieb:
Displayport 1.4 ist ja mal ein heftiger Fail... eine Karte, die bei 4K hohe Bildraten schafft und dann kann sie die nicht ans Display weiter geben. DP2.0 wäre für mich ein musthave gewesen bei so einer Karte.
Ja für dich. Für 99 % der Leute aber nicht, weil sie wissen das sie keine Nachteil dadurch haben.
 
Ragnarök88 schrieb:
Erwartungen mehr als übertroffen. Fast doppelte Leistung zu meiner 3080 Ti bei RT teils über 100% bei selbem Verbrauch. Preis gerechtfertigt. Wahnsinn. Ich bin baff...
Ich stimme bei allem zu, außer Preis gerechtfertigt. Wir sind wie Frosche im Kochtopf, bei dem das Wasser langsam immer heißer gedreht wird. Der Preis ist jenseits von gut und böse, wir sind nur daran bereits gewöhnt, weil es vorher auch schon so war.
 
  • Gefällt mir
Reaktionen: Illithide und Cordesh
Für WQHD reicht mir meine 6900xt locker für die nächsten 2 Jahre aus. Bin aber auch jetzt gespannt wie die Antwort von AMD aussehen wird.
 
  • Gefällt mir
Reaktionen: el_froggo, zig*zag und th3o
@Ewoodster
naja der Rohpreis liegt bei 1599 Dollar. Das sind 100 mehr als bei der 3090 zum Start.

Leider ist der aktuelle Wechselkurs ziemlich am Arsch für uns Euronasen :-/
 
  • Gefällt mir
Reaktionen: Gene Jackman, Sturmwind80 und zig*zag
Cr4y schrieb:
Theoretisch 100% mehr Rechenleistung übersetzen sich in ~60 bis 70% mehr praktischer Framerate - warum?

Ein Auto mit doppelt so viel PS oder KW kann ja auch nicht automatisch doppelt so schnell fahren, selbst wenn es nicht abgeriegelt wäre. Wie du selber sagst: "theoretisch" und das ist nunmal nicht praktisch.
Dürfte keine Spiele geben, die für ne 3090 maßgeschneidert wurden und jetzt vom Entwickler auf ne 4090 optimiert werden. Und dann kommt neben der Optimierung der Spiele natürlich noch der Treiber des GraKa Herstellers dazu, von denen gibt es ja auch immer wieder kleine Updates um bestimmte Spiele etwas zu optimieren.

Die theoretischen 100% wirst du nur unter Laborbedinungen erreichen, mit irgendeiner Anwendung die wirklich auf eben jene Karte ausgelegt ist und die Karte zu absolut 100% auslasten kann.

Ansonsten darfst du nicht vergessen, dass das alles Durchschnittswerte sind. In einer theoretischen Anwendung wäre eine 3090 ja auch nicht dauerhaft bei 100%, da gibts Szenen in denen die Karte mehr gefordert ist als in anderen. Entsprechend kann/braucht auch die 4090 nicht durchgängig doppelte Leistung zu liefern, was die Durchschnittswerte natürlich völlig verzerrt. Es wird sicherlich Szenen geben in denen die Karte doppelte FPS liefert, aber auch viele in denen das nicht klappt ( u.a. aus den o.g. Gründen) und damit ist der Durchschnitt austomatisch niedriger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sturmwind80
Für 1440p@144/165Hz oder 4k@60Hz Displays ist die 4090 absolut gar nichts und jeder sollte die Hände davon lassen. Für diese Displays reicht eine 3080 oder 3090 für die nächsten zwei Jahre noch absolut aus um Spiele in hohen Details und guter Framerate genießen zu können.
 
  • Gefällt mir
Reaktionen: Illithide
Angeblich sei Nvidia unglücklich dass nicht überall die DLSS3 Performance als Standard getestet wurde. Daraus könnte man jetzt vermuten das AMD mit der normalen Rasterperformance nicht weit weg oder besser ist.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, Maxminator und Illithide
Maxminator schrieb:
PS: wie kommen sich Leute jetzt vor, die vor 6 Monaten sich eine 3090Ti oder 3090 für über 2000€ gekauft haben :-)
Wie kommen sich Leute vor, die sich über einem Jahr eine 3080 für 1800 gekauft haben..
 
  • Gefällt mir
Reaktionen: Illithide
th3o schrieb:
Für 1440p@144/165Hz oder 4k@60Hz Displays ist die 4090 absolut gar nichts und jeder sollte die Hände davon lassen. Für diese Displays reicht eine 3080 oder 3090 für die nächsten zwei Jahre noch absolut aus.
Ich brauche die Karte für 3440x1440@120Hz auch nicht unbedingt, aber ich habe Lust drauf und hatte noch nie ein Top-Model und da ich das Geld gerade über habe, warum nicht.

Ich gehe davon aus, dass ich die Karte mindestens 3 Jahre nutzen kann und keine großen Einschränkungen in der Zeit bei den Spielen haben werde.

Außerdem spare ich Strom, wenn ich die Karte auf 300 Watt limitiere. :daumen:
 
  • Gefällt mir
Reaktionen: Melu76, ThirdLife und th3o
Erinnert mich ein bisschen an den Release der 8800 GTX :smokin:

1665554728037.png
 
  • Gefällt mir
Reaktionen: Youngtimer und Maxminator
Zurück
Oben