Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Ich würde mir wünschen die Hersteller würden ihre Hardware wieder mehr im "sweetspot" betreiben. Hier auch wieder deutlich mehr Verbrauch für minimal mehr Leistung, genauso wie bei Zen4.
Lasst doch die Kunden, selbst ihre CPUs, GPUs übertakten und den Verbrauch in die höhe schnellen lassen, dafür halt dann beim Großteil der Kunden, die einfach nur die Produkte kaufen, einbauen und Zocken dann nicht unnötig Energie verballern.

Das hier bei der neuen Nvidia Generation nur DP1.4 vorhanden ist und kein DP2.0 ist halt bei dem Preis fast schon eine Frechheit.
 
  • Gefällt mir
Reaktionen: McTheRipper
zeaK schrieb:
AMD könnte ja wenigstens etwas teasern - aber komplette Stille verheißt meist eben nichts Gutes. So sehr ich AMD wünsche dass sie auf Augenhöhe konkurrieren können, denke ich dass es dafür noch eine Generation zu früh ist.
Was ja nicht schlimm ist, gibt sicherlich wesentlich mehr Kunden für Karten unter der 4090.
Da soll heute noch was kommen.
https://mobile.twitter.com/Kepler_L2/status/1579873393599709184

Die erstmal etwas sonderbar scheinende Wahl des Betriebspunktes der 4090 durch nV sollte doch schon mal zu denken geben... 😄
 
Die Leistung ist einfach der Hammer.
Meine Karte würde allerdings trotzdem die 4080 (16 GB) sein, da ich WHQH-Spieler bin.

Nichtsdestotrotz sind dann die angepeilten 1500 € einfach zu viel des Guten.
Wäre mein Hausbau nicht gerade in den Endzügen, dann würde allerdings wahrscheinlich direkt mein Weihnachtsgeld für die 4080 weg gehen ^.^
 
1665553730865.png

Fast shipping Händler :D
 
  • Gefällt mir
Reaktionen: RaptorTP und Maxminator
zeaK schrieb:
AMD könnte ja wenigstens etwas teasern
Machen Sie doch heute laut leaks, davon abgesehen würde sich alle Welt dann wieder beschweren das nix handfeste kommt. Ich wiederhole mich: bei rdna 2 war es exakt genauso und der reveal war dann eine sehr positive Überraschung. Warten wir doch heute einfach mal ab
 
  • Gefällt mir
Reaktionen: Gaspedal, Stellarix und Illithide
für mich steht fest: neue Graka erst wenn GTA6 Termin steht!
Mit anderen Worten: kaufe die Leistung immer wenn du es wirklich brauchst. Und was läuft bitte auf einer 3090FE bei 3440x1440 nicht flüssig? Sogar RDR2 läuft knapp über 60FPS - das ist meine Ziel-FPS-Rate obwohl ich ein 100Hz G-Sync Monitor habe!

5090FE + GTA6 irgendwann Ende 2024?
 
  • Gefällt mir
Reaktionen: edenjung
Croftout90 schrieb:
Dafür reicht doch ne 3090 locker. Selbst die 3080 hat kaum Probleme in den Gefilden.
 
  • Gefällt mir
Reaktionen: Illithide
th3o schrieb:
Dafür 'nur' 100$ Aufpreis gegenüber der 3090 damals bei der gestiegenen Performance zeigt mir eher dass NVIDIA hier stark unter Druck steht aufgrund der gegebenen weltwirtschaftlichen Lage.
Wir sollten halt auch nicht vergessen dass wir hier 2000€ für die Karte zahlen weil der Euro so schwach ist.
Das zeigt aber auch wieviel Nvidia zuvor an den Grafikkarten verdient hat, sie machen trotzdem noch Gewinn mit der neuen Generation. Der schwache Euro kommt hier in Europa natürlich noch hinzu.
 
Looniversity schrieb:
Gerne doch:

In dem gleichen Trailer sind auch an anderer Stelle Körperteile zu sehen die es gar nicht gibt (Teile des Arms vor dem blauen Himmel, z.B.). Er sagt ein bisschen später, dass das in Bewegung "smooth" aussehe und weniger problematisch sei. Aber das soll "teils besser als nativ" und knapp 2000 Euro wert sein - im Ernst??

Edit: Dlss mag seinen Platz haben, keine Frage. Am Ende des Tages bleibt ein fancy AI Tool aber Interpolation, und da sollte man nicht einfach die NVidia-Aussagen nachplappern. Früher wurden Grafikkarten abgewertet, wenn der anisotropische Filter etwas unscharf war, weil das nichts anderes als Betrug ist, bei dem Qualität gegen Leistung getauscht wird. Heute nennt man das DLSS und sieht es als Feature?
Totaler Quatsch was du da von dir gibst. Du suchst dir explizit Beispiele, weil "Ich will aber Recht haben"...

DLSS ist eine fantastische Technologie, wir könnten dir jetzt zig Gegenbeispiele aufzeigen, aber das führt zu nichts.

Die Fachpresse lobt DLSS ebenso, gibt übrigens genügend Artikel in denen auch etwaige Nachteile benannt werden.
 
  • Gefällt mir
Reaktionen: Ragnarök88
BetaHydri schrieb:
Bei so viel weniger Leistung, wenn man weniger Geld zur Verfügung hat wartet man nicht besser auf die kleineren 4XXX?
Ergänzung ()


Sehe ich genauso, wenn das Lesen schwerfällt, hier kann man dazu hören. Mitt etwas TDP Reduzierung kommt man dem Optimum nahe.
Wenn das lesen nicht schwerfiele, würde man mitbekommen, dass 450Watt Powertarget und real anliegend unter Last immer noch deutlich > 400 Watt der vorläufige Höhepunkt exorbitant steigender Leistungsaufnahme ist. Da hilft auch das mimimi, dass man sich Lastkurven im Netz raussuchen und händisch an der Karte rumfrickeln kann, nicht viel. Das konnte man nämlich auch schon bei der 3090Ti & Co.
 
  • Gefällt mir
Reaktionen: McTheRipper
Aktuell läuft mein System (Ryzen 5600X und 3080FE) mit einem Corsair RM750x Netzteil. Eigentlich müsste das Netzteil auch für die 4090 ausreichend sein?
 
Max007 schrieb:
10% mehr Leistung für 50% mehr Verbrauch. Oder anders gesagt: Mit 300 Watt spart man 50% Energiekosten und verliert magere 10%

Das solltest du nochmals nachrechnen.
So funktioniert Prozentrechnung nicht.
 
  • Gefällt mir
Reaktionen: McTheRipper, Master_Chief_87 und Illithide
Youngtimer schrieb:
@RogueSix Der Sprung war auch super, Pascal war meine erste und bisher einzige Generation wo ich innerhalb noch mal gewechselt habe. Von 1060 auf 1080 Ti.

Aber bei diesen Karten wurden auch alle Transistoren für die Raster-Leistung eingesetzt. Jetzt ist das völlig anders. Die Ada GPU besteht gefühlt zur Hälfte aus Tensor-Cores die für Künstliche Intelligenz und Deep Learning zuständig sind. Nutzt man diese, sehen vorherige Karten kein Land mehr.

Anhang anzeigen 1269500

Der bessere Vergleich von 4090 ist wie ich finde zur 3080TI....100% mehr Leistung und nur 10 % mehr verbrauch. Das nenne ich effizient.

Die 3090 bzw. TI waren sowieso Preis Leistung Technisch eine Katastrophe.

Man konnte diesmal sehr gut sehen wie schlecht diese ganzen Gerüchte waren und Nvidia ein tolles Produkt auf den Markt gebracht hat. Nur leider zu einem schlechten Zeitpunkt bedenkt man den Preis.

Ich hoffe AMD kann was ähnliches im November bieten ...
 
Pixelkiller schrieb:
Das zeigt aber auch wieviel Nvidia zuvor an den Grafikkarten verdient hat, sie machen trotzdem noch Gewinn mit der neuen Generation. Der schwache Euro kommt hier in Europa natürlich noch hinzu.
Den Geschäftszahlen nach machen sie wohl >60% Marge… 😁
 
sehr beeindruckend. Man darf auf die Reaktion gespannt sein.
 
Illithide schrieb:
Da soll heute noch was kommen.
https://mobile.twitter.com/Kepler_L2/status/1579873393599709184

Die erstmal etwas sonderbar scheinende Wahl des Betriebspunktes der 4090 durch nV sollte doch schon mal zu denken geben... 😄
AMD selbst teasert heute nichts. Es soll ein weiterer Artikel von Angstronomics kommen mit noch mehr Details zu RDNA3, deswegen schreibt Kepler auch "juicy" (der Herr hinter Angstronomics nennt sich SkyJuice).
 
probemaster schrieb:
Aktuell läuft mein System (Ryzen 5600X und 3080FE) mit einem Corsair RM750x Netzteil. Eigentlich müsste das Netzteil auch für die 4090 ausreichend sein?
Könnte reichen aber nur wenn du nicht OC betreibst und eher das Powertarget auf 80-90% runter drückst. Die Angaben sind aber ohne Gewähr.
 
Mir ist rückblickend völlig schleierhaft weshalb es um die TDP so ein enormes Buhai gab. Und dann die Horror Vision man braucht jetzt unbedingt ein 1Kw Netzteil usw usw.

Wäre ich bereit mir eine 4090 zu holen, würde ich in jedem Fall die TDP auf 300W begrenzen. 7% weniger Leistung in Spielen sind ja witzhaft, das steht ja in überhaupt gar keinem Verhältnis zur Effizienzsteigerung.
 
  • Gefällt mir
Reaktionen: AceVentur4, Vitec und Sturmwind80
CrustiCroc schrieb:
Totaler Quatsch was du da von dir gibst. Du suchst dir explizit Beispiele, weil "Ich will aber Recht haben"...

DLSS ist eine fantastische Technologie, wir könnten dir jetzt zig Gegenbeispiele aufzeigen, aber das führt zu nichts.

Die Fachpresse lobt DLSS ebenso, gibt übrigens genügend Artikel in denen auch etwaige Nachteile benannt werden.
Also ich hatte auch noch keinen Spaß mit DLSS, liegt halt dran welche Games man spielt und welche RTX man im System hat...
 
  • Gefällt mir
Reaktionen: Illithide
Theoretisch 100% mehr Rechenleistung übersetzen sich in ~60 bis 70% mehr praktischer Framerate - warum? Bremst die CPU selbst unter 4 und 5k? Kann die GPU sich selbst nicht auslasten? Oder ist das ein normales Verhältnis (habe den GPU Markt längere Zeit nicht mehr genau verfolgt)?
Absolut gesehen eine beeindruckende Leistung, aber auf der anderen Seite wirkt es wie eine Verschwendung von Silizium.

@DevPandi : du wirkst immer so kompetent - kannst du mir Licht ins Dunkel bringen? Ich wollte ungern 990 Kommentare nach einer Antwort durchforsten :)
 
  • Gefällt mir
Reaktionen: Illithide
Zurück
Oben