News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

KurzGedacht schrieb:
Die Frage wieso die so "günstig" wird, ist die eigentlich interessante. Es glaubt doch niemand ernsthaft, dass Nvidia die Dinger aus reiner Nächstenliebe günstiger abgibt als unbedingt nötig.

Natürlich nicht. Meine Theorie. Die 5080 soll eine Massenkarte sein und die 5090 einfach nur ein Haloprodukt mit sehr geringer Verfügbarkeit.

Den Chip der 5090 können Sie auf AI Karten deutlich teurer verkaufen, als an Spieler. Daher möchte man möglichst viele GB102 Chips für professionelle Anwender haben und die Masse an Gamer bedient man mit den deutlich kleineren Karten, die für gewerbliche Anwender eh uninteressant sind.

Damit hat man ein Halo Produkt, was alle Benchmarks anführt und und ein paar Hardcorefans können sich drum kloppen. 95% des Marktes hat eine halbwegs passende Grafikkarte mit den kleineren Modelle. Auf der Strecke bleiben so nur ein paar 4090 Besitzer, die aufgrund der geringen Verfügbarkeit keine 4090 abbekommen, mangels Konkurrenz können die aber eh nicht abwandern und werden halt mit der RTX6000er Serie wieder versorgt.
 
Taxxor schrieb:
Für die Latenzveränderung ggü nativ ist eine höhere Framerate schlechter, weil FG ja eine feste Zeit benötigt um den zwischenframe zu generieren.

Daher ist der Nutzen bei höheren FPS ja auch immer kleiner und führt ganz oben dann sogar dazu, dass sich die FPS reduzieren können.
Es wird also an beiden Enden eng. Man braucht Basis Fps im Sweet Spot, damit FG ordentlich was bringt.

Vielleicht auch der Grund, wieso die 5080/5090 Balken in 4K mit DLSS Perf erstellt wurden. Nur in dem Bereich passen die Rahmenbedingungen für gutes MFG?
Und dafür bekommt man dann den Pixelbrei von DLSS Perf auf einer 1200-2400€ GPU. Geil.
 
Sierra1505 schrieb:
Interessante Preise und auch interessante AI-Entwicklungen. Grundsätzlich bin ich AI-Gestütztem Rendern im Spiel sehr wohl gesonnen. Wenn´s gefühlt Latenzfrei und ohne qualitative Einbußen integriert ist.

Man sieht an der RTX5090 sehr klar wo die Reise hingeht. Die Karte kann bei Bedarf nativ sehr Leistungsfähig sein. In den meisten Anwendungsfällen wird dies aber aufgrund des Feature-Sets nicht nötig sein. Die rund 3.300 AI TOPS vs. 1.300 zur RTX4090 zeigen warum die Karte sich u.a. (neben PCB-Anpassungen) ein schlankeres Kühldesign bei gleichzeitig höherer möglicher TDP erlauben kann.

Mit dem Line-Up Abwährts (RTX5080>5070>usw.) steigt eben der AI-Anteil was die Leistungsfähigkeit insgesamt anbelangt. Eine RTX5070Ti für schlappe 900€ wäre AI-Gestützt in der Theorie womöglich knapp Leistungsfähiger als eine RTX4090. Damit einhergehend wesentlich sparsamer.

Wenn sich das in Tests so oder so ähnlich widerspiegelt wäre das beachtlich. Wie gesagt, es muss ohne Qualitäts- und Latenz-Einbußen laufen aber da bin ich insgesamt guter Dinge.

Einzig an den Bezeichnungen Zweifel ich ein wenig. Ich wusste im Vorfeld schon nicht so 100%ig genau was Nvidia Reflex eigentlich am System tut und jetzt kommt auch noch fancy FPS WARP hinzu. Nur als ein marginales Beispiel.
Am Ende haste dann aber vermutlich in manchen Games extra Menü-Seiten die sich nur um AI-Geraffel drehen werden mit 20 Optionen inkl. wilde Namen die man recherchieren muss :daumen:

Naja, ich bin heiß auf Tests!
Ist dieser Kommentar von einer AI erstellt?

"Die rund 3.300 AI TOPS vs. 1.300 zur RTX4090 zeigen warum die Karte sich u.a. (neben PCB-Anpassungen) ein schlankeres Kühldesign bei gleichzeitig höherer möglicher TDP erlauben kann."

Bitte was?? Alles was an Wh in die GPU reingeht kommt als Abwärme wieder raus. Was haben die AI TOPS jetzt thermodynamisch mit dem Kühldesign und höherer TDP zu tuen? Das hat was mit Chipgröße und Chiptemperatur zu tuen, welcher Kühler bei welcher TDP benötigt wird.

Das Marketing wirkt scheinbar. Nachdem in jedem Satz 2 mal AI vorkommt, finden die Leute schon selbst die Wunderwirkungen der AI, ob imaginär oder real ist ja egal. Hauptsache AI.
 
  • Gefällt mir
Reaktionen: Convert, GRiZzLY1510, edenjung und 4 andere
Quidproquo77 schrieb:
Wenn man in der Praxis mit einer 5070 4090 Performance erreichen kann, bei halbem Verbrauch, dann ist der Weg dorthin recht irrelevant.
ja, aber nur in games welche dann auch dlss4 unterstützen und "performance" ist hier kaum vergleichbar - es sei denn es zählt nur welche fps zahl da steht...
denn der weg dahin ist insofern relevant und entscheidet was genau man da eigentlich hat.

ansonsten muss man sagen: herzlichen glückwunsch ein oper des nv-marketings geworden zu sein!
 
  • Gefällt mir
Reaktionen: Icke-ffm
Morpheus101 schrieb:
Die 2070 kommt nicht ansatzweise an eine 1080TI heran. Das kannst Du aber vergessen :)
Dann lese noch mal und schau dir Benchmarks an.
Ich hatte vor der 2070 super eine 1080ti hat dann aber innerhalb der Garantie den Geist aufgegeben, hab dann von Amazon das Geld erstattet bekommen, da die 1080ti nicht mehr lieferbar war.
 
Asgartal schrieb:
Für jemanden der sich immer nur die Königsklasse holt, sprich 4090 noch im Rechner hat, würde ich vermuten, dass er weniger oft aufrüstet, also öfter mal Generationen überspringt.
Ich habe von einer 1070 auf eine 2080 ti aufgerüstet. Die war dann über 4 Jahre im Rechner, bis ich die 4090 gekauft habe. Die 4090 werde ich auch noch weiter nutzen, die 5090 reißt mich leistungsmäßig ohne MFG nicht vom Hocker. Ich werde also abwarten, was das Topmodell der nächsten Gen liefert, da ich nur in 1440p zocke und vermutlich auch nicht höher gehe, könnte es sein, dass die 4090 noch sehr lange in meinem Rechner bleibt.
 
Shader schrieb:
Die Founders Edition scheint ein weiteres erstklassiges Hardwaredesign zu sein.
Solch ein Mini-PCB ist schon eine Ansage und das der Lüfter auf beiden Seiten durchblasen kann, nicht schlecht der Specht.
Aber preislich natürlich weit außerhalb meiner Interesse, war aber von vornerein klar das NVIDIA sich die RTX 5090 was kosten lassen wird. Die 4090 hats schon gezeigt, es wird genügend Käufer geben die sich das leisten.
RTX 6090 wird dann bei um die 3000€ sein, schätze ich mal. :D

Ich tippe eher auf 3.250 € oder mehr.

Wissen wir 2026 oder 2027
 
  • Gefällt mir
Reaktionen: Aimero
Neubauten schrieb:
muss man jetzt einfach mal abwarten, was DLSS4 dahingehend an Veränderungen bringt
Ich würde es begrüßen, aber bin nicht zu optimistisch. Wenn der Input schlichtweg nicht genug Information hat, kann auch KI das nicht hochauflösend scharf zaubern.
Detailverbesserungen kommen sicherlich, vielleicht weniger Flimmern und Wabern bei niedrigen Presets. An mehr glaube ich noch nicht.
 
Moritz Velten schrieb:
Ich tippe eher auf 3.250 € oder mehr.

Wissen wir 2026 oder 2027

Ich sage schon voraus, dass die 5090 im echten Retail locker mindestens die 3000€ knackt
 
Moritz Velten schrieb:
Ich tippe eher auf 3.250 € oder mehr.

Wissen wir 2026 oder 2027
Die Preisträumerei ist schon vorbei, das wurde bei der 5090 auch schon gesagt, jetzt ist auch mal gut
 
ThirdLife schrieb:
Also können sie es doch nicht so einfach wie du aber behauptet hast. Danke für die Bestätigung deiner Fehleinschätzung der Lage. 😂a


Nur weil es wirtschaftlich nicht sinnvoll ist, weil der Gewinn zu schmal ausfallen würde, ist es technisch nicht möglich? Interessant!


ThirdLife schrieb:
Klar, man muss natürlich in Gebetskleidung ein Jünger sein um zB CUDA oft zu nutzen oder einfach gerne das maximal Mögliche haben zu wollen. Hobbies und Freude sind nicht erlaubt. Demnach bist du wohl massivster Alkoholiker, um Genuss kanns ja nicht gehen.


CUDA ist dann so immer eines der letzten Argumente, wenn man sonst nichts hat, obwohl es Gaming-GPUs sind...

Gibt es eigentlich nur ein einziges Hobby, Grafikkarten? Woher weißt du, was ich sonst für Hobbys habe? Wenn du wüsstest, was ich für Hifi ausgebe...
Und warum muss das maximal Mögliche sich ausschließlich auf die Leistung beziehen?
Ich kaufe lieber das, was bestmöglich zu mir passt. Ich merke z.B. schon, wie die 200W meiner 6700XT den Raum aufheizen, im Sommer ist mir das schon zu viel. Eine Grafikkarte die fast dreimal so viel verbraucht würde mein Spieleerlebnis ganz erheblich verschlechtern. Deshalb gucke ich, was in meinem Preisbereich am besten zu dem passt, was ich mir wünsche. Aktuell wäre das wahrscheinlich eine 4070ti Super, aber da die mir deutlich zu teuer ist hoffe ich darauf, dass eine 9070XT ein gutes Update wird.


ThirdLife schrieb:
Und was genau lässt darauf schließen, dass die Karten nicht performen werden wie anhand der Shader bei der gleichen Node zu erwarten ist ?


Wo habe ich das behauptet?
Ich habe nur geschrieben, dass ich die zu erwartende Performance angesichts des exorbitanten Verbrauchs enttäuschend finde. Wieviele Shader da unter der Haube stecken ist mir absolut Latte, das hast du ins Spiel gebracht.


ThirdLife schrieb:
Ja umso trauriger, dass AMD gar keine Mehrleistung bringen dürfte. Klingt ziemlich abfallig.


Wie kommst du darauf, dass AMD keine Mehrleistung bringen dürfte? Die Rasterleistung einer 7900XT und deutlich mehr RT-Leistung für deutlich weniger Geld ist doch erheblich mehr Mehrleistung. Momentan wäre eine 7800XT für mich preislich das höchste der Gefühle, die 9070XT wird deutlich mehr Leistung in die Preisklasse bringen. Man wird sehen, wie das Duell unter 600€ ausgeht, wenn ich mir allerdings die VRAM-Anforderungen aktueller Spiele angucke sehe ich für die 5070 relativ schwarz. In Indiana Jones ist selbst die billige 6700XT dank des VRAM schon in 1080p doppelt so schnell wie die teure 3080, ich rüste garantiert auf keine Karte mit weniger als 16GB auf.


ThirdLife schrieb:
Ja. War auch scheissegal. Verfügbarkeit und Preis waren da relevant. Pandemie und so ? :daumen:


Puh, aber genau das war doch bei nVidia noch viel drastischer? Die waren schlechter verfügbar UND gleichzeitig war der Preisaufschlag höher. Eine 3070 jenseits der 1000€ lässt grüßen. Ich hab zum Release eine zum UVP bekommen, damit CP2077 mir RT durchgespielt, mir vielen hundert Euro Gewinn auf eine 6700XT sidegegradet und kann bis heute auf meinem 1080p-Monitor jedes Spiel mit maximalen Details (ohne RT, aber das geht mit der 3070 ja auch nicht, dank des VRAM) flüssig spielen. Klar, die 6700XT war sie schlechteste Karte des Line-Ups, weil gerade sie ineffizient war, aber gerade die 6800 war eigentlich konkurrenzlos die beste Karte auf dem Markt.


ThirdLife schrieb:
Stehen sie aktuell nicht über allem ? Sie sind nicht die Günstigsten, das ist auch das Einzige was du ihnen vorwerfen kannst. Das mit dem Beißreflex scheint also eher ein Problem auf deiner Seite zu sein. Die Fakten supporten mich dankbarerweise.


Die 4090 steht aktuell über allem. Darunter lässt sich je nach Preisklasse streiten, wer gerade besser ist. Unter der 4070ti Super steht AMD mMn über allem. Für mich als jemand, der nicht über 500-600€ ausgeben will, steht AMD mit Bauchschmerzen (weil RDNA3 insgesamt ein Rückschritt gegenüber RDNA2 war) vor nVidia.
Warum ein Haloprodukt bedeutet, dass gleich die ganze Generation besser ist, musst du mir noch erklären.

Man kann auch behaupten, dass McLaren oder so weit über Hyundai oder so steht, weil deren Karren deutlich schneller um den Nürburgring kommen. Trotzdem hat das für die meisten absolut keine Bedeutung.
 
  • Gefällt mir
Reaktionen: edenjung
Weiß jemand schon ob nvidia am Release Tag oder zeitnah Grafikkarten (einige) direkt über die homepage verkauft als 5080 oder 5090 wie das bei früheren Releases der Fall war?
 
cypeak schrieb:
denn der weg dahin ist insofern relevant und entscheidet was genau man da eigentlich hat.
Für mich wird sich das mit MFG an der Stelle entscheiden, ob ich davon "Seekrank" werde, wie von FG oder AMDs Lösung oder ob nicht.

So toll MFG auch klingt, am Ende entscheidet das Spielgefühl.
 
  • Gefällt mir
Reaktionen: Kuestennebel79, cypeak und ThirdLife
KurzGedacht schrieb:
Das ist quatsch.
Ergänzung ()

Sie haben immerhin Balken gezeigt mit über 200fps, wo anscheinend die 12 kein Problem darstellen. Aber ja ich traue dem ganzen auch nicht so ganz.
 
mTw|Marco schrieb:
Glaubst du wirklich die Karte produziert unter normalen Umständen 575W Abwärme? 🤣

Du musst neu beim Thema Grafikkarten sein.
Selbst wenn sie es nur manchmal schafft, bleibt es ein Problem. Was bringt mir das in einem SFF System, wenn es trotzdem noch sporadisch überhitzt.

Bzw wenn ich sie nur auf Sparflamme auslasten kann, wofür kaufe ich dann eine 5090?

In 4K mit PT und Co wird die sicher genug Auslastung schaffen, um zumindest 500W zu halten. Eine 4090 schafft ja bereits >400W konstant in diesem Fall. 30% mehr Shader und das dickere Speicherinterface fordern dann ihren Tribut.
(Siehe Signatur habe ich damit mittlerweile genug Erfahrung.)
 
tomtom1980 schrieb:
Weiß jemand schon ob nvidia am Release Tag oder zeitnah Grafikkarten (einige) direkt über die homepage verkauft als 5080 oder 5090 wie das bei früheren Releases der Fall war?
Bisher am Releasetag ab 15:00 Uhr. Du hast 1 Minute!
 
  • Gefällt mir
Reaktionen: tomtom1980
KurzGedacht schrieb:
Es glaubt doch niemand ernsthaft, dass Nvidia die Dinger aus reiner Nächstenliebe günstiger abgibt als unbedingt nötig.
Da wäre ich mir nicht so sicher, es glauben hier ja auch einige den Blödsinn von 5070 = 4090 Leistung. :daumen:
 
  • Gefällt mir
Reaktionen: KurzGedacht, Icke-ffm und Teropet
Die kleinste würde gerade so in mein budget passen aber 12GB Ram da werde ich mir wohl die neue von AMD holen was denke ich zukunftssicherer ist DLLS 4 hin oder her.
 
660€ für 12GB Ram lol. Na dann auf ihr Lemminge, ab in den Konsum.

PS: Fakeframes sind der neue heiße Scheiss in Benchmarks. Früher wäre es Betrug gewesen. Mehr Lag ung viel mehr Blut und Rauschen wird lustig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KurzGedacht, Icke-ffm und Windell
Na gut, so hart wie neulich von mir angekündigt werde ich den Bestellknopf für die 5080 wohl doch nicht drücken, wenn sie (wie zu erwarten) nicht mal an die 4090 rankommt. Dann setze ich lieber mal eine Generation aus und hole mir eine 6080 für in 2 Jahren wahrscheinlich 1.700€. :freak:
 
Zurück
Oben