News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

Ich bin seit Jahren vom Nvidia Lineup enttäuscht.

Die Karten sind zu teuer und/oder haben zu wenig VRAM.
 
  • Gefällt mir
Reaktionen: zhompster, NOX84, SweetOhm und 3 andere
Cool, dass ihr die Umfrage noch einmal so prominent einbindet.
Erfüllt die GeForce RTX 5090 deine Erwartungen?
[x] Die RTX 5090 erfüllt meine Erwartungen nicht
Wie bewertest du die Nvidia GeForce RTX 5090 Founders Edition in Schulnoten?
@Vitche Bei dieser Frage finde ich es wenig sinnvoll, das Gesamtpaket aus Kühler und GPU zu bewerten. Aber gut, ich halte mich dran.
Der Kühler macht seinen Job gut, aber eben auch genau nur seinen Job. Er ist sehr nischig ausgelegt, nämlich für Gehäuse, bei denen die beiden Lüfter dann direkt nach draußen pusten können, wie die DAN-Case-Reihe. Ansonsten stellt er keine gute Wahl dar.
GPU selbst ist halt schwach; insgesamt daher ausreichend minus.

Wie bewertest du die Asus GeForce RTX 5090 ROG Astral in Schulnoten?
Die Karte hat schlicht ihr Thema klar verfehlt. Ein solches Monster darf nicht so schlecht abschneiden. Ich habe es bereits ganz einfach formuliert, zum anvisierten Preis müssten da vier A12x25er Chromax drinnen stecken bei ähnlichem Kühlkonzept. Da sie immerhin keine Vollkatastrophe (sie stürzt nicht ab oder so) ist, gibt es noch einen Gnadennotenpunkt, dadurch landet sie bei mangelhaft minus.
Wie stehst du zur Leistungsaufnahme der GeForce RTX 5090?
[x] Die Leistungsaufnahme selbst ist zweitrangig, wichtiger ist die Effizienz. Wenn es hier passt, kann man über alles reden.
Eigentlich bin ich Fan des 250W-Limits. Eigentlich. Denn es wird eine Zeit der Chiplet-GPUs kommen, mit denen das RecticleLimit gesprengt wird und dann wird statt MultiGraka-Systemen (wie früher mit SLI) eben mehrere nebeneinander liegen. Beim GB200 sieht man davon einen Vorgeschmack im Datacenterbereich. Ergo: 250W sollte trotzdem das Standard-Setting einer HighEnd-Graka sein, nur ein OC-Switch sollte überhaupt weitere Phasen einschalten und höhere Wattklassen ermöglichen.
Wären deine Gehäusebelüftung und dein Netzteil bereit für eine 600-Watt-GPU?
Enthaltung, bin in einer Übergangszeit. Mein letztes Gehäuse wäre für eine 600W-Graka (600W-GPU und 600W-Graka sind nicht identisch!!!) bereit gewesen --- mit AIO-Wakü halt; mein letztes Netzteil nicht.

Wirst du dir eine GeForce RTX 5090 kaufen?
[x] Nein, jetzt definitiv nicht mehr – bis vor den Tests hatte ich aber noch mit dem Gedanken gespielt oder einen Kauf sogar fest eingeplant.
Sie ist in der Praxis eine harte Enttäuschung geworden, noch schlechter als erwartet. Einen Rückschritt bei Leistungsaufnahmen im Idle, in der Videowiedergabe und in sonstigen Teillastszenarien hätte es auf keinen Fall geben dürfen, denn es wurde immerhin von GDDR6X auf GDDR7 gewechselt.
Wie blickst du nach dem Test der RTX 5090 auf die kleineren RTX-50-GPUs?
Hier fehlt eine Antwortmöglichkeit zwischen:
  • Mit großer Vorfreude, bei GeForce RTX 5080, RTX 5070 Ti, RTX 5070 und später der 60er-Serie wird es bestimmt größere Sprünge geben.
  • Na ja, ich gehe nicht davon aus, dass es bei den kleineren RTX-50-Grafikkarten hinsichtlich FPS-Zugewinn und Effizienz besser wird. Das wird ein vergleichbares Bild.
Denn ich habe keine / eine geringe Vorfreude, gehe aber davon aus, dass es bei den kleineren Chips, bei den kleineren GPUs und den kleineren Grakas besser aussehen wird. Also die 5070 wohl nicht, die wird wohl ziemlich krass werksübertaktet sein, aber die 5070 Ti und 5080 könnten gut ausfallen.

Welchen dieser Aussagen stimmst du zu?
[x] Einzelne Custom-Designs der GeForce RTX 5090 werden gemäß UVP über 3.000 Euro kosten.
Die Astral zeigt ja schon, dass schlechte Ergebnisse dort keinen Einhalt liefern.
[x] Die GeForce RTX 5090 wird zum Marktstart vergriffen sein; Scalper werden absurde Preise verlangen.
Nvidia sind ja keine Idioten, die werden es nicht dazu kommen lassen, dass die Karten gut verfügbar sein werden. Ansonsten würde jedem klar sein, dass die 5090 kaum jemand haben möchte.
[] Die GeForce RTX 5090 wird die RTX-50-Grafikkarte mit dem größten Vorsprung zum direkten Vorgänger sein.
Das wäre eine Katastrophe. Andere Karten werden sicherlich mehr an Effizienz hinzugewinnen.
[x] Es wird eine GeForce RTX 5090 Ti oder Super kommen.
Ja, denn die Situation ist ja eine deutlich andere als bei der 4090. Mehr freigeschalteter Cache würde für höhere Effizienz sorgen, das wäre eine gangbare Richtung.
[] Die GeForce RTX 5080 wird im UHD-Performancerating im Schnitt über 15 Prozent vor der RTX 4080 liegen.
Der Bandbreitengewinn der 5090 schlug nicht drastisch durch, daher wird es bei der 5080 wohl auch nicht dazu kommen.
[x] Es wird eine Variante der GeForce RTX 5080 mit 24 GB GDDR7 kommen.
Ja, die dafür passenden GDDR7-DIEs liegen bereit und werden in Zukunft mehr produziert werden. Außerdem sorgt das dafür, dass...
[] Nvidia wird eine Grafikkarte nachliefern, die bei der Leistung die Lücke zwischen der RTX 5080 und der RTX 5090 schließt.
...diese Lücke nicht geschlossen werden muss.
[x] Die GeForce RTX 5060 wird es (auch) mit 12 GB GDDR7 geben.
Vermutlich. Einfach, weil irgendwann die Niedrigkapazitäts-DIEs nicht mehr so viel weniger kosten werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lump87 und SweetOhm
PS828 schrieb:
Ich glaube die 600W verbrauch sind das kleinste Problem was die 5090 hat. Wenn der allgemeine Leistungssprung viel größer gewesen wäre wäre das alles egal gewesen. Aber das hier ist Stillstand. Ein sehr teurer, schlecht verfügbarer Stillstand :D
Ich find es spannend, dass es eigentlich nur darum geht irgendein Produkt entweder hochzuloben oder abzuwatschen, dazwischen scheint es ja nix mehr zu geben. Jetzt sind 30% mehr Leistung schon "Stillstand" und die Verfügbarkeit kennt man auch 4 Tage vor dem Launch schon, obwohl in diesem Preisbereich absolut nur wenige zugreifen werden. Einfach lächerlich.:lol: Der Leistungssprung ist doch genau im erwartbaren Rahmen.
GOOFY71 schrieb:
Wartenden potenziellen Käufern wurde sehr viel Wasser in den Wein gekippt, die 5090 ist eher eine 4090Ti, aber das hatte ich schon einmal angedeutet.
Eine 4090 Ti wäre vielleicht 5% schneller mit dem Vollausbau geworden. ;)
Dadurch ist auch in Zweifel zu ziehen, dass sich nichts mehr der Architektur getan hat, denn einfach nur 27% mehr FLOPs draufzupacken führt in den seltensten Fällen zu 30% mehr Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, N00bn00b, Fallout667 und 7 andere
Ich bin eigentlich garnicht enttäuscht. So kann ich meine 4090 behalten und spare eine Menge Geld.
 
  • Gefällt mir
Reaktionen: mastermc51, nargorn, boypac007 und 8 andere
PS828 schrieb:
Ich glaube die 600W verbrauch sind das kleinste Problem was die 5090 hat. Wenn der allgemeine Leistungssprung viel größer gewesen wäre wäre das alles egal gewesen. Aber das hier ist Stillstand. Ein sehr teurer, schlecht verfügbarer Stillstand :D
Wenn die Komponenten anfangen runterzutakten, weil selbst ein Fractal Torrent seine Probleme mit dem Abführen der 600W hat, ist es vermutlich nicht mehr so egal. ;)
Und die meisten Leute haben ja nicht mal so ein Gehäuse, sondern eher eins mit bei Weitem niedrigerem Airflow.

Von daher finde ich, dass man irgendwann eben nicht mehr über jede beliebige Leistungsaufnahme „reden kann“, selbst wenn die Performance und Effizienz entsprechend gestiegen sind.
 
  • Gefällt mir
Reaktionen: mastermc51, aid0nex, zhompster und 4 andere
Enttäuschend da sich nix bei effizient ist Architektur getan hat. Nur dank extra Shadern und höherer Leistungsaufnahme gibt's einen kleinen Leistungssprung. Runterskaliert auf die kleineren Karten lässt das wenig gutes erwarten.
 
Ich bin so happy, dass die Leute scheinbar kein Bock darauf haben. Der alte Gedanke der besagt Rohleistung ist alles scheint zu tief in den Köpfen der Menschen verwurzelt zu sein.
Ich bin unfassbar hyped was die AI-Features angeht. Ich meine Sorry aber Wukong 4k maxed out mit Pathtracing bei über 200 FPS und das ohne sichtbaren Qualitätsverlust ist schon eine ansage!
 
  • Gefällt mir
Reaktionen: minalion, homunkulus, NerdmitHerz und 2 andere
Wer 2.329€ für eine Grafikkarte ausgibt, der hat wohl auch das Notwendige drumherum. (Gehäuselüfter, Netzteile, etc.) Preislich bewegen wir uns hier schon im Bereich Hobby. Und Hobbys kosten. Andere kaufen sich dafür ein gebrauchtes Auto...

Zielgruppe sind wohl Gamer, die das Beste haben wollen und weniger P/L-Fetischisten. Und die Karte scheint aktuell das Beste von Nvidia zu sein. Mehr kann man dazu einfach nicht sagen.
 
  • Gefällt mir
Reaktionen: minalion, homunkulus, Spit187 und eine weitere Person
Quidproquo77 schrieb:
. Jetzt sind 30% mehr Leistung schon "Stillstand"
Mal sehen wie wir die 9070 dann definieren mit dem Maßstab.
Aus dem AMD reddit kam ja schon das selbstironische Meme "RDNA 4: Yesterdays performance, tomorrow" für den "2022 Refresh".

Wer stagniert denn gerade nicht?

Daher sind DLSS4 und FSR4 das Fundament der next gen. Es ist so offensichtlich, und das sehen die Augen derer, die hier rumjammern auch, sobald ihre Enttaüschungs- und Wut-Tränen getrocknet sind ^^
 
  • Gefällt mir
Reaktionen: homunkulus, Quidproquo77 und MalWiederIch
Finde interessant das die meisten Leute, die eine 5090 kaufen wollen oder wollten von einer 4090 kommen. Keine Effizienzsteigerung, nur wenig Mehrleistung und 32GB VRAM, die für Gaming wenig relevant sind, macht die 4090 eigentlich weiterhin zu einer der besten Karten.

Glaube eine Generation, die man gut überspringen kann, wenn man eine effiziente 4000er Karte hat.
 
  • Gefällt mir
Reaktionen: GrooderWanderer, mastermc51, N00bn00b und 10 andere
Quidproquo77 schrieb:
Jetzt sind 30% mehr Leistung schon "Stillstand"
Naja, wenn man sich Leistung 1:1 mit Leistungsaufnahme erkauft, dann sehe ich das Wort "Stillstand" schon angebracht.
 
  • Gefällt mir
Reaktionen: mastermc51, Obvision, Paddinski und 18 andere
Ich warte nun definitiv auf die 9070 und die 5070.
Versprech mir von denen fluessige FPS zu nem moderateren Verbrauch.
600W waeren mir die Leistung der 5090 rein zum Zocken nicht wert.
 
Tja, im Oktober wollte ich mir einen neuen PC mit 4090 bauen, da hieß es warte mal lieber ab wenn die 50x0 raus kommen.
Damals hätte ich die 4090 noch für unter 2000 Euro bekommen.
Aber das konnte ja keiner wissen.

Mittlerweile will ich noch nicht mal mehr ne Nvidia, sondern schaue mich bei AMD um, ne RX 7900 XTX wird mir sicher auch reichen.

Ich könnte mir ne 5090 leisten, das Geld habe ich. Aber die Karte ist einfach nur schlecht finde ich.
Alleine schon die extreme Abwärme die einfach in Richtung CPU geblasen wird...
Und wieder mal nur Mehrleistung über Fake-Frames und höheren Stromverbrauch.
 
  • Gefällt mir
Reaktionen: SweetOhm, homunkulus, Vincent Hanna und eine weitere Person
Die 4090 war zwar zu teuer für meinen Geschmack, aber auch irgendwie faszinierend und ich konnte schon gut nachvollziehen, warum man sich als Enthusiast so ein Ding in den Rechner stecken will. Die 5090 hinterlässt dagegen ein eher durchwachsenes Bild, und allein die 600W-Brechstange finde ich jetzt eher fragwürdig. Noch nicht mal so sehr aus Umweltgründen - da ist's zwar auch nicht toll, aber ich glaube, am Ende sind Gamer-Grafikkarten nicht der Grund, warum der Planet abfackelt - aber der CB-Test zeigt ja schon, dass Abwärme dann plötzlich wieder ein großes Problem ist. Insgesamt entsteht schon ein bisschen das Gefühl von Stillstand und es bleibt nur zu hoffen, dass sowohl AMD als auch NVidia mit der nächsten Generation dann wieder stärker vorlegen.
 
  • Gefällt mir
Reaktionen: R3DN4X, SweetOhm, homunkulus und eine weitere Person
Bin überhaupt nicht enttäuscht eher froh, dass ich gutes Gewissens meine 4090 behalten kann. War von der 3090 enttäuscht weil die zu laut und heiß war. War unerträglich. Die 4090 läuft leise und kühl. Keine Lust jetzt wieder heiß und laut zu haben für ein paar Prozent mehr Leistung.
 
  • Gefällt mir
Reaktionen: homunkulus
Ich wollte mir eine 5090 kaufen, aber der Test hat mich quasi geerdet, nein danke, ich bleibe bei meiner 4090, Nvidia hat schwer enttäuscht.

Netzteil wäre in Ordnung, Kühlung wäre noch OK aber für einen Freund der leisen Töne nicht hinnehmbar, Preis ist sowieso lächerlich.
 
  • Gefällt mir
Reaktionen: aid0nex, R3DN4X, homunkulus und 4 andere
Zum Preis:

Na ja was soll man sagen das Leben wird teurer. Wenn keine echte Konkurrenz da ist die Nvidia halbwegs die Preise vorgeben kann passiert es eben, dass die Karten noch teurer werden.

Zur Leistung:

Für mich ist alles ein Upgrade da 2070 im Einsatz.

Zur Leistungsaufnahme:

Sehe ich als kein Problem an. Ich habe PV mit 10 kW Speicher und ein dynamischer Stromtarif.
 
Ayo34 schrieb:
Finde interessant das die meisten Leute, die eine 5090 kaufen wollen oder wollten von einer 4090 kommen.
Scheint in der Tat so, und meine Vermutung ist, ich wiederhole es:
Weil die 4090 aufgrund der Situation (die 5080 wird sie nicht "ersetzen" im GPU placement) eben nicht nur 1000 Euro im Verrkauf bringt, sondern gerade um 1500 und bis zu 1800 für die FE, die MSI Suprim und ASUS Strix.

Da werden viele 1xxx Euro draufpacken und gehen direkt auf die 5090.

Zudem gibt es die Kleinstgruppe der "Jede Gen die Top GPU" Enthusiasten in der ComputerBase hier, die von jedes Mal von der 980TI auf die 1080Ti und dann auf die 2080Ti und dann auf die 3090 gingen; und von der 3090 auf die 4090 und nun auf die 5090.
Wir Getörten kaufen dann auch die 6090 wieder, falls die mal kommt. Oder big RNDA5? Man darf ja noch von AMDs comeback im High End träumen.


Ayo34 schrieb:
Glaube eine Generation, die man gut überspringen kann, wenn man eine effiziente 4000er Karte hat.
Das sowieso 100%. Mit der 4090 "braucht" man eh keine 5090. Rational ^^
 
  • Gefällt mir
Reaktionen: homunkulus
Laphonso schrieb:
Daher sind DLSS4 und FSR4 das Fundament der next gen. Es ist so offensichtlich, und das sehen die Augen derer, die hier rumjammern auch, sobald ihre Enttaüschungs- und Wut-Tränen getrocknet sind ^^
Also DLSS4 bringt zwar nicht unbedingt mehr Bildruhe und Glättung, dafür aber deutlich mehr Grafikdetails, was ich in den bisherigen Tests und eigenen Versuchen rausgefunden habe. Das nehme ich gerne mit.
Was man auch sehen muss: Die 5090 ist nicht der Vollausbau. Wenn Nvidia also wollte könnte man nochmal bis zu 10% oben drauf legen, die wahrscheinlich besser skalieren als auf der 4090er.
Nvidia hätte bei der Generation den Vollausbau liefern müssen und dafür vielleicht auf 525Watt runtergehen sollen.
 
  • Gefällt mir
Reaktionen: Laphonso
Sind 125W mehr als bei meiner 4090, sprich 3,7 Cent pro Stunde mehr in den wenigen Stunden die man als berufstätiger Mensch zum Zocken kommt - wen soll das bei 2.349€ interessieren? :confused_alt:

Das Wort „Brechstange“ hört man doch in diesem Zusammenhang sonst nur von Kindern für die bereits Bruchteile eines Cents bereits als „Brechstange“ gelten, seltsam dass CB das nun auch verwendet :p

Sp4wNickle schrieb:
@Admins: Baut doch gerne eine Frage zur Preissensibilität ein. Wie sehr stört uns der Preis und was darf eine High End Enthusiasten Karte maximal kosten
Solange die verkauft wird und die Konkurrent nichts auf die Reihe bekommt gibt es theoretisch kein Limit … da muss man doch hier keine Umfrage starten in der am liebsten viele 50€ für eine 5090 bezahlen möchten :p

IBMlover schrieb:
Mein System hat weder die Kapazität, die Verlustleistung abzuführen, noch ein ausreichend großes Netzteil für die 5090 - und das, obwohl ich im Moment eine 4090 ohne Probleme in meinem System betreibe. Bevor ich meinen kompletten PC für eine neue Grafikkarte umbauen muss, lass ich es lieber sein.
Deshalb näht man nicht alles auf die Kante ;) Wobei Netzteil und Kühlung doch läppische Beträge im Vergleich sind, das ist garantiert kein Hindernis sondern idR eher eine Ausrede.

Quidproquo77 schrieb:
Ich find es spannend, dass es eigentlich nur darum geht irgendein Produkt entweder hochzuloben oder abzuwatschen, dazwischen scheint es ja nix mehr zu geben. Jetzt sind 30% mehr Leistung schon "Stillstand"
Dann lasst uns ja nicht über CPUs sprechen wo der Abstand zur Vorgeneration und Konkurrenz gerade einmal 14% beträgt - was nennen diese Leute dann das? …

PS. die Moderation ist ja auch wieder spannend:

IMG_0250.jpeg

Bin zwar von der 5090 auch enttäuscht - aber kommend von einer 6900XT enttäuscht hier AMD in dem Fall selbstverständlich mehr :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667, Innocience und Moritz Velten
Zurück
Oben