News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

Die 5090 war eigentlich als Nachfolger meiner 3080TI fix eingeplant (überspringe immer eine Generation). Aber bei der 5090 passt irgendwie gar nichts bei Mehrleistung zu Strombedarf zu Preis.

Hab damals für meine 3080TI 1800€ bezahlt und das ist auch so die Schmerzgrenze.

Mal schauen was ich nun mache. Entweder weiter die 3080TI nutzen und auf die 6000er Serie warten oder schauen ob ich nicht doch irgendwo ne gebrauchte 4090 günstig abstaube. Für die reicht auch mein Netzteil noch knapp aus.
 
  • Gefällt mir
Reaktionen: nuego
Ich werde versuchen die 5090 zu kaufen. Die Gaming-Leistung mag nicht so ein großer Sprung sein. Aber die 32 GB VRAM werde ich sonst wohl nirgendwo bekommen. Und die sind für 3D Rendering leider sehr wichtig.
Ich reize meine 3060 mit ihren 12 GB leider häufig aus und mehr RAM ist dann halt der Unterschied zwischen einem GPU Rendering oder einem CPU Rendering was zig mal länger dauert.
Wünscht mir Glück am Donnerstag :D
 
jotka24 schrieb:
weil es warme Luft gegen Hindernisse wie Netzteile, Boards, Kabelbäume etc. pustet.
Das ist idR nicht so das Problem solang da rund 1-2 Slots Platz ist für die Luftzirkulation.
Klar, das wärmt sich alles auf, aber ich sehe da kein großes Problem.
 
Ich bin diesmal raus - obwohl eigentlich fest eingeplant.
Mich nervt der geringe Raster-FPS-Zugewinn, der eigentlich nur durch mehr Strom / Wärme erzwungen wird und es kommt wenig durch die neue Architektur. Auch der idle Stromverbrauch ist irgendwie komisch, ich hoffe das ist ein Treiberproblem und wird noch gefixt. Es geht mir nicht ums Geld wie Anschaffungspreis oder Stromkosten. Für mich fühlt sich das an wie eine an die Kotzgrenze getunte 4090Ti.

Vielleicht kann AMD das mal nutzen und etwas aufschließen. Das wäre gut für Weiterentwicklungen der ganzen Branche und für uns.

Ich denke auch, dass die Graka ausverkauft sein wird, aber nicht wegen der brachialen Nachfrage, sondern wegen kaum verügbaren Modellen (Paperlaunch)
 
Zuletzt bearbeitet:
Meine Enttäuschung fixiert sich weniger auf die 5090 und mehr auf die komplette 5000er Generation.

1. Kaum Performance Zuwachs abgesehen von der 5090
2. Praktisch 0% Effizienzgewinn (Tsmc hat doch schon den 3nm Prozess seit ein paar Jahren, warum nicht den für diese Generation nehmen)
3. Ebenso 0% Vram Verbesserung der kompletten Reihe abgesehen von der 5090 (Und das wäre sehr einfach zu bewerkstelligen gewesen, aber das muss man ja als Grund nehmen um in 1-1.5 Jahren die Super oder TI Versionen zu vermarkten und zu melken)
4. Shitty 5070>4090 Marketing
5. Preise sind zu hoch für das was die Karten können

Ich sehe absolut keinen Grund für irgendjemanden von der 4000er Generation zu upgraden wenn er irgendeine Karte dieser Generation kaufen will abgesehen von der 5090 und die hat für mich einen unvernünftig hohen Preis und Leistungsaufnahme für das was sie kann.

Irgendwie witzig dass AMD genau dann entscheidet aus dem High End Bereich auszusteigen wenn Nvidia die bescheidenste Generation der letzten 2 Jahrzehnte rausbringt. Das wäre echt Amds Chance gewesen, aber nein sie fangen ja schon damit an die CES und ihren eigenen Launch zu verkacken. Nvidia kann Amd den Ball zuspielen und Amd schießt ihn sich trotzdem selbst ins Gesicht.

Momentan bin ich mehr auf die 9000er Generation gespannt wie auf Nvidia, allerdings erwarte ich genauso wenig von AMD was Preisleistung angeht als wie von Nvidia. Wird halt etwas schlechter als die 5070/TI und etwas günstiger, wie wir es gewohnt sind.
 
  • Gefällt mir
Reaktionen: homunkulus, eXe777, minalion und 2 andere
xexex schrieb:
"Damals" hat die Fertigung noch einen Bruchteil gekostet, TSMC keinen Goldberg angehäuft und der Euro war noch halbwegs was wert. Nur wen interessiert damals? Heute würde "deine" Wunsch-GPU eben 2000€ Euro kosten.
2000€ für meine Wunsch GPU könnte ich mir sowieso nicht leisten.
Vielleicht ist das ein paar Generationen später zu meinen „GPU-Wunschvorstellungenmöglich“ und Preisen möglich. Da wird dann wahrscheinlich die Software-Anfordrung so hoch sein, dass das eine Mittelklasse Karte sein wird.
Du siehst, den Herstellern interessiert das „Damals“ auch nicht und die Gier nach Profit gehört mittlerweile dazu und der Kunde findet sich anscheinend mit den Preisen ab.
Hobby kostet halt…..
Tja, die guten alten Zeiten….
 
Ayo34 schrieb:
Glaube am Anfang wird alles ausverkauft sein, aber der Hype ist schon deutlich weg. Denke im Sommer können wir auch <2000€ sehen.
Witzig ! (siehe Zitat aus dem Link)

"dass es ziemlich schwer werden soll, eine RTX 5090 oder RTX 5080 zum Start zu bekommen. Einer der Distributoren offenbarte, dass man im ersten Monat der Markteinführung wohl überhaupt keine RTX 5090 anbieten könne und hier erst mit dem späten 1. Quartal oder sogar erst dem 2. Quartal 2025 rechne."

https://www.pcgameshardware.de/Gefo...5080-Release-knapp-verfuegbar-werden-1464083/

https://www.computerbase.de/news/gr...-und-rtx-5080-schlecht-verfuegbar-sein.91124/
 
  • Gefällt mir
Reaktionen: MechanimaL
msv schrieb:
Kurze Bitte an die aktuell knapp 220* RTX-4090-auf-5090-Wechsler: Könnt ihr die, falls ihr nicht eh schon zuverlässige Abnehmer im Bekanntenkreis habt oder sie selbst behaltet, zuerst hier in die Runde oder auf dem Marktplatz fragen? Bittedanke! 😅

Bei mir wird es, wenn überhaupt, ein Downgrade auf die 5080 FE werden. ;)

Aber falls ich meine 4090 FE tatsächlich verkaufen sollte, werde ich sie hier zunächst auf dem Marktplatz anbieten, bevor ich sie in der Bucht einstelle. Versprochen. :)
 
  • Gefällt mir
Reaktionen: msv
Bei den meisten Punkten der Umfrage konnte ich mich nur enthalten, da ich gar keine Erwartungen an die 5090 hatte, mir keine kaufen will und somit auch von keiner anderen Karte auf jene 5090 wechsel.

Da ich ein Verfechter von "sidegrades" bin, die für mich finanziell zu stemmen sind, kommen für mich an sich nur 5060 / 5060 Ti und ggf. je nach Preis noch die 5070 in Frage -> ausgehend von meiner RX 6750 XT.

Mal gucken, wann die Dinger kommen und was dann die Benchmarks sagen.
 
Gravlens schrieb:
Du hast offensichtlich was ich davor geschrieben habe nicht verstanden,
Was genau soll ich denn an deiner ursprünglichen Aussage, dass die meisten Spiele für die 4090 und (noch) nicht für die 5090 optimiert seinen, denn falsch verstanden haben?

Diese Aussage ist schlicht Blödsinn, weil so gut wie kein Entwickler speziell für bestimmte Grafikkarten-(modelle) optimiert. Grafik-APIs wie DirectX, OpenGL und Vulkan wurden ja gerade deswegen erfunden, damit die Spieleentwickler nicht mehr jede Karte gesondert behandeln müssen.

Auch beim VRAM werden Spiele nicht direkt für bestimmte Grafikkarten optimiert. Üblicherweise haben Spiele bzw. deren Engines ein dynamisches Speicher-/Assetmanagement. Das passt sich dynamisch an die Speichermenge an, die es von der Grafikkarte zur Verfügung gestellt bekommt. Kein Entwickler sitzt da und hardcoded, dass bei einer RTX 5090 32 GB an Texturen und Shader in den VRAM geladen werden und bei einer RTX 4070 nur 8 GB.
 
Nemesis200SX schrieb:
Aber bei der 5090 passt irgendwie gar nichts bei Mehrleistung zu Strombedarf zu Preis.
Verstehe ich gar nicht. Die 5090 ist dahingehend ja nicht schlechter oder besser als die 4090. Beziehungsweise "wirkt" sie ja nur schlechter, weil der Chip einfach größer geworden ist und man deshalb halt auch mehr Strom als die 4090 benötigt.
Im Endeffekt ist es halt auch noch immer derselbe Node.

Ich frage mich ja, woher diese magischen Leistungszuwächse, die man erwartet, kommen sollen.

Dieses Narrativ, was auch hier in der Überschrift des Artikels genutzt wird, ist doch mindestens genauso irreführend, wie die Marketing-Aussagen von NV alá 5070 = 4090...
Die Karte ist ja gar nicht "Brechstange"... Nicht mehr, als Ada es war. Vielleicht kann man das von den kleineren Blackwell-Karten am Ende behaupten, weil es hier tatsächlich danach aussieht, dass man mit etwas mehr Strom versucht auch etwas mehr Leistung raus zu quetschen, damit die Karten zumindest etwas schneller sind, als ihre direkten Vorgänger.
 
  • Gefällt mir
Reaktionen: minalion
die Umfragen sind sicher ein Schock für Nvidia und die Händler! Wie ist eig. die Meinung auf den englischen Hardware-Websites? Mein englisch ist leider nicht so gut.
 
mibbio schrieb:
Kein Entwickler sitzt da und hardcoded, dass bei einer RTX 5090 32 GB an Texturen und Shader in den VRAM geladen werden und bei einer RTX 4070 nur 8 GB.
Frag mal bei Indiana Jones nach, die ja genau das machen, weshalb der VRAM in dem Spiel halt tatsächlich knapp wird. Aber nur deswegen, weil das Spiel halt den VRAM je nach ausgewählten Setting vorbelegt :D
 
BmwM3Michi schrieb:
die Umfragen sind sicher ein Schock für Nvidia und die Händler! Wie ist eig. die Meinung auf den englischen Hardware-Websites? Mein englisch ist leider nicht so gut.
Ich fand Steves Fazit (Gamers Nexus) auch gar nicht so negativ. Vermutlich weil er auch immer sehr realistisch ist mit seinen Einschätzungen und vermutlich einfach wusste, was kommt.
Auch bei den anderen englischen Reviewern sehe ich jetzt keine große "Enttäuschung". Allgemein ist YouTube da recht "neutral" unterwegs. Egal ob Deutsch oder Englisch. Die Karte wird nicht derart gehyped wie vielleicht seinerzeit die 4090. Aber sie wird auch nicht zerrissen.

@Rockbreak Vielleicht rennt die 5090 auch einfach nur etwas früher in andere Limits? Es gibt nämlich solche und solche Spiele.
Und das ein größerer Chip mit dickerem SI einfach auch im "Idle" mehr Strom frisst. Ja mein Gott. Wen wunderts?


Scheinbar kann man mit Powerlimiting und OC sogar auch eher wieder was rausholen.
 
  • Gefällt mir
Reaktionen: minalion und BmwM3Michi
Rockbreak schrieb:
(Tsmc hat doch schon den 3nm Prozess seit ein paar Jahren, warum nicht den für diese Generation nehmen)
TSMC's 3nm wafer costs surge to $18,000 as Apple's A-series chips pack 20 billion transistors (Image source: TSMC)
As semiconductor manufacturing advances, TSMC's wafer costs have skyrocketed, now topping $18,000—more than three times what they used to be for older nodes.
https://www.notebookcheck.net/TSMC-3nm-wafer-costs-surge-to-18-000.943017.0.html

Noch fragen? Und wer jetzt glaubt, das Ende der Fahnenstange ist erreicht:
According to the source, a single 300-mm wafer built using the N2 technology will cost more than $30,000. This is a whopping amount especially when compared to previous processes.

Vielleicht wird Nvidia einen guten Kurs ausgehandelt haben, den wird es aber sicherlich nicht für die "Top Notch" Technologie geben, für diese Prozesse sind andere bereit mehr zu bezahlen. Man sollte sich einfach mal langsam aus dem Kopf schlagen, es wird endlos mehr Leistung zum gleichen Preis geben, das gibt die Technik einfach nicht mehr so her.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kachiri
@xexex
Nicht dass nVidia am Ende noch auf Marge verzichten muss. :D
 
Eagle-PsyX- schrieb:
Das Invest ist schon sehr hoch mittlerweile
Wenn man sich sagen lässt, dass man in 4k mit 120++ fps zu zocken hat, dann auf jeden Fall. Aber die Entscheidung ist ja zum Glück dem Einzelnen überlassen.
 
Zurück
Oben