News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

Capthowdy schrieb:
Nicht dass nVidia am Ende noch auf Marge verzichten muss.
Wieso sollten sie? Würdest du den "Samariter" spielen, damit sich "arme Schlucker" möglichst eine 5090 kaufen können? Was hat Nvidia davon möglichst billig neue GPUs zu produzieren? Grafikkarten sind Luxusgüter, frag mal Audi ob sie nicht ihre Autos für 10000€ verkaufen könnten, du hättest gerne einen A8.
Ergänzung ()

Rockbreak schrieb:
Ich hätte da eine! Wieso zitierst du einen Artikel aus 2020? Trotzdem, eigentlich eine schöne Tabelle für alle die AMD und Nvidia die alleinige "Schuld" an den hohen Preisen zustecken wollen.
1737921728897.png



Ich nutze aber mal einen Link aus deinem Artikel.
1737921875788.png

https://optocrypto.com/tsmc-3nm-wafer-price-increases-by-25/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ryzen3D
Waren das noch Zeiten als man fast 90% Leistungszuwachs hatte. 980 Ti zur 1080 Ti war in höherer Auflösungen ein gewaltiger Sprung. Jetzt reden wir von niedrigen 2-stelligen Prozenten. Durch die ganze Software DPS Trickserie werden die Entwickler auch immer fauler. hoffe das wenigstens Doom Dark Ages genau so butterweich läuft wie seine Vorgänger.
 
  • Gefällt mir
Reaktionen: MrWaYne
xexex schrieb:
Wieso sollten sie?
Weil sie vielleicht auch was verkaufen wollen? Wenn du glaubst, eine potentielle 7090 für 10k€ findet noch großartigen Absatz, dann glaubst du wohl auch noch an den Weihnachtsmann.

xexex schrieb:
frag mal Audi ob sie nicht ihre Autos für 10000€ verkaufen könnten, du hättest gerne einen A8.
Ne du, lass Mal. Meine Frau und ich bleiben bei BMW, VW kommt hier nicht in die Tüte. ;)
 
  • Gefällt mir
Reaktionen: Sp4wNickle
xexex schrieb:
Ich hätte da eine!
Ich hätte auch eine, warum zitierst du in deinem Beitrag "TSMC's wafer costs have skyrocketed, now topping $18,000—more than three times what they used to be for older nodes" lässt aber aus dass es sich bei dem Vergleich um das uralte 28nm Verfahren handelt das seit über einem Jahrzehnt keine Relevanz mehr hat? "3nm wafers hitting around $18,000—much higher than the $5,000 price tag for 28nm wafers"

So viel darüber dass du dich über 2020 aufregst, dann einen Vergleich zitierst mit einem Fertigungsverfahren das als letztes in der GTX 600 Reihe aus 2012 verwendet wurde.
 
mibbio schrieb:
Was genau soll ich denn an deiner ursprünglichen Aussage, dass die meisten Spiele für die 4090 und (noch) nicht für die 5090 optimiert seinen, denn falsch verstanden haben?
Weil ich nicht damit meinte das alle Optimierungen alleine explizit nur für die 4090/5090 bestehen sondern ich die einzeln genannt habe wegen dem Vergleich der beiden Grafikkarten in der Effizienz.^^

Man kann doch nicht einfach den Kontext ausblenden in dem ich das geschrieben habe.^^
mibbio schrieb:
Diese Aussage ist schlicht Blödsinn, weil so gut wie kein Entwickler speziell für bestimmte Grafikkarten-(modelle) optimiert. Grafik-APIs wie DirectX, OpenGL und Vulkan wurden ja gerade deswegen erfunden, damit die Spieleentwickler nicht mehr jede Karte gesondert behandeln müssen.
Ich hatte dir ein Beispiel genannt in dem das nicht zutrifft, wenn das so allgemein immer stimmen würde hätte der Fehler auch alle Grafikkarten betreffen müssen, tat er aber nicht.^^
 
...Bin gerade über diesen Chart gestolpert.
1737922060171.png

... sieht gar nicht so übel aus.
 
  • Gefällt mir
Reaktionen: Ryzen3D
Die Wege von Nvidia erscheinen mir unergründlich. Ich bin da für alles offen und lasse mich überraschen.
 
„Wie enttäuscht seid ihr…?
Diese Headline finde ich sehr manipulativ und journalistisch unangemessen.
 
  • Gefällt mir
Reaktionen: kachiri
Taxxor schrieb:
Das Problem haben sämtliche GPU Architekturen, sowohl von NVIDIA als auch von AMD, es fällt nur immer mehr auf, je mehr Shader man hat.
Dass sie nicht linear skalieren ja, aber das war in dem Ausmaß noch nie.
Ergänzung ()

Shio schrieb:
Eine wirklich "bessere" Fertigung gibt es ja nicht mit Blackwell, nur einen etwas effizienteren Fertigungsprozess (noch immer 5nm).
Das ist ja bekannt, weshalb wir von 3nm bei der nächsten Gen sprachen
 
Eine Enttäuschung ist die Karte nicht. Mich würde der Stromverbrauch abschrecken und eventuell der Preis. Meine Finanzministerin würde mir aufzählen, wie viele andere tolle Dinge man mit so einem Geldbetrag kaufen könnte. Letztlich würde ich die Karte wohl bekommen. Aber mir fehlt der Einsatzzweck. Spiele in WQHD und dies stellt für meine jetzige Karte kein Problem dar. Sehe auch keine Spiele am Horizont, die das Potenzial dieser Karte nutzen würden. Die Leistung von der Karte ist aber beeindruckend. Der Zuwachs ist vielleicht nicht so groß wie von einigen erhofft, aber die 4090 war und ist auch ein echtes Ungetüm.
 
mibbio schrieb:
Weil die Rohleistung erstmal nur ein rein threoretischer Wert ist,
Schon klar, wenn man aber 50% der Rohleistung verliert und das bei den kleiner ausgestatteten GPUs nicht so ist, muss man sich Gedanken machen was man ändern kann, ansonsten bringt das was man da produziert wenig.
Wir reden von einem 720mm Chip der fast 600W frisst, da wird Nvidia in der nächsten Gen schon ordentlich umstrukturieren um das Ganze effektiver zu gestalten, so gerne ballert man das ja auch nicht raus, zumal die Wafer-Flache ja auch gerne für HPC Chips verwendet werden würde die viel mehr Geld einbringen.
Dass der Vorgänger bei knapp 300W fast dieselbe Leistung bringt nervt Nvidia auch seobst
 
mibbio schrieb:
Was genau soll ich denn an deiner ursprünglichen Aussage, dass die meisten Spiele für die 4090 und (noch) nicht für die 5090 optimiert seinen, denn falsch verstanden haben?
Weil ich nicht damit meinte das alle Optimierungen alleine explizit nur für die 4090/5090 bestehen sondern ich die einzeln genannt habe wegen dem Vergleich der einzelnen Grafikkarten in der Effizienz.^^

Man kann doch nicht einfach den Kontext ausblenden in dem ich das geschrieben habe.^^
mibbio schrieb:
Diese Aussage ist schlicht Blödsinn, weil so gut wie kein Entwickler speziell für bestimmte Grafikkarten-(modelle) optimiert. Grafik-APIs wie DirectX, OpenGL und Vulkan wurden ja gerade deswegen erfunden, damit die Spieleentwickler nicht mehr jede Karte gesondert behandeln müssen.
Ich hatte dir mit EA Sports WRC ein Beispiel genannt in dem das nicht zutrifft, denn dann hätte der Fehler bei allen Grafikkarten auftreten müssen, tat er aber nicht.^^
mibbio schrieb:
Das passt sich dynamisch an die Speichermenge an, die es von der Grafikkarte zur Verfügung gestellt bekommt.
Das stimmt in dem Beispiel mit Diablo 4 was ich genannt habe so auch nicht, man konnte nicht einfach so wechseln, ich hatte mit 8GB VRAM deshalb auch kleinere Probleme, man musste sich vor der Installation entscheiden, ich nehme an weil sonst die Downloadgröße nicht mehr verhältnismäßig gewesen wäre.^^
 
Zuletzt bearbeitet:
Um die Frage in der Überschrift zu beantworten: Es ist mir vollkommen egal.

Es ist in Ordnung wenn es übertriebene Optionen für Enthusiasten gibt. Manchen wird es das Geld wert sein.

Persönlich hoffe ich dass es wieder mehr interessante Optionen unter 500€ oder sogar noch weniger geben wird. Das war die letzten Jahre schon recht schwach. Und sollte auch für Menschen leistbar sein deren Haupthobby nicht Gaming ist.
 
  • Gefällt mir
Reaktionen: shadACII und DaCrazyP
Ich persönlich würde definitiv keine 600W-Karte haben wollen - weil ich es nicht brauche und es im Sommer sehr störend wäre, wenn ich sie nicht aktiv drossel.
Aber wenn die Effizienz passt, verstehe ich nicht, wieso man sich über 600W aufregen sollte.

Früher hatten manche Enthusiasten halt zwei bis drei Grafikkarten mit je 200-300W im Rechner. Wo ist der Unterschied?
 
  • Gefällt mir
Reaktionen: DaCrazyP
Eine weniger manipulative Headline: "Seid ihr von der Karte enttäuscht? Wenn ja, warum? Wenn nein, warum nicht?"

Eine nicht-manipulative Headline: "Wie findet ihr die Karte?"
 
BAR86 schrieb:
Das ist ja bekannt, weshalb wir von 3nm bei der nächsten Gen sprachen
Du hattest das so dargestellt das die Fertigung irgendwie große Auswirkungen haben würde.
Aber das wusste man von vornherin schon das die Fertigung nicht wirklich was reißt.
 
Zuletzt bearbeitet:
PhilosKTO schrieb:
Eine weniger manipulative Headline: "Seid ihr von der Karte enttäuscht? Wenn ja, warum? Wenn nein, warum nicht?"
wahrscheinlich wegen dem Ergebnis der Umfrage vom Donnerstag:

2025-01-26_215159.jpg
 
  • Gefällt mir
Reaktionen: Moritz Velten und Beitrag
Zurück
Oben