News GeForce RTX 5090: Wie enttäuscht seid ihr von Nvidias 575-Watt-Brechstange?

Ich finde es wirklich schade, dass ich mich mit meinen Befürchtungen recht behalten habe.
 
  • Gefällt mir
Reaktionen: Moritz Velten
AtomLord schrieb:
So nach den Umfragen zu gehen, denke ich mal, dass die Scalper diesmal ordentlich auf ihrem Scheiß sitzen bleiben werden. Das wär echt n Traum... :D
Wird halt nicht passieren!
Denn die Leute haben offensichtlich genug Geld zum raus werfen...
Dann wird aber noch gejammert weil alles so teuer wird, aber es wird trotzdem gekauft 🤣
Wie so Lemminge oder Willenlose Zombies. 🧟
 
  • Gefällt mir
Reaktionen: AtomLord
So, wollte auch mal meinen „Jammer-Senf“ dazugeben.

Das Geld für eine RTX 5090 würde ich persönlich nie für ein Grafikkarte ausgeben.

Die Leistung einer RTX 4090 oder mehr, in Form einer RTX 5080 mit prognostizierten Preis und den „Features“ wäre aber schon nicht schlecht gewesen!

So hoffte ich zu Anfang, mit wahrscheinlich viel zu großen Erwartungen, dass die RTX 5090 für den aufgerufenen Preis mal ein richtig krasses „Monster“ wird und die RTX 5080 richtig ordentlich abliefert, ähnlich wie die RTX 3080 bei ihrer Vorstellung ……sehr schade…jetzt ist die RTX 5090 eben wie von CB formuliert eine teure „….575-Watt-Brechstange“ geworden.

Wie schrieb CB am 16.09.2020 im Test!
Zitat aus dem Bericht „GeForce RTX 3080 FE im Test: Benchmarks in Full HD, WQHD und Ultra HD“

„……Doch auch in WQHD schiebt die GeForce RTX 3080 FE noch ordentlich an, wenn auch weniger als in Ultra HD. Die neue Grafikkarte ist in der Auflösung noch 28 Prozent schneller als die GeForce RTX 2080 Ti.“

Das wäre was gewesen eine super starke RTX 5090 und eine RTX 5080 die 28% schneller als eine RTX 4090 in WQHD ist….jetzt wird die RTX 5080 mit ziemlicher Wahrscheinlichkeit nicht mal „annähernd“ die Leistung einer RTX 4090 erreichen.

Einen guten Start in die Woche wünsche ich euch, Gruß
 
Weyoun schrieb:
Naja, ich bin Wochenendpendler und lade gerade mal zwei Mal alle zwei Wochen (sowohl zu Hause als auch derzeit kostenlos beim Arbeitgeber), ausschließelich schonend über AC mit 11 kW). Der Akku hält länger, als ich vorhabe, das Auto zu fahren. Also kann ich auch etwas Energie spenden. ;)
in einem Smart-Grid-Szenario mit E-Autos als Speicher würde man ja auch eher nicht sehr tiefe Zyklen fahren..
also eher sehr flache, und davon kann ein Akku dann auch sehr sehr viele
 
  • Gefällt mir
Reaktionen: Weyoun
Für Nvidia wird die Gamer GPU Entwicklung und Produktion zunehmend zur Nebensache. Die sind jetzt an AI interessiert und richten ihre Chips entsprechend aus. Von daher ist die Leistung der 5090 jetzt nicht so überraschend.

Aber ich hab keine Ahnung und hätte für sone Karte ohnehin keine Verwendung. Ich zocke auf FHD... wenn überhaupt.

MfG
 
hmm.. was ich in einem anderen Thread mti Beanchmarks gelesen habe:
man kann die 5090 mit weniger Watt betreiben als eine 4090 und kriegt trotzdem noch mehr FPS raus..

das mag für Aufrüster die von ner 4090 kommen nichts bedeuten, zu wenig sein
(aber muss man unbedingt jede Grafikkartengeneration mitnehmen?)

aber für Leute die von weiter unten kommen, 20er oder 30er Serie:
die kaufen jetzt halt ne 5090 statt ner 4090

zusätzlcih kriegen sie noch FG dazu
 
BAR86 schrieb:
Naja die bessere Fertigung allein hilft offenbar wenig, man muss wohl bei der Architektur nachbessern.
Eine wirklich "bessere" Fertigung gibt es ja nicht mit Blackwell, nur einen etwas effizienteren Fertigungsprozess (noch immer 5nm).

jotka24 schrieb:
Aber wenn ich daran denke, was unter Space Marines 2, Blender oder anderen Apps, die die Vollast abrufen können, für eine Wärme in Richtung VRMs, CPU, m.2 und Speicher unterwegs ist, wird mir ganz anders.
Verstehe das Problem nicht. EInfach keinen Towerkühler nutzen und seinen Airflow für einen Luftzug von unten nach oben optimieren und alles ist gut.
Im SFF Bereich sind die Grafikkarten meistens auch anders angeordnet, da ist das dann auch nicht wirklich so das Problem.
 
Für die geringe Mehrleistung bleibt man lieber bei der 4090. Und wer keine hat der kauft sich günstig eine.
 
Gravlens schrieb:
Allgemein würde ich dir zustimmen, aber die meisten Spiele in der Liste wurden doch viel mehr für die 4090 optimiert, die 5090 ist doch noch nicht mal richtig "da",
Spiele werden üblicherweise überhaupt nicht für bestimmte Grafikkarten optimiert. Die Spiele werden gegen eine Grafik-API (DirectX, Vulkan) entwickelt, welche die eigentliche Hardware wegabstrahieren. Als Entwickler sagt man der API nur, was ausgeführt werden soll oder welche Resourcen die Anwendung von der Grafikkarte (x MB für Framerbuffer, y MB für Depth Buffer, Textur xy in den VRAM laden) und das ist durch die APIs einheitlich für alle Grafikkarten.

Wie die Grafikkarte diese API-Aufrufe dann am optimalsten umsetzt und wieder intern den Speicher dafür verwalten und die Aufgaben abarbeitet, ist Sache des Grafikkartenherstellers. Denn der setzt DirectX oder Vulkan dann passend für seine Grafikkarten um.
 
Wer auf Rasterizing schielt, wird von jeder zulünftigen Generation nVidia´s enttäuscht sein.
Viel interessanter ist die Frage, ob wir irgendwann zwei Grafikkarten brauchen.
Eine mit viel Rasterizing-Leistung, für alte Spiele ohne DLSS support und eine für den KI-Bums.

Oder gibt es eine technische Garantie, dass zukünftige Grafikkarten irgendwann von der Rasterizing-Performance nicht schlechter sind, als z. b. ne 1080ti?
 
Thunder1982 schrieb:
Für die geringe Mehrleistung bleibt man lieber bei der 4090. Und wer keine hat der kauft sich günstig eine.
Jow, das ist eine Option. Sofern 2 Dinge zutreffen:

1. Es kaufen sich wirklich keine Leute die neue GPU weil Sie das nicht unterstützen
2. Die 5080 wird nich wie erwartet sondern besser.

Sollte allerdings dies nicht zutreffen, wird es womöglich extrem schwer werden eine "günstige" 4090 zu bekommen.
 
"Wären deine Gehäusebelüftung und dein Netzteil bereit für eine 600-Watt-GPU?"

Na, wer hat alles ja gestimmt und hat dabei kein 1000W Netzteil? Nicht vergessen, 900W Spikes bei dem Monster hier.
 
Ich habe eigentlich kein Problem mit dem Verbrauch der 5090. Die Leistung stimmt ja durchaus, auch wenn ein wenig Effizienz auf der Strecke geblieben ist. Ich hab halt nur ein Problem mit den deutschen Strompreisen, die ja ebenfalls weltrekordverdächtig hoch sind. Die schwingen bei mir bei jeder neuen Anschaffung im Hinterkopf mit.
 
Diddleman schrieb:
Die Leistung einer RTX 4090 oder mehr, in Form einer RTX 5080 mit prognostizierten Preis und den „Features“ wäre aber schon nicht schlecht gewesen!
Tsja, stattdessen gibt es dann wohl in der Praxis nicht mal die Leistung einer 4090, mit weniger Speicher und zu einem ähnlichen Preis wie die 4090 bei Release gekostet hatte. ;-)

1400-1500€ UVP wird ja immer noch von so manchem geschätzt. Lass es 1200€ sein und die 409ß wäre immer noch die bessere Wahl gewesen. Mal schauen wo die Karten dann wirklich am Markt liegen ... also jenseits der FE.
 
  • Gefällt mir
Reaktionen: Diddleman
HerrRossi schrieb:
Ich sehe die 5090 mittlerweile sogar als Flop an. Alles, was Leistung bringen kann, wurde teilweise massiv aufgebohrt, gleichzeitig ist aber auch der Stromverbrauch massiv angestiegen, analog zur Leistungssteigerung. Für mich ist das technologischer Stillstand und das dann auch noch zu einem höheren Preis.
Sehe ich auch so. Nicht was eine 4090Ti im Ada Vollausbau mit 550 - 600 Watt auch hinbekommen hätte.
Denn beim selben Verbrauch (450 Watt) liefert die 4090 85% einer 5090 ? 15% Differenz !
1737913406097.png
 
BAR86 schrieb:
Wie sonst soll es sein, dass etwa bei der 4090 fast 75% mehr Rohleistung anliegen als bei der 4080, aber nur 30-40% rumkommen?
Weil die Rohleistung erstmal nur ein rein threoretischer Wert ist, der sich grob aus Kernanzahl * IPC * Takt berechnet. Den Wert erreicht man im Grund nur, wenn jeder Shader-Kern komplett isoliert vor sich hin rechnet.

In der Praxis hat man so eine Situation aber so gut wie nie, sondern die Shaderkerne müssen untereinander Zwischenergebnisse austauschen (warten also auch mal aufeinander) oder tauschen Daten mit dem VRAM aus. Auch hängt es davon ab, welche Workloads (bspw. diverse Shader im Spiel) die GPU gerade berechnen muss und wie die vom internen Scheduler verteilt werden. Alles das führt dazu, dass die tatsächliche Rechenleistung unter der theoretischen Rohleistung liegt.
 
  • Gefällt mir
Reaktionen: minalion
LuciusVorenus schrieb:
Ich habe eigentlich kein Problem mit dem Verbrauch der 5090. Die Leistung stimmt ja durchaus, auch wenn ein wenig Effizienz auf der Strecke geblieben ist. Ich hab halt nur ein Problem mit den deutschen Strompreisen, die ja ebenfalls weltrekordverdächtig hoch sind. Die schwingen bei mir bei jeder neuen Anschaffung im Hinterkopf mit.
Kauf dir halt ne Solaranlage die rentiert sich ja schnell. ;-)
 
nomika schrieb:
Und demnächst AAAAAA Spiele, die Minimum eine 5090 brauchen, weil sie einfach nur noch mies programmiert sind.

<1% der jetzigen Zielgruppe (inklusive Konsolenspielern) finanzieren keine Spieleentwicklung.

Da wird höchstens eine Mega-Ultra-Giga-Detailstufe oben draufgepackt in der Hoffnung, dass sich möglichst viele einreden, dass sich das Spielerlebnis dadurch verbessern würde.
 
  • Gefällt mir
Reaktionen: shadACII und nomika
mibbio schrieb:
Spiele werden üblicherweise überhaupt nicht für bestimmte Grafikkarten optimiert.
Wenn man meine Aussage so interpretiert...es ging um den Vergleich deshalb bezog ich mich konkret auf die beiden Grafikkarten.^^

Ich werde da in Zukunft auch nicht mehr darauf reagieren wenn es für mich offensichtlich ist das es gar nicht um eine Sache geht warum auch immer.^^
 
Ich weiß nicht, was sich die 65,1% Teilnehmer die hier zugestimmt haben:
1737910126549.png


vorstellen.

Die RTX 5090 ist nicht ineffizient, sie ist einfach nur riesig, was die Anzahl der Funktionseinheiten angeht. Sie hat mehr als doppelt so viele CUs wie das nächste Modell 5080. Das war bei der 4090 im Prinzip auch schon so, beide arbeiten nach dem Prinzip "viel hilft viel".
Bei GPUs funktioniert das auch vergleichsweise gut, der Speed Up ist nicht linear, aber trotzdem kann ein erheblicher Teil Rechenleistung in mehr FPS, usw. umgesetzt werden.

Insofern wird es immer diesen Ansatz geben, natürlich gibt es technische und wirtschaftliche Grenzen bzgl. der Größe und Leistungsaufnahme des GPU Chips. nVidia geht einfach mit dem Spitzenmodell an diese Grenze. Auch die 6090 wir um die 600W verbrauchen (darüber wird es wahrscheinlich schwierig die Wärme noch abzuführen), und dann eben vielleicht 220 CUs haben. Falls also eine neue Fertigung mehr Effizienz ermöglicht, wird es bei nVidias Spitzenmodell in "Größe" umgesetzt und nicht in weniger absolute Leistungsaufnahme.

Das ist ein "Halo" Produkt und soll zeigen was geht. Die Aufregung kommt vermutlich hauptsächlich daher, dass nVidia seit Einführung der RTX Serie das Top Produkt konsequent immer weiter "hochgetrieben" hat, sowohl bezüglich Preis als auch Leistungsaufnahme, es sich aber auch immer stärker vom nächstkleinren Modell absetzt. Das Halo Produkt zu besitzen, ist also zunehmend unerschwinglich geworden.

Gleichzeitig wird in Spiele Tests (auch hier bei CB) suggeriert, dass man Spielspaß nur in UHD, hoher Framerate und Ultra Settings inkl. RT haben kann. Das stimmt natürlich nicht, und bei vielen Spielen muss man selbst zwischen "Mittel" und "Ultra" schon genau hinschauen um Unterschiede zu erkennen. Wenn man wirklich spielt, hat man in der Regel keine Zeit auf solche Details zu schauen.

Und auch für die Immersion sind andere Aspekte (z.B. Qualität der Charakter Animationen in Cutscences, Verhalten/Bewegung von NPCs, Spielmechanik, usw.) viel wichtiger als die Reflexionen in Wasserpfützen.

Wenn man aber in Zukunft hohe FPS bei gleichzeitig hoher Auflösung und extremen Detailreichtum mit geringerer absoluter Leistungsaufnahme erreichen möchte, führt kein Weg an Interpolationstechniken wie DLSS/FSR und Frame Generation vorbei. Mit den althergebrachten Methoden jedes Pixel und jedes Frame durch die Rendering Pipeline zu schicken kommt man nicht mehr hinterher.

Bei diesen Techniken scheint nVidia ja auch gut aufgestellt zu sein, und meines Erachtens ist das viel wichtiger. Die Aussage von nVidia mit der RTX5070 unter Einsatz von DLSS4/MFG die Leistung der 4090 erreichen zu können ist in dieser Form natürlich kontrovers, denn die "Rohleistung" der 4090 erreicht sie natürlich nicht. Aber die Frage ist, ob das Endergebnis, das der Benutzer auf dem Monitor sieht, dem einer 4090 entspricht.

Umdenken ist nicht leicht. Bisher ist es man es gewohnt, Details und Auflösung zu senken wenn die Leistung der GPU nicht mehr reicht. Nur beides sieht man deutlich. Wenn sich die Technik weiterentwickelt reicht es irgendwann wenn die GPU intern in FullHD mit 60fps oder gar wenige rendert, und man bekommt auf dem Schirm ein flüssiges UHD Erlebnis.

Am Ende kann es sogar zu besseren Ergebnissen führen, heute sind ja Spiele mehr und mehr im CPU Limit, weil sie die Spieleengine mit den immer höheren Frameraten mithalten muss, das führt dann auch zu Abstrichen bei CPU intensiven Aspekten wie etwa "Growd Density". Wenn man das entkoppelt, kann man die CPU sinnvoller nutzen, als den FPS hinterherzuhecheln.

DevPandi schrieb:
Blackwell ist im Ganzen für mich enttäuschend. Man geht von 128 SM auf 170 SM rauf, hat also 32 % mehr Shader auf der Uhr, dazu geht die TDP von 450 auf 575 W, das entspricht 27 %. Im Mittel kommen hier dabei 24/22 % mehr FPS herum. Das ist für sich gesehen enttäuschend. Nimmt man die Rechenleistung, gehts es um 27 % von 82,6 auf 104,8 hinauf, auch in diesem Zusammenhang im Mittel ist es enttäuschend.
32% mehr Rechenleistung mit 27% mehr TDP bedeutet tatsächlich einfach größerer Chip mit ungefähr gleicher Effizienz, also einfach "Up-Sizing.
Aber auch GPUs scheinen nicht linear zu skalieren, daher kommen nicht die ganzen 30% am Ende als Ergebnis raus.

DevPandi schrieb:
Klar, Nvidia hat auch dieses Mal viel für die Zukunft angekündigt, bis sich Neural-Shaders und Co durchsetzen, wird jedoch noch einiges an Zeit vergehen. Die effektivste Neuerung ist als DLSS 4 und MFG und nur Letzteres ist exklusiv für Blackwell. Blackwell kann damit die FPS noch mal deutlich erhöhen, keine Frage.
Wie gesagt, ich glaube das ist eben der Weg zu mehr Effizienz, Brute Force kommt man nicht mehr weiter. Wird nur schwerer zu messen, weil die Qualität der Darstellung und das "Spielgefühl" viel schwerer zu messen ist, als nativ gerenderte FPS. Aber auch AMD geht ja mit FSR4 weiter diesen Weg, bisher gibt es nur die "Ratchet und Clank" Demo, die sieht ja vielversprechend aus.

DMHas schrieb:
Ich finde es bedenklich, dass NVidia ohne Sinn und Verstand die TDP hochprügelt.
Wie oben geschrieben, geschieht das nicht ohne "Sinn und Verstand". Hätten sie einfach einen Chip rausbringen soll, der genau die gleiche Rechenleistung wie die RTX 4090 bei gleicher TDP gehabt hätte? Da wären die Leute ja noch enttäuschter gewesen.

5lacker schrieb:
Die große Mehrheit wird sich ein so überteuertes Ding demnach nicht kaufen. Das bedeutet in meinen Augen die Umfrage zielen auf eine falsche Zielgruppe ab. Dies ist mir bereits mehrmals aufgefallen.
Das Thema beschäftigt auch Nicht-Käufer einer 5090 weil sie eben als Halo-Produkt den Masstab setzt. Die meisten Leute haben wahrscheinlich einfach Angst, dass sie mit einer kleineren Grafikkarte abgehängt werden und nicht mehr alles spielen können. Diese Angst wird ihnen ja auch von der Industrie und den Medien eingeredet.
 
  • Gefällt mir
Reaktionen: Spit187 und SportMönch
Zurück
Oben