News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Laphonso schrieb:
Die 4090 wird gebraucht preislich nahe bei den Markpreisen der 5080 liegen, vermute ich.
Wieso sollte jemand eine alte 4090 für den selben Preis einer 5080 kaufen, während letzteres wohl in jeder Hinsicht besser sein wird?

Die 4080 Super kam vor kurzem für 1100€ raus, das ist deutlich unter den 1400€ der 4080. Die 5080 wird irgendwo dazwischen liegen, für die 4090 bekommst du da keine 1000€ mehr.
 
  • Gefällt mir
Reaktionen: Triz
Wundert mich nicht groß. Da Blackwell nicht auf 3 nm runtergeht und statt N4P "nur" in 4NP gefertig wird, sind eben keine allzu großen Sprünge machbar. Man sieht's ja auch bei den Server-GPUs. B100 ist im Prinzip eine Dual-Die-Version von GH200 mit einigen Verbesserungen/Erweiterungen sowie einem massiv aufgebohrten NVLink, um beide Dies zu verbinden. Damit lösen sie z.T. das Packaging-Problem und vor allem das Thema mit der maximalen Die-Größe.

Leistungstechnisch ist natürlich damit B100 deutlich schneller als H100, aber braucht auch fast doppelt so viel. Die großen Effizienzgewinne von Hopper auf Blackwell sind einmalige Effekte, weil man den Transformer, NVLink bzw. die NVLink Switches massiv aufgebohrt und Flaschenhälse eliminiert hat.

Wie soll sich also GB102 deutlich von AD102 absetzen, ohne die Brechstange rauszuholen?
 
  • Gefällt mir
Reaktionen: Maxminator
Ich hoffe, dass NVIDIA nicht (wieder?) den Weg geht und über irgendwelche Features und aus Notwendigkeit für mehr Speicher die 50er Serie verkauft. Wenn sich die Architektur nicht nennenswert ändert, wo sollen dann 50% mehr Performance für die 5080 herkommen, wenn nicht auch durch einen erheblichen Mehrverbrauch?
Somit wird die 5080 die alte 4090 von der Leistung ersetzen und dank mehr Speicher (als die 4080) und neuen Features, die exklusiv für die 50er Serie sind, sich wieder verkaufen. Zum 4090 Preis natürlich. Hatten wir doch damals genauso. Die neue xx80 Karte hat die alte yy90 Karten von der Leistung ersetzt und neue Features bekommen. Bei weniger Speicher und weniger Effizienz.

Und die 5090?
NVIDIA muss doch mehr Leistung bringen - warum soll die Karte sonst jemand kaufen? Also Stromverbrauch hoch, ein paar Optimierungen, mehr Speicher und ein paar 50er exklusive Features und zack: 5090 für 2500-3000 Euro. (Ich wette auf 500-550 Watt).
 
  • Gefällt mir
Reaktionen: SP-937-215
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Und das zu Recht!

Wobei ich erstmal abwarten würde ob es tatsächlich so kommt. 600 Watt wären echt ein Brett, selbst für eine 5090. Gerüchte sind ja keine Tatsachen.
 
5090 wird auf jedenfall geordert! So gut wie im Warenkorb. Damit hat man Leistung im Überfluss. Es wird halt in nächster Zeit keine Spiele geben die so eine Leistung benötigen. Aber macht nichts.
 
ja? Wirklich nicht? Schon mal in Akila Stadt in STARFIELD gewesen?
 
TomausBayern schrieb:
5090 wird auf jedenfall geordert! So gut wie im Warenkorb. Damit hat man Leistung im Überfluss. Es wird halt in nächster Zeit keine Spiele geben die so eine Leistung benötigen. Aber macht nichts.
Du unterschätzt den Trend zur nicht-Optimierung bei den AAA Spielen massiv.
 
  • Gefällt mir
Reaktionen: Ralle321, Maxminator, SP-937-215 und eine weitere Person
ThomasK_7 schrieb:
Vernünftige Gamer werden hoffentlich erkennen, das man solche Grafikkarten gar nicht für echten Spielspaß am PC dringend braucht!

Als jemand der im Bereich Motion Design und 3D Modellierung unterwegs ist fängt man da immer das sabbern an wenn man solche Werte sieht. Wir krebsen hier noch mit kleineren Modellen rum, das stärkste was wir im Moment haben ist eine 3090. So ne 5090 wär fast 3mal so schnell. Das macht schon nen krassen Unterschied wenn ein Frame statt 3min nurnoch 1min dauert bei 25-30frames pro Sekunde Video
 
  • Gefällt mir
Reaktionen: Maxminator
Meine GPU mit 250 W ist schon schlecht zu kühlen. Wenn ich die Hand vor das Gehäuse halte, ist die Luft schon sehr warm. Keine GPU mit mehr Watt kommt mir in den PC.
 
  • Gefällt mir
Reaktionen: ThomasK_7
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Wieso geheule? Berechtigte Kritik stempelst du also als Geheule ab. Ok.

Dann warte ich auf die RTX5070 Ti/Super und hoffe auf max. 350W Leistungsaufnahme bei 25% mehr Power als die 4080 Super. Danach kommt die 7900XTX sofort weg!
 
  • Gefällt mir
Reaktionen: legenddiaz
Meine 2070S damals kam auf 220W ohne UV. Mit UV war ich bei 178W, was ich total in Ordnung fand.
Danach eine 3080 die natürlich deutlich höher gehen kann. Mit UV bin ich bei 200-220W, was ich auch hier in Ordnung finde.

Wenn ich mich für eine höhere Karte (nächstes Jahr) entscheiden würde, würde ich schon zusehen, das ich im Bereich bei 200-240W bleiben werde. Das bekomme ich mit UV schon hin und habe dennoch deutlich, deutlich Mehrleistung und eben die bekannten Nebeneffekte durch UV, wie weniger Abwärme und leisere Lüfter und evtl. auch eine erhöhte Lebensdauer.

Aber ich bin da nicht bevormundend. Jeder, wie er es für sich richtig hält. Und wenn sich da einer ne Graka mit 800W reinkloppen würde, wäre es mir egal.

Bin gespannt.

LG
 
Ich rechne wieder mit 450W Verbrauch. Von mir aus auch 500.
Aber ihr braucht euch da eh keine Gedanken machen, die wird sowieso wieder nicht lieferbar sein


DevPandi schrieb:
Am Ende des Jahres hatte ich allerdings erneut nur ca. 750 kWh Verbrau
Für deine ganze Bude??
 
Laphonso schrieb:
dabei meine "somoothness" Wohlfühlzone ab 80-90 min fps erst beginnt.
Einen Unterschied im Blindtest zwischen 60 und 80 FPS würdest du vermutlich nicht merken wenn man dir Szenen mit 60 FPS und danach mit 80 oder 90 zeigt.
 
S.Kara schrieb:
das ist deutlich unter den 1400€ der 4080. Die 5080 wird irgendwo dazwischen liegen, für die 4090 bekommst du da keine 1000€ mehr.
Die Gegenwette halte ich. Die 5080 wird eher bei 1500+ Euro landen im Verkauf, 0% Chance auf "unter 1000 Euro" für eine 4090.
Wer "sicher" sein will, und nicht bis Sommer 2025 oder so warten möchte, sollte m.E. lieber 1200-1400 Euro für eine 4090 (je nach Modell) bereithalten.
 
Zuletzt bearbeitet:
TomausBayern schrieb:
5090 wird auf jedenfall geordert! So gut wie im Warenkorb. Damit hat man Leistung im Überfluss. Es wird halt in nächster Zeit keine Spiele geben die so eine Leistung benötigen. Aber macht nichts.
Schöne Wunschvorstellung, aber das wurde auch über den 4090 gesagt und es ist nichts daraus geworden. Versuche mal eines der aktuellen Raytracing Spiele auf 4K ohne DLSS und FG zu spielen. Ich würde eher sagen für alle die schon eine 4090 haben taugt die kommende Generation nicht viel.
 
Tomsenq schrieb:
Einen Unterschied im Blindtest zwischen 60 und 80 FPS würdest du vermutlich nicht merken wenn man dir Szenen mit 60 FPS und danach mit 80 oder 90 zeigt.
Doch, hatte ich bereits mehrfach in mehreren Games (Need for Speed Unbound, Borderlands 3, Battlefield 2042, Elden Ring u.a.) auf drei unterschiedlichen Monitoren. Mit 100 % Trefferqoute by the way!
60 fps avg hat auch min fps oft deutlich unter 60.
Nur 60 fps sind für mich - im Wortsinne - sichtbar und nicht angehem. Ich bin da überempfindlich mittlerweile.
 
nebukadnezar.ll schrieb:
Vielleicht sollte jemand NVIGAGA mal stecken, dass wir effizientere Karten wollen und keine 500 Watt Toaster im Rechner.
Wer ist dieses "Wir" und wie viele sind es?

Nach Betrachtung der Marktsituation wage ich zu behaupten, dass NVidia ziemlich genau das liefert, was der Kunde insgesamt begehrt.
 
Man wird sehen.

Vorstellung abwarten. Tests abwarten.
Haben die Hersteller irgendetwas aus dem Spulenfiepen-Dabakel gelernt? (Wohl nein)
Verbauen die Hersteller (Asus, Manli...) immer noch die dünne Schlabberpaste? (Wohl ja)
Und wenn sich dann etwas sinnvolles für PLV ergibt...
 
Jeder aktuellen Karte bricht man mit echtem Pathtracing sofort die Beine, und auch Texturdetails etc. ließen sich fast beliebig steigern um auch 24 oder 48 oder 96GB VRam sofort volllaufen zu lassen. Um nur zwei Beispiele zu nennen. Insofern wird auch die 5090 und ihre Nachfolger eine Daseinsberechtigung haben. Ob man den Preis bei Kosten und Stromverbrauch ausgeben will liegt doch bei jedem selbst. Brauchen tut die nur zum Zocken niemand, man kann wunderbar auf einer 5 Jahre alten Mittelklassekarte oder selbst mit integrierter Grafik zocken wenn es nicht max details in max Auflösung sein müssen - gut Zocken war noch nie so billig zu haben wie heute. Wer mehr will kann mehr ausgeben und es ist toll dass es diese Option gibt.

Trifft auch auf viele andere Technikbereiche zu. 75" 4k TV im Angebot für 750€ - mega. Einstiegsgerät aber bessere Qualität als vor 5 Jahren für 10 mal soviel Kohle. Musst keine 10.000€ ausgeben, kannst es aber wenn du allen Schnickschnack willst. Oder oder. Immer dieses Geheule ;)
 
  • Gefällt mir
Reaktionen: kevyo und Rensch
Shoryuken94 schrieb:
Effizienz hat nichts mit dem absoluten Verbrauch zu tun. Und noch weniger mit der TDP Einstufung. Vergleich doch mal, wie Effizient eine 450 Watt 4090 gegenüber einer 355 Watt 7900XTX ist und ob die TDP jetzt wirklich der Punkt ist an dem man die Effizienz festmachen sollte.


Ein Bus der im Stadtverkehr 50 Liter Diesel verbraucht und 70+ Menschen transportiert ist auch effizienter, als ein Porsche der in der Stadt mit 15 Litern Benzin fährt aber gerade mal 2 Leute transportiert.

Ansonsten bin ich ja gespannt, welcher Hersteller das sein soll, der die Lücke super effizienter Grafikkarten übernehmen soll. Bislang erreichen weder AMD noch Intel überhaupt die aktuelle Effizienz von Nvidia.

Mir ist klar, dass die neue Generation prinzipiell effizienter ist, weil sonst würde man (laut Papier) ja auch um 50% mehr Strom verbrauchen.

Ich wünschte mir einfach, dass auch bei Grafikkarten ein Apple M1 Moment irgendwann kommt und die Performance pro Watt um ein Vielfaches ansteigt.
 
Zurück
Oben