News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Tschibbl schrieb:
Mit einer verbesserten Architektur kann man mehr Leistung rausholen. Die 4090 zb. hat ja 70% mehr Recheneinheiten als die 4080, ist aber höchstens 40% schneller. Da ist schon noch Luft nach oben vorhanden.
Mit der nahezu selben Fertigung bist du aber auch von der Architektur her stark limitiert. Mich würde es enorm wundern wenn nVidia hier wundersamerweise auf einmal 30% bei einer 5080 holt und zu einer 4090 komplett aufschliesst.

Nenn mir doch mal eine CPU der letzten Jahre die ohne Nodestep dermaßen hohe Leistungsspünge geliefert hat.

Quidproquo77 schrieb:
Das Problem in deiner Argumentation ist, es bleibt generell abzuwarten.
Das würde ich bei Spekulatius sowieso immer machen.

Quidproquo77 schrieb:
Sowohl was den Preis der 5080 betrifft, der durch ein teures Custom Design, welches kurz gelistet war nicht gesichert ist. Geschweige denn die Leistung, da zu IPC, Featureset, Taktraten usw. nichts bekannt ist.
Du greifst also selbst in den Mixer um dir die Argumente sozusagen aus dem Kaffeesatz zurechtzulegen und jeweils die niedrigsten Preise der 4090 als Vergleich zu benutzen.
Nö, ich beziehe mich rein auf das was hier stand und habe DAZU meine Meinung abgegeben. Das sollte doch noch drinliegen oder ? ICH finde 1699€ wären ein Schweinegeld für eine 5080. Wenn dir das günstig dünkt, ok, deine Sache ;)

Quidproquo77 schrieb:
Selbstverständlich ist der Node Teurer. Das kann vielleicht über die yield rate kompensiert werden, aber letztendlich kennen die Preise von TSMC nur den Weg nach oben.
3nm wird wahrscheinlich ausgelassen, weil es zu teuer wäre.
Klar will TSMC hier immer mehr und mehr abgreifen. Dennoch wird ein Produkt evtl. ab einem gewissen Punkt einfach uninteressant. Da müsste die 5090 jetzt exorbitant teuer werden um den Kauf einer 5080 zu rechtfertigen und selbst dann dürfte man wenn man eine 4090 hat mit dem weiter fahren dieser besser beraten sein, rein logisch gesehen sofern man nicht an einem Punkt wieder hart im Featureset limitiert wird.

Quidproquo77 schrieb:
Gönnerhaft sind sie nicht, aber ein 320bit Interface wäre für die Karte mit GDDR7 eher overkill.
Naja, dann sind 512 Bit bei einer 5090 ja der mega-hyper-overkill^^

Quidproquo77 schrieb:
Der Speicher nutzt dir halt für die Gaming-Performance kaum bis gar nichts. Die 3090 wurde auch von einer 12GB Karte entwertet, die im übrigen bei Pathtracing trotz knappem Speicher besser performt.
Das wäre ein Punkt der mit der nächsten wirklichen Gen an Konsolen entschieden wird und was dann so an Speicher gebraucht wird in den Titeln die da folgen. Bis dahin ist aber evtl. schon die 6000er Serie in Spekulation. :)

Quidproquo77 schrieb:
Naja, dass Nvidia die 4080 nicht los wurde, ist eine maßlose Übertreibung, du scheinst die Karte einfach zu hassen. :D
Zum ursprünglichen Preis hat die sich am schlechtesten im Lineup verkauft, sogar noch WEIT hinter der viel geschimpften 4060. Der Markt hat den Preis wohl auch nicht gesehen und Kunden denen Performance über Preis geht haben zur 4090 gegriffen.

Das wird bei der 5090 wohl ähnlich sein sofern sie nicht überrissen teuer ist. 1699 vs. 2199€ und ich sehe die Mehrheit bei der 5090 landen, bei 2500+ wirds dann schon enger und um die 2k rum wüsste ich nicht warum jemand überhaupt noch eine 5080 in Betracht zieht (immer diesen einen Preis angenommen, rein spekulativ).

Quidproquo77 schrieb:
Eine bessere Auslastung der Einheiten hängt ja nicht an der Fertigung. Taktraten sind bei Intel stark angestiegen, auch bei AMD scheint es über 3Ghz zu gehen, wieso soll das bei Nvidia nicht so sein?
Auch bei nVidia ist Takt möglich. Stock rennt meine mit 2940 unter Wasser und ich kenne Leute deren Karte macht auch 3,1 Ghz. Ich erwarte mir jetzt aber kein 4Ghz Wunder und das bräuchte es um mit 5% mehr Shadern irgendwie 30% zu einer 4090 aufzuschliessen.

Quidproquo77 schrieb:
Ja klar, du argumentierst so günstig wie möglich für die alte Gen und redest dir deine 4090 schön.
Ich kann mir meine 4090 nicht schönreden, die war damals schon zu teuer aber hat sich wenigstens nicht wie Betrug angefühlt. :D

Quidproquo77 schrieb:
Günstiger verfügbarer Preis gegen irgendeine Listung, ist halt kein Vergleich. Und zu einer Karte gehört mehr als die reine Shaderanzahl. Dass man dir das erklären muss, ist eigentlich ziemlich wild.
Wir werden ja sehen wo die Karten preislich landen und was der Markt draus macht. Muss man dir erklären wie man TFLOPS berechnet und wie sich daraus grob die Rohleistung ergibt ohne irgendwelche "wundersamen architekturellen Tricks die magisch 30% holen sollen" ? Wild.

Selbst bei 3Ghz flat und dem Mehr an Shadern kommt man auf etwa 64 Tflops. Da fehlt noch ein bisschen was zu meiner 4090 mit 96,3 TFLOPS. Selbst mit fucking 4Ghz käme man hier "nur" auf 86 TFLOPS.

Klar, eventuell haben sie SER massiv weiterentwickelt, das könnte nen Boost bringen, aber 30% ? Schauen wir mal. ;)

Ein gewisser Gradmesser ist für mich Zen 5 ggü. Zen 4. Selbst von N5 zu N4 hat sich da nicht so mega viel getan aber bei N4 zu N4(P?) sind jetzt auf einmal looooocker 30% drin ?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Mittelfristig stoßen wir an die technisch-physikalischen Grenzen, irgendwann sind eben keine Leistungssteigerungen oder noch kleinere Fertigungsprozesse mehr möglich.
Wir können die Naturgesetze innerhalb der materiellen Physik, an die wir gebunden sind, nicht ändern, weil es nicht geht.
Das gilt auch für die Digitalfotografie, die zwar den Film durch eine Speicherkarte ersetzt hat, aber am physikalischen Prinzip, wie eine Kamera funktioniert, hat sich seit 200 Jahren nichts geändert.
Deshalb glaube ich, dass der technische Fortschritt im 21. Jahrhundert nicht mehr so rasant sein wird wie im letzten Jahrhundert.
Die Physik setzt uns Grenzen.
Völlig neue technische Ansätze sehe ich nirgendwo, Autos fahren immer noch auf vier Rädern, Flugzeuge fliegen immer noch mit Flügeln und Leitwerken und auch die IT hat sich nicht grundlegend geändert, es wird immer noch mit Nullen und Einsen gerechnet.
Die seit Jahrzehnten bestehende Technik wurde verbessert und weiterentwickelt, aber nichts revolutionär Neues, mit völlig neuen Ansätzen erdacht, entwickelt und gebaut.
Wenn wir ins All fliegen, machen wir es immer noch mit altbewährter Raketentechnik.
Gadgets wie Smartphones und Tablets zähle ich zur IT-Technik, also mit dem Ansatz des PC-Grundprinzips und der Chipentwicklung.
Das gilt auch für die Digitalfotografie, die zwar den Film durch eine Speicherkarte ersetzt hat, aber am physikalischen Prinzip, wie eine Kamera funktioniert, hat sich seit 200 Jahren nichts geändert.
Deshalb glaube ich, dass der technische Fortschritt im 21. Jahrhundert nicht mehr so rasant sein wird, wie wir ihn im letzten Jahrhundert erlebt haben.
Daran wird auch KI nichts ändern.
Die Physik und Naturgesetze lassen sich nicht aushebeln und setzen uns deshalb technische Grenzen.
 
Zuletzt bearbeitet:
MrWaYne schrieb:
kann ich bestätigen. juckt mich alles nicht.
die 5090 ist daher bald bestellt. wie weit wohl OC damit geht?
Mach doch. Peinlich sind die Leute die hier der Meinung sind das 600W nicht so viel wären oder die glauben das ein magischer Stromsparmechnismus die Leistung im Betrieb auf xxx Watt reduziert
Cleaner57 schrieb:
Du machst es wie sonst wo auch auf dem Social Media : laut schreien, um die eigene Misäre zu verheimlichen.

Ja die 3080/4080 saugen bereits viel zu viel Strom. Leider verkauft nVidia keine 4080 mit 250W TDP
.... 250W sind immer noch viel zu viel.

AAAber die 575W de 5090 sind einfach nur noch daneben von Nvidia.

5090 dreht völlig frei beim Stromverbrauch - > Fehlkonstruktion
 
  • Gefällt mir
Reaktionen: Xedos99
pacifico schrieb:
4080 saugen bereits viel zu viel Strom. Leider verkauft nVidia keine 4080 mit 250W TDP
Also die 4080 hier gönnt sich mit etwas UV keine 250 Watt, sondern max. ca. 240 Watt. Dann aber in 4K bei 160 FPS (capped).
ROTTR_2024_12_28_23_40_27_117.jpg
 
  • Gefällt mir
Reaktionen: ThirdLife, kryzs und JMP $FCE2
Wieso bekommt diese News eigentlich einen CES 2025 Hashtag, wenn es sich hierbei nur um Gerüchte bzw. Leaks handelt. die CES News sollten doch eigentlich auf Fakten beruhen.
 
rentex schrieb:
Du meinst wohl so...
Genau so, besonders wenn es um SLI oder Crossfire ging ... ich war jung und brauchte die FPS 😆
 
  • Gefällt mir
Reaktionen: rentex
pacifico schrieb:
5090 dreht völlig frei beim Stromverbrauch - > Fehlkonstruktion
Nö. Ist absolut ok wenn die Leistung dabei mehr steigt als der Verbrauch. Dann ist das Produkt effizienter geworden und es liegt an DIR, dem Konsumenten jetzt mit sich abzumachen in welcher Auflösung und welche Games er damit zocken will.

Ein 700PS Auto ist auch keine "Fehlkonstruktion". Du musst die Leistung ja nicht 24/7 abrufen. Eigenverantwortung ist wohl bei vielen Leuten hier echt hart unbeliebt.

Mit Framecap 144, max. Details und und 3440x1440er Auflösung lieg ich oft sogar "nur" um die 200W mit der 4090, die 5090 wird das vermutlich auf einer Backe absitzen bei 150W max.

Inwiefern ist das jetzt eine Fehlkonstruktion, nur weil man wenn mans bräuchte noch mehr Reserven hat ? Ist dein Sparkonto auch eine Fehlkonstruktion ? Überweis gern mir das Geld, nicht, dass es dich allzu sehr belastet wenn da zu viel übrig ist das du nicht brauchst. 🤣
 
Zurück
Oben