News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Hast du bei den Preisen nicht 'ne Null vergessen? :rolleyes:
 
  • Gefällt mir
Reaktionen: nuestra
ThirdLife schrieb:
Und wo genau soll die Leistung hier entstehen ? Erklär doch mal ? Mehr IPC ? Wie denn bei kaum angepasster Fertigung ? Mehr Takt ? Wie denn bei kaum angepasster Fertigung ? Mehr Shader ? Ja, fünf Prozent.

Mit einer verbesserten Architektur kann man mehr Leistung rausholen. Die 4090 zb. hat ja 70% mehr Recheneinheiten als die 4080, ist aber höchstens 40% schneller. Da ist schon noch Luft nach oben vorhanden.
 
ThirdLife schrieb:
Da die erst deutlich später kommt bleibt das abzuwarten.
Das Problem in deiner Argumentation ist, es bleibt generell abzuwarten.
Sowohl was den Preis der 5080 betrifft, der durch ein teures Custom Design, welches kurz gelistet war nicht gesichert ist. Geschweige denn die Leistung, da zu IPC, Featureset, Taktraten usw. nichts bekannt ist.
Du greifst also selbst in den Mixer um dir die Argumente sozusagen aus dem Kaffeesatz zurechtzulegen und jeweils die niedrigsten Preise der 4090 als Vergleich zu benutzen.
ThirdLife schrieb:
Die Node ist doch keine teurere, der Speicher mag etwas teurer sein, aber in dem Maße seh ichs halt nicht. Wär was Anderes würde nVidia auf N3 produzieren.
Selbstverständlich ist der Node Teurer. Das kann vielleicht über die yield rate kompensiert werden, aber letztendlich kennen die Preise von TSMC nur den Weg nach oben.
3nm wird wahrscheinlich ausgelassen, weil es zu teuer wäre.
ThirdLife schrieb:
320 Bit Interface und 20GB wären sicher eine Möglichkeit gewesen. Ist jetzt nicht so als ob nVidia hier schon viel zu gönnerhaft wäre. Ich denke wir sollten aufhören schlechte Produkt-Eckdaten zu normieren und für völlig iO zu befinden.
Gönnerhaft sind sie nicht, aber ein 320bit Interface wäre für die Karte mit GDDR7 eher overkill.
ThirdLife schrieb:
Da solltest du nicht von dir auf andere schließen. Eine "Entwertung" findet allein des Speichers halber schon nicht statt und eine massive Leistungssteigerung bei gerade einmal mickrigen 4 SMs mehr ggü. einer 4080S holst du wo genau her ?
Der Speicher nutzt dir halt für die Gaming-Performance kaum bis gar nichts. Die 3090 wurde auch von einer 12GB Karte entwertet, die im übrigen bei Pathtracing trotz knappem Speicher besser performt.
ThirdLife schrieb:
Stimmt und weil das eine Meh-Produkt schon maßlos überteuert war und weil sies nicht loswurden massiv im Preis gefallen ist muss das Neue natürlich wieder einen "versuchen wirs mal"-Price Tag tragen.
Naja, dass Nvidia die 4080 nicht los wurde, ist eine maßlose Übertreibung, du scheinst die Karte einfach zu hassen. :D
ThirdLife schrieb:
Und wo genau soll die Leistung hier entstehen ? Erklär doch mal ? Mehr IPC ? Wie denn bei kaum angepasster Fertigung ? Mehr Takt ? Wie denn bei kaum angepasster Fertigung ? Mehr Shader ? Ja, fünf Prozent.
Eine bessere Auslastung der Einheiten hängt ja nicht an der Fertigung. Taktraten sind bei Intel stark angestiegen, auch bei AMD scheint es über 3Ghz zu gehen, wieso soll das bei Nvidia nicht so sein?
ThirdLife schrieb:
Du kommst mir mit Sinnhaftigkeit, aber eine 1699€ 5080 mit 5% mehr SMs und potentiell überschaubarer Mehrleistung bei einem 70% Preisaufschlag scheinen dir sinnvoll und ich nitpicke ?
Ja klar, du argumentierst so günstig wie möglich für die alte Gen und redest dir deine 4090 schön.
Günstiger verfügbarer Preis gegen irgendeine Listung, ist halt kein Vergleich. Und zu einer Karte gehört mehr als die reine Shaderanzahl. Dass man dir das erklären muss, ist eigentlich ziemlich wild.
 
Auch wenn's nicht passieren wird, hätte ich überhaupt keine Probleme mit einer 5080, die meine 4090 pulverisiert. Ganz im Gegenteil, schließlich werde ich die ja irgendwann auch gegen was Anderes ersetzen, und wenn jetzt eine 5080 schon so geil würde, wäre das ja umso besser für die 7080 oder 7090, die vielleicht irgendwann in meinem Rechner stecken wird.

Die einzigen, die das kümmern könnte, wären Leute, die ihre 4090 verkaufen und diese gegen eine 5090 tauschen wollen, weil die dann gegebenenfalls ein paar Euro weniger für ihre gebrauchte 4090 bekämen. Bei Leuten, die gewohnheitsmäßig derart viel Geld für Hardware ausgeben, bezweifle ich allerdings, dass das allzu großen Kummer auslösen würde.
 
  • Gefällt mir
Reaktionen: ThirdLife und Pivi_OWL
Ripcord schrieb:
Wird wohl auf folgendes Szenario hinauslaufen

  • RTX 5080 verkauft sich nach dem Release schleppend, Preis bleibt trotzdem hoch
  • RTX 5090 ist kurz nach dem Release ausverkauft, Händler erhöhen Preise trotz leerer Lager
  • Kunden kaufen nun vermehrt die 5080 dessen Preis jetzt wegen der Nachfrage ebenfalls steigt
  • RTX 5090 werden nun für bis zu 50% über UVP gehandelt über Kleinanzeigen & ebay, während der Einzelhandel keine neue Ware mehr bekommt, da der Großhandel lukrativere Abnehmer gefunden hat.
...

Denke ich nicht - also bei Punkt 1 und 2 würde ich zustimmen (skelper werden es wohl auf die 5090 abgesehen haben und es gibt genug Menschen die so viel verdienen oder Eltern haben die das tun dass ihnen der Preis fast egal ist) - aber dass dann diejenigen die eine 5090 haben massenhaft auf eine 5080 umsteigen halte ich für unwahrscheinlich.
Ein teil von denen wird die Skelperpreise zahlen, ein teil wird warten und ein teil wird sich ggf. eine 4090 holen - die 5080 mit ihren 16GB wird sich primär in überteuerten Fertig-PCs an Leute mit viel Geld aber wenig Ahnung verkaufen und sicher gibt es auch so einige Abnehmer, aber am ende ist sie halt ein schlechter Kompromiss...
 
7800xtx bei 365W und in spielen knapp 2900mhz. Spiele nur PCVR @90Hz/Fps und muss die karte mit UV/OC
noch per Wattman stellenweise unter die Leistungsgrenze drosseln damit es nicht unnötig Über berechnet wird...
Diese grünen sind nur was für FPS Fetischisten die alle behaupten man könnte mehr als 120 FPS sehen...und weil man sich verleiten lies 200Hz + Monitore hinzustellen und diese auch mit dementsprechend FPS versorgen zu müssen... Ich hoffe das der Geldbeutel den Grünen den finanziellen Garaus macht oder wenigstens zum nachdenken anregt. Wenn es dem FanboyUser bei der Ram-Politik nicht selbst kommt...
Popcornhol :stock:

offtopic:
Warum gibts hier keinen Daumen up Button...bräuchte den mal dringend...Ist auch nur hier so:grr:
 
Zuletzt bearbeitet: (Luft machen)
  • Gefällt mir
Reaktionen: p.b.s.
shaboo schrieb:
Da die 4080 an dem Tag EOL war, als sie durch die 1109 Euro teure 4080 Super ersetzt wurde, dürfte wohl eher die als Vorgängerin der 5080 gelten, aber das kann sich natürlich jeder so zurechtbiegen, wie er gerade mag.
Ja, das kann man sich letztendlich auswürfeln. Ich halte es mangels Konkurrenz für eher wahrscheinlich, dass man wieder etwas mehr zulangt. Auch der aktuelle Eurokurs ist wieder so schlecht wie vor 2 Jahren.
Der Umrechnungskurs ist 1:1.
shaboo schrieb:
Du kannst ja mal schauen, ob es tatsächlich auch nur einen einzigen unabhängigen Test der Karte geben wird, der zu Beurteilung des Preis/Leistungsverhältnisses tatsächlich die 4080 statt der 4080 Super heranzieht.
Das Preis-Leistungsverhältnis wird auch nicht anhand des günstigsten Preis der 4090 berechnet werden.
shaboo schrieb:
Zum Zeitpunkt der ersten Tests wird's doch noch gar keine Spiele geben, die DLSS4 unterstützen, von daher ist
fraglich, wie sehr man Performance-Vorteile der 5080 gegenüber der 4090, die nur darauf zurückzuführen sein werden, tatsächlich in den Mittelpunkt wird rücken können.
Es gibt mittlerweile Tools die dir die aktuelle DLL upgraden, oder händisch. Nvidia wird schon mit mit den Entwicklern zusammenzuarbeiten um ihre Features in die Spiele zu bringen.
shaboo schrieb:
Egal, was da im Detail kommt, die Karte wird für 4090-Besitzer vollkommen uninteressant werden.
Denke ich auch.
shaboo schrieb:
Ach, jetzt kommt also plötzlich doch die 4080 Super ins Spiel.
Klar, wenn es um die günstigsten Preise geht, muss das auch bei anderen Karten zulässig sein.
shaboo schrieb:
und von daher ist "nie besonders sinnvoll" Unsinn
Ich rede dort aber von der 5080 und nicht primär von der 4080, da solltest du den kompletten Satz lesen und auch den Bezug zum günstigsten verfügbaren Preis gelesen haben. Denn darum gings.
Dass die 4080 für für den damaligen MSRP von 1199 nicht so weit unterhalb den 1599 der 4090 lag, bestreite ich gar nicht. Da war der Griff zur 4090 schon recht gleichwertig vom P/L. Das hat sich zwar später dann geändert, aber das war natürlich so.
 
Wir bezahlen doch alle viel mehr für eine gpu als wir uns von ein paar Jahren erträumt haben :) Unser Limit ist noch in weiter Ferne
 
Quidproquo77 schrieb:
Ja, das kann man sich letztendlich auswürfeln. Ich halte es mangels Konkurrenz für eher wahrscheinlich, dass man wieder etwas mehr zulangt. Auch der aktuelle Eurokurs ist wieder so schlecht wie vor 2 Jahren.
Der Umrechnungskurs ist 1:1.
Für die 4000er hat Nvidia damals 1€=0,96$ zugrunde gelegt, aktuell sind wir bei 1€=1,03$. Das ist schon noch ein Unterschied. Allerdings fällt der Euro im Moment tendenziell eher, und da Nvidia die Preise regelmäßig anpasst, könnte es tatsächlich bald genauso schlecht wie vor gut zwei Jahren aussehen.
Quidproquo77 schrieb:
Das Preis-Leistungsverhältnis wird auch nicht anhand des günstigsten Preis der 4090 berechnet werden.
Vom günstigsten Preis redet ja auch niemand, sondern vom offiziellen MSRP/UVP, nur eben der 4080 Super und nicht der 4080.
Quidproquo77 schrieb:
Ich rede dort aber von der 5080 und nicht primär von der 4080, da solltest du den kompletten Satz lesen und auch den Bezug zum günstigsten verfügbaren Preis gelesen haben. Denn darum gings.
Mir ging's ausschließlich um dein "Das sind gut 50% Aufpreis für gerade einmal 23-26% mehr Leistung in QHD im aktuellen Parcour. Die 4090 war in der Hinsicht nie besonders sinnvoll ..."

Dass eine 5080 (hoffentlich) deutlich billiger wird, als eine 4090, ist doch logisch und vollkommen normal. Was ist denn da jetzt genau dein Punkt?
 
Die Spinnereien gehen schon los... 32 Stunden vor der CES-Vorstellung

1736097968886.png


Dabei ist der Bertrug so billig. Alle Interessent kennen genau diese Bilder schon aus diversen Foren...
 
kryzs schrieb:
Das denke ich auch, zumindest sollte man sich dann nicht beschweren, naja SLI ist nun doch schon ne weile vorbei und die Strompreise waren damals anders, das Bewusstsein hat sich da schon über die Jahre etwas verschoben, mehr Richtung Effizienz, die neue Challenge sollte sein soviel wie möglich mit sowenig wie möglich, mir wäre es auch lieber wenn noch mehr die Unnötigkeit solcher Grafikmonster ins Bewusstsein rutscht und man ehr geneigt ist die 250Watt Grenze nicht zu überschreiten.

Ich will das keinem "madig" reden, besonders nicht im Bezug auf Arbeit mit diesen Grafikkarten, vor 25 Jahren hätte ich wohl auch noch mit dem Portmonee gewedelt und HIER geschrien. Insgesamt leistet Nvidia schon geniale Arbeit, das man auch mal zugestehen, der Preis ist halt ne andere Sache. Aber es geht auch ohne die Grünen ... ☺️
Du meinst wohl so...
IMG_8545.jpeg
 
shaboo schrieb:
Mir ging's ausschließlich um dein "Das sind gut 50% Aufpreis für gerade einmal 23-26% mehr Leistung in QHD im aktuellen Parcour. Die 4090 war in der Hinsicht nie besonders sinnvoll ..."
Wie gesagt, das war so nicht gemeint.
 
so wer hat schon für seine 5090. ein 1000 watt netzteil schon geholt?
 
  • Gefällt mir
Reaktionen: Ripcord
Wer von einer 4090 kommt, dürfte das wohl häufig bereits haben, und ob Nvidia so viele neue 90er-Käufer wird dazugewinnen können, dürfte maßgeblich vom Preis dieses Schmuckstücks abhängen.
 
Mir ist das ganze Getöse hier ziemlich wurscht. Werde mich, wenn überhaupt an den kommenden Fakten, Reviews und Marktpreisen orientieren und dann entscheiden, ob die neuen GPUs vielleicht eine Option zum Upgrade darstellen könnten.

Alles andere sind ungelegte Eier.

Aber... bissl mehr Power für lokale AI neben Spiele-Performance wäre schon nett.
 
SavageSkull schrieb:
Das Nvidia mit 4.0 um die Ecke kommt, war klar. Die Frage ist doch eher, was das denn genau ist.
Frame Generation bei der 4000er Serie ist ja eher so naja. Wenn die ursprünglichen Frames zu gering, ist das Ergebnis Grütze, sind die ursprünglichen Frames zu hoch, bzw die CPU zu stark ausgelastet, kann es sogar FPS verlieren und die Fake Frames bringen keinen echten Bonus, was eben Input Lag und ein schnelleres Spiel angeht mit, weswegen man ja überhaupt erst mehr FPS haben möchte. Darüber hinaus ist das im Gegensatz zum DLSS Upsampling immer mit Qualitätsverlust verbunden.
FG hat mit bei meiner 4080 bei Alan Wake 2 und anderen spielen sehr wohl geholfen.

Bezüglich DLSS 4 / Neural Rendering -> Laut Inno 3D ein Gamechanger , aber das auf den verpackungen nix dazu drauf ist ist komisch.

Ich glaube nicht das es DLSS4 ist!. Denke das wird was seperates sein.

Nur 5090? dazu ist mir das zu heftig umschrieben.

"Revolutionising how graphics are processed and displayed".

dennoch komisch aber wir werden ja bald sehen :)


1736099513763.png
 
Auf dem Karton meiner 4090 steht unter "Features" auch nur "NVIDIA DLSS", ohne Versionsnummer; das hat erst mal nichts zu bedeuten.

Sollten die bislang gerüchteweise verbreiteten technischen Daten sich bewahrheiten, wären die ja auch erst mal nicht soo wahnsinnig beeindruckend. Von daher können diese Karten jede Unterstützung durch DLSS 4 und Co., die sie bekommen können, auch verdammt gut gebrauchen.
 
Gothic47 schrieb:
Diese grünen sind nur was für FPS Fetischisten die alle behaupten man könnte mehr als 120 FPS sehen...

Vermutlich. Ich hatte weiter vorne schon die Sinnhaftigkeit der kommenden Nvidia-Modelle in Frage gestellt und dazu im Vergleich auf AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer. Denn genau das ist es ja, was AMD i.M. realisiert. Nämlich ihre aktuellen Grafikkarten auf Effizienz trimmen(mehr Leistung + akzeptables Raytracing bei identischem Stromverbrauch, also das Gegenteil von Nvidia). Oder ich interpretiere den Begriff "Effizienz" vollkommen falsch. Stattdessen konfrontiert man mich mit einem Game als Beispiel, was sehr CPU-lastig ist und ein entsprechender Vergleich zur Effizienz-Steigerung einer Grafikkarte folglich unsinnig erscheint. Ansich ok. Aber wäre schön, wenn derjenige dann auch Zugeständnisse macht und jene Deppen, die ursprünglich meinten, mir da schon zwanghaft widersprechen zu müssen und ihm zustimmen, das genauso raffen.

Outward ist ein Kuriosum beim Energieverbrauch. Denn deren Grafikengine scheint ein wenig fehlerhaft zu sein. Wenn man da nicht manuell die Bildwiederholrate auf z.B. 60 fps begrenzt, beansprucht es die maximale Leistungsfähigkeit der Grafikkarte bis auf OC-Niveau und unabhängig vom Grafikkarten-Modell. Dieses Spiel zeigt wunderbar den Stromverbrauch in Abhängigkeit der FPS-Rate und Qualitätseinstellungen(für den Fall, daß es jemanden interessiert und zum testen reizt). Ich habe es auf 1200 Mhz Taktung begrenzt mit einem Stromverbrauch von ca. 120W(für ein derart altes Game schon fragwürdig). Ohne diese manuelle Begrenzung waren es vorher weit über 300W bei nur 1900Mhz, bis ich es wahrnahm. Es überreizte nämlich sogar die von mir voreingestellte Lüfterkurve.

Sollte sich jedoch die 5090'er als Effizienzwunder mausern, wie wohl schon bei der 4090'er von einigen Usern bestätigt, werde ich die vielleicht mal antesten. Auch interessiert mich das neue DLSS4 zum Vergleich.

AMD scheint dagegen noch ein Problem mit DirectX12 Games zu haben, was z.B. bei der 6950'er regelmäßige Freezes provoziert. Dank neuem Netzteil AX1600i kann ich es nun gut kompensieren, was aber letztendlich keine Lösung ist(Spannungsspitzen als Ursache?). Mein Verdacht ist nun, daß wohl deren Adrenalin-Software das Problem zu sein scheint? Aber Nvidia ist da wohl auch nicht so der Hit?

Am Ende wird man trotzdem gezwungen sein, die Grafikkarte zurück zu senden, weil die Chip-Hersteller solche Probleme ignorieren, obwohl die Grafikkarte selber keinen Defekt hat(zu diesem Thema existieren viele Threads, auch hier bei CB).

Und die Game-Entwickler sind auch nicht besser. Wegen deren Bequemlichkeit(oder besser gesagt Faulheit) mutieren ihre Spiele zu regelrechten Performance-Fressern, weil unoptimierter Code oder gar schlampig programmiert. Auf der anderen Seite sind sie wohl die eigentliche Ursache für eine fortschreitende Grafikarten-Entwicklung, selbst wenn Hersteller auf entsprechende Einnahmen gar nicht mehr angewiesen wären und nur aus reiner Gefälligkeit und Gewohnheit für die Gamer brav mit entwickeln(stattdessen Favorisierung von Konsolen). Trotzdem stünde noch immer die Frage im Raum: Wer braucht denn dieses Mehr an Geschwindigkeitszuwachs? Und vielleicht ist das auch der Grund, warum AMD sich i.M. nicht auf ein Performance-Duell mit Nvidia einläßt und stattdessen ein effizienteres Design entwickeln, bis es vielleicht in einigen Jahren Früchte trägt und dann sowieso die Performance zunehmend an Bedeutung verliert? Denn eine virtuelle Realität à la META ist noch in weiter Ferne gerückt und dürfte dann wohl eher CPU-lastig sein.
 
Zuletzt bearbeitet:
p.b.s. schrieb:
Vermutlich. Ich hatte weiter vorne schon die Sinnhaftigkeit der kommenden Nvidia-Modelle in Frage gestellt und dazu im Vergleich auf AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer.
Weil's polemischer Popanz ist. Wer auch in den kommenden zwei Jahren alle Regler - inklusive RT/PT - bedenkenlos nach rechts schieben können und dabei trotzdem konstant seine 60+ oder 100+ FPS in UHD haben möchte, der wird natürlich von der zusätzlichen Power einer 5070Ti, 5080 oder 5090 profitieren; darüber müssen wir ja wohl kaum ernsthaft diskutieren. Da wird man halt mit einer 9070XT nicht glücklich werden. Das alles als überflüssig abzutun, nur weil die eigenen Ansprüche niedriger liegen, ist doch Kindergarten pur.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Einfach mal gucken... wenn das PLV der 5090 hunreichend ansprechend ist, darf sie die 4090 in meiner WS beerben und dort ihre Rechenwerke schwitzen lassen.
Die 4090 ginge dann in meinen Universal-PC; ich unterstelle mal, mit einem 9950X3D an ihrer Seite sollte sie für 2560er-Auflösung noch ein paar Jahre lang auch für Spiele genug Leistung haben...
Wenn sie 5090 zu teuer / zu wenig schneller / zu scalper ist, bleibt die 4090 in meiner WS und der (noch 7950X3D, bald 9950X3D) muß eben mit meiner alten RX7900XTX vorlieb nehmen; hat mir bislang auch zum Spielen gereicht.
 
Zurück
Oben