News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

Nordwind2000 schrieb:
Lieber im Mittelfeld die Kunden abholen und dann mit der RX9000 so richtig ausholen.
Wozu wieder ausholen? AMD würde sich einen großen Gefallen tun, wenn sie die Oberklasse NVIDIA überlasse würden. Die meisten Spieler tummeln sich eh im Einstiegs- und Mittelklassesegment, wenn sie sich da wieder was trauen, kann ihnen die Oberklasse total egal, Hauptsache es kommt Geld rein und man gewinnt Marktanteile. NVIDIA kann dann die Preise hochdrehen wie sie wollen, denn AMD hat dann ihre Sparte gefunden, ein wenig wie MediaTEK. Da schimpfen auch alle in den Foren aber weltweit sind die nicht mehr wegzudenken, dabei waren sie in den letzten Jahren auch weit von Qualcomm und Apple abgeschlagen.
 
pipip schrieb:
Ist ja egal, dann wird es die beliebte 970 GTX als die 980 GTX. (Analogie)

Vllt hat AMD auch mal wieder mit der Radeon 8800 eine gute PreisLeistung GPU, welche 16 GB haben sollte.
Mein "Problem" ist halt, dass ich auf 4K aufgerüstet habe und nun im MSFS2024/2020 mit meinen 16GB VRAM Settings runterdrehen muss, um nicht im VRAM Limit rumzueiern. Ergo bringt mir nur eine GPU mit mehr VRAM was, und da hoffte ich natürlich auf eine 5080 mit 24GB VRAM.

Was ja leider auch nicht funktionieren wird, ist dann einfach eine gebrauchte 4090 holen. Bei den Preisen, die da auf den Plattformen angeboten werden, wird einem ja schwindelig und da ist eine neue Karte tatsächlich mitunter günstiger.
 
LDNV schrieb:
Fordere seit jeher (ja auch wenn es Mehraufwand ist) daher auch - zusätzlich zu Max Out - Benchmarks bei mittleren Details, die dazu wohl für die allermeisten mehr Aussagekraft hätte im Real Betrieb abseits der Enthusiasten Bubble und interessante Erkenntnisse dürfte man daraus wohl auch ziehen... welche Engine wirklich mit den Presets wie skaliert, welche Karten auf einmal doch noch ausreichen uswusf.
Das hast du doch, wenn die Performance für einzelne Spiele getestet wird. In einem GPU Roundup bekommst du das nicht mit rein. Überleg doch mal, wie viele Testergebnisse das sind. Das sind mehrere Hundert bis über Tausend Ergebnisse bei der Vorstellung einer Grafikkarte. Die Redaktion hat meist nur 2-3 Tage Zeit um diese pünktlich zu erstellen. Dazu noch mehrere Durchläufe pro neuer Karte. Da erwartest du ein bisschen viel.
Such dir die Spiele raus, die du spielst und schau dir dort die Performance Messungen an. Da wird auch in unterschiedlichen Qualitätsstufen getestet.
 
  • Gefällt mir
Reaktionen: bensen und LDNV
Das mag im Fall von CB stimmen. Meine Aussage ist eher allgemein gemeint.
 
stereoprologic schrieb:
Bin aktuell nicht so im Thema... gibt's schon Prognosen wie abgefuckt die Preise sein werden?

Zwischen Extrem und Pervers, einfach wählen 🙈

Denke das die 5090 locker an die 3k mit unseren Märchensteuern kratzen wird. 🥴
 
  • Gefällt mir
Reaktionen: Krik
AnkH schrieb:
Ernsthaft? Damit wird eine 5080 immer lächerlicher, warum sollte man sich die 5080 noch kaufen? Wegen den paar FPS, die dann in 4K wegen dem zu kleinen VRAM gleich wieder hopps gehen? nVIDIA at its best, was für ein Haufen...
Seh ich genauso bei der 5070. da kann ich die 4070 auch behalten.
 
LDNV schrieb:
Das mag im Fall von CB stimmen. Meine Aussage ist eher allgemein gemeint.
Ich weiß was du meinst und stimme dir auch zu. Aber ich weiß auch, was für ein Aufwand hinter einem GPU Roundup steht. Das ist irre viel Aufwand und kostet unglaublich viel Zeit.
Nimm mal 2 neue Karten (5080/5090) in 24 Spielen bei 4 Auflösungen und 4 Durchläufen pro Einstellung. Das alleine sind 768 Einzelergebnisse. Dazu noch die weiteren Tests zu OC, Stromaufnahme u.s.w.! Da bist du schnell bei über 1000 und mehr. Dann musst du auch noch schauen, dass du mit den ersten Treibern zurecht kommst ect.! Der Aufwand ist enorm. Wenn du jetzt noch alles mit mittleren Einstellungen testen willst, und dann och wie viele wollen mit Upscaler und ohne und dann noch die Upscaler im direkten Vergleich, weil die sich bei der Auflösung ja auch noch alle unterscheiden (Quality DLSS ist nicht gleich Quality FSR in Sachen Auflösung).... das schafft du nicht in 2-3 Tagen. Wäre wünschenswert, aber logistisch einfach nicht machbar.
Und wenn man im Gegenzug die Spieleanzahl runter dreht, beschweren sich auch wieder alle.

@Taxxor
Leider richtig, gebe ich dir recht. Aber es gibt ja noch andere Seiten im Netz.
 
  • Gefällt mir
Reaktionen: LDNV
FreedomOfSpeech schrieb:
53$ pro Chip bei 100% Yield. 300mm*300mm*pie/20000
Ich würde sagen, je nachdem wie teuer der Wafer (könnten auch 25000 sein) und wie hoch die yield-rate ist, kommt man irgendwo zwischen 200 und 400 Dollar pro Chip heraus.
Die 8% cost reduction von 4N reißen es da nicht heraus, wenn der Chip um etwa 30% anwächst.

Und danach folgt noch der ganze Rattenschwanz bis zur fertigen Grafikkarte.
Unter 600 bis 800 Dollar Fertigungskosten pro GPU wird Nvidia da nicht herauskommen, der Vorgänger wurde ja auf 500 bis 600 Dollar geschätzt, also einer Founders Edition.

Heißt für mich die 5090 wird 100-200 Dollar teurer in der UVP.

https://www.tomshardware.com/news/why-nvidias-4080-4090-cost-so-damn-much

Moritz Velten schrieb:
Wenn es so kommt, wie Du schreibst, wird die GeForce RTX 5080 kaum jemand kaufen.
So wie auch die RTX 4070 Ti 12GB angeblich auch niemand gekauft hat.^^
Die Karte ist auch heute meines Erachtens einer 7900XT vorzuziehen, einfach aufgrund von RT und DLSS in einer beispielhaften (U)QHD Auflösung.
 
Zuletzt bearbeitet:
Krik schrieb:
@Botcruscher
Ich würde die Zielgruppe als Vergleichsgrundlage nehmen, also bspw. welche Chips für den High-End-Gamer und für den Casual-Gamer gedacht sind und die dann miteinander vergleichen. So fliegen dann die Workstation-Grafikkarten raus bzw. bilden ihre eigene Kategorie.
Bei der Zielgruppe liegt ja aber genau das Problem. Workstation und höher sind inzwischen auch eigene Chips die dann spezialisierter sind deren primäre Aufgabe nicht das "typische" rendern von Echtzeitgrafik ist. Die Chips haben extra oder weniger Einheiten. Das Merkmal liegt hier nicht vor. Es ist ein normaler Grafikchip wie der Rest der Consumerprodukte.
Wenn wir bei der Chipfläche bleiben sind die ~600mm² für 100/200er Chips eher das untere Ende mit deutlichen Ausreißern nach oben. Der gute Thermi hatte zb. auch 520 mm² bis in den Mainstream.
 
  • Gefällt mir
Reaktionen: Flaschensammler
OldZocKerGuy schrieb:
Zwischen Extrem und Pervers, einfach wählen 🙈

Denke das die 5090 locker an die 3k mit unseren Märchensteuern kratzen wird. 🥴
Wieso zwischen? Beides zusammen passt eher.
Die Preise sind einfach extrem pervers....
Warum sollte NVidia was daran ändern? Es wird doch eh gekauft.
 
AnkH schrieb:
Mein "Problem" ist halt, dass ich auf 4K aufgerüstet habe und nun im MSFS2024/2020 mit meinen 16GB VRAM Settings runterdrehen muss, um nicht im VRAM Limit rumzueiern. Ergo bringt mir nur eine GPU mit mehr VRAM was, und da hoffte ich natürlich auf eine 5080 mit 24GB VRAM.

Was ja leider auch nicht funktionieren wird, ist dann einfach eine gebrauchte 4090 holen. Bei den Preisen, die da auf den Plattformen angeboten werden, wird einem ja schwindelig und da ist eine neue Karte tatsächlich mitunter günstiger.
Meiner Meinung nach lohnt sich ein Upgrade von 4080 auf 5080 nicht wirklich, für 30 Prozent mehr Leistung (vermutlich) und evtl. 50% mehr VRAM. Dann bist du in 2-3 Jahren schon wieder im Limit, so wie sich MSFS entwickelt. Es sei denn, du möchtest alle 2-3 Jahre eine neue Graka kaufen. Demnach würde ich direkt auf die 5090 setzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Icke-ffm schrieb:
ne gerade alle 4080/4090 nutzer werden wohl zur 5090 greifen, das ist die einzige neue Karte die Ordentlich mehr Hardware hat wie die 4090 beim rest bleibt es ein gleichstand zzgl Architektur und GDDR7 wieviel das bringt werden wir sehen.
Dann bin ich nicht alle. Wegen rund 50% mehr an Leistung rüste ich nicht auf bzw eher sehr sehr selten mal.
 
Pisaro schrieb:
Wegen rund 50% mehr an Leistung rüste ich nicht auf bzw eher sehr sehr selten mal.
Und 50% mehr Leistung wird da denke ich nicht mal bei rum kommen.
Die Skalierung wird noch schlechter ausfallen als von der 4080 auf die 4090, so viel Takt und IPC kann da gar nicht drauf kommen, um das auszugleichen.
 
Botcruscher schrieb:
Wirklich lustig ist eher das Verhältnis der Recheneinheiten. Ich sehe da einen Trend zur wirtschaftlichen "Optimierung".
3070 -> 3090TI Faktor 1.83
4070 -> 4090 Faktor 2.78
5070 -> 5090 Faktor 3.4
Naja, weil es natürlich immer mehr kostet einen größeren Chip herzustellen, als einen kleineren.
Die Hersteller geben die Kosten an die Kunden weiter, täten sie das nicht, würde niemand GPUs in dieser Größenordnung produzieren und entwickeln wollen.

CPUs sind gemessen an der Chipfläche und dem Beiwerk einer GPU (PCB, Kühler, Anschhlüsse, Lüfter etc.) viel teurer, aber die Leute kritisieren immer nur GPU Preise. Verstehe ich nicht.
Schau dir die Preise der Threadripper CPUs an. Die haben auch eine Größe von 850mm² und kosten irrwitzige 9999 Dollar.
Botcruscher schrieb:
Eine hypothetische 5060 mit 20% der Einheitenzahl des Topchips hätte man früher Abfall genannt und die wäre nicht mal als lowend "macht Bild" Karte durchgegangen.
Zwischen 3070 und 3090 Ti liegen rund 70% mehr Leistung laut CB in 4K.
Zwischen 4070 und 4090 liegen rund 80%, also werden zwischen 5070 und 5090 wahrscheinlich 90% liegen, also viel weniger als die reinen Rechenkerne vermuten lassen.

Natürlich könnte Nvidia mehr Speicher auf den kleineren Modellen verbauen, würde aber dann AMD und Intel keine Luft zum Atmen lassen, bzw. sich eigene Margen dann kaputt machen.
Irgendwo muss man AMD auch noch Argumente lassen, ansonsten werden sie kein Interesse mehr daran haben High End Produkte anzubieten.
 
@Botcruscher
Quadros waren auch "nur" Grafikkarten, aber keiner kam auf den Gedanken, die ernsthaft fürs Zocken zu verwenden. Für mich ist eine 4090 und 5090 der Nachfolger der Quadros.
 
Was sind denn die Erfahrungen aus dem 4090 Launch. Wie läuft der Verkauf der FE über NVIDIA ab? Gibt es eine Losung von Kaufoptionen oder muss man Wecker stellen und schnell sein?
 
Krik schrieb:
Für mich ist eine 4090 und 5090 der Nachfolger der Quadros.
Wäre stimmig, wenn es keine Profi Ada und Blackwell geben würde
1734362910696.png
 
Fighter1993 schrieb:
Ah hab vergessen. Die 5090 wird vergriffen sein und dann gehen die die eine brauchen auf die 5080…
Rechnung aufgegangen für NVIDIA.
Ziemlich viel Verschwörungstheorie dabei und nicht wirklich realistisch. Viele, die eine 5090 kaufen wollen werden aktuell schon eine 4090 besitzen und dann nicht einfach auf die 5080 umschwenken. Generell ist deine Hypothese wenig nachvollziehbar.
 
Zurück
Oben