News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

_Lukas_ schrieb:
Wer das Kleingeld für ne 5090 hat kann sich auch gerade noch 15kwp PV aufs Dach zimmern lassen 😂
Hab zwar nicht das Geld für ne 5090,bezahl aber nur Rund 30€ Strom hier in Kolumbien für einen 3 Personen Haushalt...lol.
Und meine 1080TI mit offenem Powerlimit säuft sometimes 300W.
 
Moritz Velten schrieb:
Wenn es so kommt, wie Du schreibst, wird die GeForce RTX 5080 kaum jemand kaufen.

Super, dass Nvidia wieder einen Ladenhüter produziert :rolleyes:
Mir ist schon bewusst, dass sich die wieder gut verkaufen lässt. Aber Verkaufszahlen sind für mich kein Gradmesser für die Güte eines Produkts, ansonsten wäre unerklärlich, warum weltweit soviel absoluter Schrott verkauft werden kann. Oder andersrum: zum Glück ist mir relativ egal, was die breite (dümmliche) Masse kauft, wenn ich das Produkt Schrott finde, kaufe ich es nicht und äussere mich auch entsprechend. Ich komme sicher nicht hier hin und behaupte, Produkt XY sei gut, nur weil es sich wie geschnitten Brot verkauft.
 
Fighter1993 schrieb:
Diese Gen zu überspringen wird wohl seit Langem Pflicht für viele 4090 Besitzer.
ne gerade alle 4080/4090 nutzer werden wohl zur 5090 greifen, das ist die einzige neue Karte die Ordentlich mehr Hardware hat wie die 4090 beim rest bleibt es ein gleichstand zzgl Architektur und GDDR7 wieviel das bringt werden wir sehen.
die 5090 wird aber deutlich mehr auf die 4090 zulegen wie die 5080 auf die 4080 und wenn die wirklich mit 32GB Vram kommt werden viele Nvidia user der RTX2/3x sich weimal überlegen nochmal nvidia zu kaufen, erstrecht wenn AMD die RT Leistung einer 4070ti wirklich erreicht
 
Wirklich lustig ist eher das Verhältnis der Recheneinheiten. Ich sehe da einen Trend zur wirtschaftlichen "Optimierung".
3070 -> 3090TI Faktor 1.83
4070 -> 4090 Faktor 2.78
5070 -> 5090 Faktor 3.4

Eine hypothetische 5060 mit 20% der Einheitenzahl des Topchips hätte man früher Abfall genannt und die wäre nicht mal als lowend "macht Bild" Karte durchgegangen.
 
  • Gefällt mir
Reaktionen: onkel_axel und Icke-ffm
  • Gefällt mir
Reaktionen: DerRico
NVIDIA ist doch einfach nur noch Überzogen,wer dort kauft und diese Machenschaften unterstütz?
Haut rein !!
 
@Botcruscher
Das darf man so nicht rechnen, da die 4090 und die kommende 5090 eigentlich Workstation-Grafikkarten sind. Die sollte man nicht mit den Gamer-Grafikkarten vermischen.

Und ohne die dann sähen die Verhältnisse so aus:
3070 -> 3090 - Faktor 1,78
4070 -> 4080 - Faktor 1,65
5070 -> 5080 - Faktor 1,68
Das passt ungefähr.

Nachtrag:
3060 -> 3090 - Faktor 2,93
4060 -> 4080 - Faktor 3,16
5060 -> 5080 - Faktor ?

Es ist halt das Upselling und das Marketing, was einem anderes suggeriert.
 
Ich finde das mit den 16 GB schon eng bemessen. Es müssten schon drölfzig Millionen GB sein!!!1! Mindestens!!1!

Wir haben kaum 16 GB als neue Marke etabliert (AMD vor einer Generation, Nvidia erst diese(!) Generation), schon wird 32 GB verlangt oder es wird davon geredet, dass 32 GB auf einer 5090 nicht mehr ausreichen.
Herrlich. Wem die 32 GB nicht ausreichen, sollte wohl eher überlegen, ob er in der Gamingsparte von Nvidia überhaupt richtig ist.

Ich freue mich schon auf die Reaktionen, sollte sich AMD anmaßen, auch nur 256-bit Bus mit 16 GB Speicher für RDNA4 aufzufahren. Weil sollen ja nur Mittelklasse Karten werden.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Recharging
Krik schrieb:
Das darf man so nicht rechnen, da die 4090 und die kommende 5090 eigentlich Workstation-Grafikkarten sind.
Nicht offiziell. Offiziell werden sie als Consumer Karten verkauft. Auch wenn sie sehr sehr .... sehr viele eben für Workstation Anwendungen nutzen.

Innocience schrieb:
32 GB auf einer 5090 nicht mehr ausreichen.
Das sind dann diejenigen die dann selbst nur 16 oder 32GB Ram (nicht VRam) im System haben. Denen sind dann 32GB auf der GPU zu wenig. :freak:
 
Botcruscher schrieb:
Eine hypothetische 5060 mit 20% der Einheitenzahl des Topchips hätte man früher Abfall genannt und die wäre nicht mal als lowend "macht Bild" Karte durchgegangen.
Früher war aber auch ein Top Chip nicht so groß.
 
  • Gefällt mir
Reaktionen: Wilfriede und Quidproquo77
AnkH schrieb:
Ernsthaft? Damit wird eine 5080 immer lächerlicher, warum sollte man sich die 5080 noch kaufen? Wegen den paar FPS, die dann in 4K wegen dem zu kleinen VRAM gleich wieder hopps gehen? nVIDIA at its best, was für ein Haufen...
Ist ja egal, dann wird es die beliebte 970 GTX als die 980 GTX. (Analogie)

Vllt hat AMD auch mal wieder mit der Radeon 8800 eine gute PreisLeistung GPU, welche 16 GB haben sollte. Die 5070 RTX hat 12 GB und das dürfte bei RT etwas bremsen im Vergleich zur 5070 RTX.
 
Falls die genannten Eckdaten von Computerbase, die derzeit nur Gerüchte sind, sich bestätigen sollten, dann gehe ich davon aus, dass sich lediglich zwei Karten verkaufen werden.

Die 5090, weil es viele Menschen gibt, denen das Beste gerade gut genug ist. Da brauchen wir auch nicht auf Deutschland oder Europa schauen, die wichtigen Märkte sind Nordamerika und Asien.

Die 5070TI, weil sie die Brot-und-Butter-Karte von Nvidia sein wird. Aber auch das funkioniert nur, wenn Nvidia für RTX 5000 exklusiv richtige Killer-Features wie DLSS4 oder FG2 anbietet.

Für die anderen Karten sehe ich jetzt schon keinen Markt mehr, zumindest in Europa.
 
Bis jetzt schaut meine Aufrüstung so aus. Ryzen 9700x, 32 Gb ram, und die neue 5070TI, ich warte gespannt.
 
Taxxor schrieb:
16GB sollten es für 1440p schon heute sein um sich keine Gedanken machen zu müssen.

Stand heute würde ich sagen ist die 4080 ne gute WQHD Karte, genau wie die 4070Ti.
Die 4070Ti S(uper) hat 16 GB verbaut, das normale/Vanilla RTX 4070Ti Modell kommt nur mit knappen 12 GB bestückt (als ehemalig geplante RTX 4080 12GB).
 
@Jan
Wo bleibt der Test zur 4060, Bildvergleich wenn der VRAM droht vollzulaufen soll die Karte schlechtere Texturen nachladen!
Oder dürft ihr das nicht wegen NDA Auflagen? Fürchtet ihr dass ihr dann keine Testmuster bekommt?
 
Ich weiß gar nicht was sich alle aufregen über die neue RTX 5080.

bei mir steht "Gerüchte zu Nvidia Blackwell" als Überschrift.

Und nicht das sind die neunen Spezifikationen der "Blackwell Generation" .

So lange da Nvidia selbst dazu nichts auf ihrer HP hat, glaub ich eh nicht´s.

Sind nur Spekulatius mehr nicht, schmecken echt lecker mit Mandeln drauf und nem Pott heißem Kaffee dazu :)
 
  • Gefällt mir
Reaktionen: Dreamcatcher3
Icke-ffm schrieb:
ne gerade alle 4080/4090 nutzer werden wohl zur 5090 greifen, das ist die einzige neue Karte die Ordentlich mehr Hardware hat wie die 4090 beim rest bleibt es ein gleichstand zzgl Architektur und GDDR7 wieviel das bringt werden wir sehen.
die 5090 wird aber deutlich mehr auf die 4090 zulegen wie die 5080 auf die 4080 und wenn die wirklich mit 32GB Vram kommt werden viele Nvidia user der RTX2/3x sich weimal überlegen nochmal nvidia zu kaufen, erstrecht wenn AMD die RT Leistung einer 4070ti wirklich erreicht
Ich werde wohl zu gar nichts greifen. Egal wie teuer sie schließlich wird - eine 5090 werd ich mir nicht leisten WOLLEN - ganz unabhängig vom können. Und ist abseits der Leistung auch absolut uninteressant von den Specs her. Über 300w - UV hin oder her, bei über 1k Kosten bin ich nicht bereit zu.

Bis 1k mit um 300w bin ich noch bereit. Vielleicht auch etwas mehr wenn man es mit der alten Karte entsprechend verrechnen kann.

Demnach wird es wenn überhaupt auf eine 5080 hinauslaufen (4080s verkaufen + max 1k) aber selbst das nicht wenn der Leistungssprung nur 15-20% ist. Dann könnte vielleicht noch die Software Features eine Rolle spielen. Da mir aber auch schon das aktuelle DLSS qualitativ reicht (auch mit Luft nach oben) wird wohl auch das nicht zwingend ein "Muss ich haben" Gefühl auslösen. Wenn es zum "Super" Release dann wieder eine 5080 für 1k gibt (also so wie jetzt die 4080s) wäre das vielleicht eine Option, und die jetzige landet dafür im Zweitrechner.

Daher, mal schauen wie sich alles entwickelt :)
Abgesehen davon sterbe ich auch nicht wenn ich hin und wieder ein paar Regler bedienen muss.
In Story Games reichen mir stabile 60, bei MP Titeln gerne 100 da ich ab da den Sprung noch merke und schön finde. FPS Cap ist eh immer bei 120 trotz 165hz Monitor.

Ganz allgemein möchte ich aber gar nicht über die Preise meckern, da bei vielen der Anspruch das Problem ist. Solche Kommentare wie der "Besserverdiener" kommen zustande weil wir inzwischen einfach viel zu verwöhnt sind.
Ist keine Früher war alles besser (war es nicht) Keule, aber früher war es ganz normal das ein neues Spiel auf Max Details lief wie grütze und man es erst mit einer neuen Graka so richtig genießen konnte.

Die Leute haben verlernt Regler zu schubsen, DLSS & Co bestärken das nur. Da wird statt Regler zu schubsen DLSS angeworfen und gut ist.

Und ja: zum Teil mache ich das auch so. DLSS Q ist quasi Standard bei mir, weil es meist gut aussieht, mehr FPS gibt oder im FPS Cap Strom spart. Und ja ich freue mich auch wenn ich die Regler einfach rechts lassen kann und gut ist, insbesondere nach dem Kauf einer neuen Karte.

Aber ich sterbe auch nicht wenn ich mich mal 10 Minuten mit dem Game beschäftigen muss, ein paar Regler schubsen muss um zum mir gewünschten Ergebnis zu kommen.

Ich hatte bis vor kurzen die 6700 XT im Hauptsys, die jetzt ins zweit System gewandert ist. Und davor noch eine Vega 64. Ich weiß also durchaus wovon ich rede, auch wenn ich jetzt eine 4080 habe ;)

Die Leute wären überrascht wie lange Grakas auf einmal halten können und das sogar ohne große Optische Einbußen hinnehmen zu müssen solange es nicht zu weit nach Links geht ;)

Aber logisch, wenn man immer das neuste Spiel mit 1000 FPS und Pathtracing abspielen können muss, dann ist es in der Tat ein Hobby für besser Verdiener, nur sollte man nicht vergessen das man sich den Anspruch dann selbst gesetzt hat - aber nicht der Standard ist.

Fordere seit jeher (ja auch wenn es Mehraufwand ist) daher auch - zusätzlich zu Max Out - Benchmarks bei mittleren Details, die dazu wohl für die allermeisten mehr Aussagekraft hätte im Real Betrieb abseits der Enthusiasten Bubble und interessante Erkenntnisse dürfte man daraus wohl auch ziehen... welche Engine wirklich mit den Presets wie skaliert, welche Karten auf einmal doch noch ausreichen uswusf.

Persönlich kauf ich mir immer dann eine neue Graka wenn ich entweder Bock auf basteln habe oder es aber wirklich dieses eine Spiel gibt was für mich nicht mehr gut genug zum laufen gebracht werden kann.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Innocience, Dreamcatcher3 und eine weitere Person
Krik schrieb:
@Botcruscher
Das darf man so nicht rechnen, da die 4090 und die kommende 5090 eigentlich Workstation-Grafikkarten sind. Die sollte man nicht mit den Gamer-Grafikkarten vermischen.
Warum? Wollen wir GT200b mit dem gleichen Chip der 60er wie beim Topmodell ansetzen? Wollen wir Chipfläche nehmen?
Nur weil der Markt durch mehr Chips beackert wird? Der Abstand ändert sich einfach relativ zwischen Spitze und dem Rest.
Als Vorschlag hätte ich noch Preis zur relativen Leistung zwischen allen Karten. Wohlwissend, dass die Einsteigergurke heute so viel wie die Performancekarte vor ein paar Jahren kostete.
 
@Botcruscher
Ich würde die Zielgruppe als Vergleichsgrundlage nehmen, also bspw. welche Chips für den High-End-Gamer und für den Casual-Gamer gedacht sind und die dann miteinander vergleichen. So fliegen dann die Workstation-Grafikkarten raus bzw. bilden ihre eigene Kategorie.
 
Zurück
Oben