News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

Reicht dann ein 1.000 W Netzteil für die 5090 ?

CPUs liegen wohl bei bis zu 200 W
dazu Mainboard SSDs RAM
 
Und täglich grüßen absurde Watt-Zahlen. Irgendwann braucht ein Netzteil nur für die Grafikkarte, damit man dann 20 FPS mehr hat.
Geht das wirklich nicht anders? Muss doch endlich mal in die andere Richtung gehen?!
Apple konnte es ja auch mit den ARM-Prozessoren. So langsam wird es echt albern.
Zusätzlich kommt dann eine 5080 mit 16 GB raus. Der hätten 24 GB gut getan.
Aber gekauft wird es und wahrscheinlich nicht zu knapp.
Im Umkehrschluss werden die Gamedesigner auch nur noch die Brechstange ansetzen und noch mehr Betas auf den Markt werfen.
 
  • Gefällt mir
Reaktionen: feris, coral81, Tobias123 und 4 andere
Wenn also der Verbrauch wieder deutlich ansteigt, scheint der verbesserte "IPC" allein nicht auszureichen, um einen nennenswerten Leistungssprung zu erzielen. Hier werden gefühlt die Grafikkarten der 4000er Serie durch die Bank mit ordentlichem Mehrverbrauch übertaktet und einfach eine Nummer kleiner in die 5000er Serie umbenannt. Aus einer 4080 S wird also eine 5070 S usw. Dann noch schnelleren VRAM draufgeklatscht mit leider gleicher Kapazität wie bei der 4K Serie (außer der 5090) und schon hat man Karten zu einem Abzockerpreis die kaum Sinn machen.
 
  • Gefällt mir
Reaktionen: Corpus Delicti, Wechhe, NoNameNoHonor und eine weitere Person
bogge101 schrieb:
Ja... Weil kaum einer seine 5090 im Gaming mit 600W rödeln lassen wird. Das wird dann aufs Jahr gesehen ein teurer Spaß.

Problematischer werden dann eher die Lastspitzen. Die sollte aber ein gutes Netzteil abfangen können.
 
  • Gefällt mir
Reaktionen: floTTes
bei der 5080 würden 20 oder 24 gb vram dann mehr sinn machen
zb als gehobene mittelklasse
aber was weiss ich schon...
 
  • Gefällt mir
Reaktionen: w33werner, JackTheRippchen, Ice_Dundee und 2 andere
Bitte nicht eine höhere TDP... Ich wollte doch das Schwitzen im Neubau reduzieren. Hatte eigentlich auf 250 Watt für die 5070 Ti gehofft die sich mit optimistischem UV auf ~200 drücken lassen :/
 
  • Gefällt mir
Reaktionen: anarchie99, Tobias123 und nERdWIN
5060 mit 8GB Speicherausbau incoming. 😬

Generell wäre der Sprung beim Speicher von der 80er auf die 90er echt heftig wenn das so kommen sollte. 16 GB halte ich da definitiv für zu wenig für das hohe Preisgefüge.
 
  • Gefällt mir
Reaktionen: w33werner, JackTheRippchen, Mracpad und 2 andere
Statt Beschweren könnt ihr froh sein das Angebot von Nvidia zu bekommen. Der Gaming Markt ist Peanuts für die. AMD und Intel kommen leider nicht aus den Puschen.
 
Hmmmm...schwierig.

Auf der einen Seite ist der Speichergeiz bei Karten wie z.B. der 3070ti und 4070ti unerträglich, weil die Karten einfach zu früh und ziemlich sinnlos dadurch eingebremst werden. Das ist inakzeptabel.

Auf der anderen Seite trifft NV ziemlich oft "oben" auch den richtigen Wert. Die 20GB oder 24GB der 7900xt/x haben die Kosten der beiden Karten erhöht aber auch bis heute praktisch keinen Mehrwert ggü. der 4080/S gebracht. Gerade wenn man aggressiver im Preis sein muss, muss man die Speicherausstattung schon gut voraussagen. Ich behaupte ein niedrigerer Preis ggü. der 4080 hätte AMD mehr geholfen als die Zusatzspeicher bei den genannten Karten.

Was man auch sagen muss: Die ganz schlimmen Voraussagen in Bezug auf den Speicherverbrauch sind bisher ja auch nicht eingetreten. Natürlich nervt es, dass die Hersteller einem jetzt nicht mehr die Wahl lassen, ob man mit niedrigen Frames aber tollen Texturen 4k spielen will, aber die 8GB-Karten gehen immer noch in FHD, die 12GB Karten in WQHD und in 4K reichen die 16 auch immer noch locker.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Pro_Bro und floTTes
Ich bin schon ein paar Jahre raus aus dem Thema PC-Gaming. Aber 600W TDP (!) für eine Grafikkarte finde ich absolut krank.
 
  • Gefällt mir
Reaktionen: Ituran, coral81, Wedge. und 8 andere
AnkH schrieb:
Ernsthaft? Damit wird eine 5080 immer lächerlicher, warum sollte man sich die 5080 noch kaufen? Wegen den paar FPS, die dann in 4K wegen dem zu kleinen VRAM gleich wieder hopps gehen? nVIDIA at its best, was für ein Haufen...
Also ausgegangen vom aktuellen Preisverhältnis, ist das am Ende nur eine Frage des Budgets. Und die "paar FPS" können dann im Zweifel schon einmal genau die paar FPS sein, die fehlen :P
Bei der 4080 Super und 4070 Ti Super bezahlst du für die 15% Leistung mehr auch etwa 15% mehr. Ist doch okay, solange sich P/L die Hand geben.

Die Spatzen pfeifen es doch seit Monaten vom Dach, dass der "Leistungssprung" eher mager ausfallen wird.

Ansonsten sage ich das, was ich auch zu den Karten mit 12 GB sage: Die aktuellen Konsolen werden uns noch etwa 2-3 Jahre begleiten. Vorher wird mehr VRAM auch eher nicht relevant.
Und wer heute 1000+ Euro für eine Grafikkarte zahlt, der zahlt in 2-3 Jahren auch wieder 1000+ Euro für die nächste Generation. Denn der Witz ist ja: Nicht die Leute, die im unteren Preisregal zuschlagen, kaufe jede Generation neu, sondern die, die in den oberen Regalen wildern ;)
 
  • Gefällt mir
Reaktionen: Brrr, floTTes und ThreepQuest64
Limit schrieb:
Ich vermute schon, dass die 5090 niedriger getaktet sein wird, einfach weil sonst der Abstand zwischen der 80er und 90er doch arg groß wäre.
Keine Sorge, da werden noch eine 5080 Super, 5080 Ti und 5080 Ti Super kommen um die Lücke zu füllen.

Falls AMD wider erwarten doch noch highend abliefern sollte ist nach oben hin auch noch Platz für eine 5090 Ti. Die 5090 wird ja teildeaktiviert sein.
 
Wie bitter eine 70er Garde mit einem 192bit Speicherinterface und 12GB anzubieten. Auf die Preise bin ich echt gespannt, denn die werden die 4000er Riege mit ziemlicher Sicherheit übertreffen. Es wäre auf jeden Fall nichts neues!

Let's start the day with rumors & coffee!
 
Die 5080 schein schon recht "spannend" aufgebaut zu sein... falls die Daten auch stimmen ^^
Speicher-Interface nur 256 Bit
Speichertakt aber 32 Gbps, also doppelt so viel wie die 5090?
nur 16GB Speicher, wo doch jeder und überall jammert dass VRAM zu wenig sei...
aktive Shader mit 10.752 um 50% weniger als die 5090 aber fast gleich auf mit der 5070Ti...

Die 5080 ist scheinbar als Mittelklasse Karte mit Preis einer Highend Karte gedacht?!
Und was die 5090 kosten wird, will ich gar nicht wissen...
Wahrscheinlich ist die nicht mal für 2000€ als Founders Edition zu bekommen!
Dann wahrscheinlich bei ~2500€ bei einer der "guten" Partnerkarten?

Ist schon komplett Wahnsinnige wenn man die Preise sieht!
Vor allem wenn man sich ansieht was das Zeug in der Herstellung kostet...
 
  • Gefällt mir
Reaktionen: ro///M3o
Tja bleibt nur zu hoffen, dass eine 5080S mit 24GB und eine 5070S mit 16GB als Restverwertung kommt.
 
  • Gefällt mir
Reaktionen: JackTheRippchen und Necrosly
5070 Ti für 700€ und ich wäre dabei, das ist so meine Grenze, die ich mir gesetzt habe. Sollte eigentlich für 1440p reichen.
Man wird ja noch träumen dürfen 😁
 
  • Gefällt mir
Reaktionen: MGFirewater, inge70 und aklaa
Aktuell machen die Bezeichnungen keinen Sinn. Als Verbraucher würde ich erwarten das der Abstand zwischen 5070Ti und 5080 größer is als zwischen 5070 und 5070Ti. Wenn man sich die Daten anschaut, wird das eher nicht der Fall sein.
 
  • Gefällt mir
Reaktionen: ro///M3o, Nekkepenn, floTTes und eine weitere Person
Nordwind2000 schrieb:
Und täglich grüßen absurde Watt-Zahlen. Irgendwann braucht ein Netzteil nur für die Grafikkarte, damit man dann 20 FPS mehr hat.
Geht das wirklich nicht anders? Muss doch endlich mal in die andere Richtung gehen?!
Ich denke nein und ja.

Nein: Die Fortschritte bei der Fertigung der reinen Shader werden immer geringer. Da gibt es hier mal 15% mehr Energieffizienz oder 10% mehr Takt. Dazu ist der "Shader an sich" wohl weitgehend ausgereift. Intel macht gerade einen Riesensprung, weil sie an das Niveau der Etablierten herankommen, aber das war dann auch deren letzter +70%-Zuwachs.
Deutlich mehr Leistung geht dann wohl in dem Bereich nur noch mit mehr Verbrauch. Gleichbleibende Leistung - 2080-Leistung z.B. - gibt es dagegen mit ständig sinkendem Verbrauch, hier z.B. mit der 4060.

Ja: Wo der Fortschritt enorm ist, ist mit Fake-Frames und KI-Gemogel. Man kann ja durchaus mit einer UV-7600er mit Upscaling und FG die Frames einer 7800xt erzielen bei rund 1/2 des Verbrauchs. Ob man das als schön oder als Pixelmatsch wahrnimmt ggü. einem "echten" Frame, muss jeder selber beurteilen. Aber das ist wäre der Weg raus aus der Wattspirale.
 
  • Gefällt mir
Reaktionen: ro///M3o und Nordwind2000
Ich habe mit einer 5080 spekuliert, mit nur 16GB hat das einen bitteren Beigeschmack. Aber gibt es Alternativen? Nvidia dominiert den Grafikkarten-Markt.
 
  • Gefällt mir
Reaktionen: tirreG und Darken00
Zurück
Oben