News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

1728528530994.png

Ergebnis der wccftech Umfrage.
 
frames p. joule schrieb:
Könnte ich mit leben, VRAM wird überbewertet, allerdings finde ich 250W für eine 70er viel schlimmer.
Sorry aber kann nicht 10 Jahre immer sagen 12gb reichen, ja die reichten irgendwann, für das meiste reichten die auch noch 2024 nicht alles aber das meiste, (reden von Settings die Mittelklassekarten) bringen.

Aber wenn jetzt schon ne 4070 der Flaschenhals der VRAM ist, ist doch logisch selbst wenn die Spiele nicht einfach nach und nach immer mehr verbrauchen würden auch bei niedrigeren Settings, ist doch logisch das du ne z.B. 30% schnellere GPU höhere Settings einstellen kannst und bei höheren Settings steigt der Speicherverbrauch, selbst bei alten Spielen wo bei der 4070 vielleicht noch 12gb grad gereicht hat.

Die Ausrede "ich kauf mir eh jedes / j. zweites Jahr ne Neue" funtzt nimmer bei der 3. Gen wenn wir die Super dazu zählen die mit 12gb kommt.

Naja im Luftleeren Raum spiet das natürlich keine Rolle, aber die werden ja nicht die Karte billiger oder auch nur gleich teuer wie die 4070 oder 4070 super heute Kostet anbieten, die Frage ist also für welches Spiel reicht die 4070 (Super) nimmer wo die 5070 reicht und der Ram nicht aus geht.

Klar das kann Nvidia eventuell dadurch lösen wenn nimmer viele 4070 im Handel wären, aber dann muss man fragen hält AMD komplett die Füße Still und kann man quasi ne Art Zwangs-kaufs-monopol errichten.

Es sieht nicht danach aus, wenn man teurer wird, wird sie schon gegen die 7800xt oder gar 7900xt nen schweren Stand haben, aber man kann noch sich einbilden das RT eben besser ist, nur wie weit will man da mit 12gb kommen nicht sehr weit, zumal die 7900xt da sicher sich auch nicht so verstecken braucht wenn wir in die Preisregionen kommen.

Aber die 8xxx Gen adressiert doch genau das, RT soll deutlich besser werden Preise vermutlich eher so zwischen 7800 und 7900xt und auch an K.I. Upscaling wie DLSS wird heftig gewerkelt, vermute das da auch schon bis zur CES Messe was kommt.

Das kann Nvidia am Arsch vorbei gehen im Highend, aber bei der Karte eben nicht. Vielleicht setzen sie ja auf irgend so ein Move das in allen vorgefertigten PCs besonders bei Mediamarkt nur Nvidia verbaut wird... mit irgendwelchen Unterstützungsgeldern, klar wäre für Nvidia auch kein riesen Problem wenn deren Midrange mal ne weile komplett floppen würde und AMD in dem Sektor den Boden kehrt, aber das ist nicht Nvidia die spielen immer auf totalen Sieg, jegliche überall fast 100% Marktanteil darunter geht bei Nvidia nichts.

Naja mal schauen vielleicht verschenkt man dann die 4070, an sich ists ja gut aus meiner Sicht weil es eben ein riesen Opening für AMD gibt, aber für Nvidia Kunden kann man es schwer schön reden, aber schon klar gibt Diehards die alles verteidigen würden.
 
Laphonso schrieb:
wccftech Umfrage.
wccftech ist allerdings auch so die Bild des Technologiesektors. Und die Kommentare da.. recht irritierende Trolle zum Großteil. Also denen würde ich keine Glaubhaftigkeit schenken.

Zum Thema: 12GB als "genug" würde mMn. heißen, die 5070 würde keine (oder recht begrenzte) 4K Karte, was mir etwas komisch vorkommt. Es gibt jetzt schon einiges an Spielen, die 10GB bei 4K voraussetzen oder es wird rucklig. Die nächste Generation mit 12GB wäre dann so WQHD Gelände.

Das wäre dann aber etwas ernüchternd, die 4080 mit 16GB ist eigentlich eine ordentliche 4K Karte, und ich meine doch eine 5070 sollte einer 4080 ebenbürtig sein, oder?

Naja, abwarten und Tee trinken.
 
  • Gefällt mir
Reaktionen: schneeland
Nihil Baxxter schrieb:
Aber ich habe so gar keine Ahnung von Wirtschaft, vermutlich würde AMD dann mit dem Preis runter gehen NV müsste dann wieder nachziehen und eine solche Abwärtsspirale... also nach unten... also die kann ja jetzt wirklich niemand wollen...
Ich denke nicht das AMD das jucken würde, die müssen ja GPUs bauen ob nun Desktopkarten oder Notebookkarten gut gehen oder nicht, sie können nicht Notebooks ohne IGP verkaufen und noch wichtiger die Konsolen...

Daher würden die auch nicht aus Grafikkarten aussteigen wenn sie 0% hätten sie würden halt dann nur solche an Firmen verkaufen mit mehr Vram für K.I. und so.

Bis zur nächsten oder übernächsten Generation, Grafikkarten ist nicht deren Cashcow... aber es ist ein unverzichtbarer Teil für AMD sonst hätte man den Kauf von ATI damals auch sein lassen können, und das sie gar nicht so schlecht sind wie alle hier immer sagen, sieht man an Intel die mit ihrer vor weniger Jahren noch extrem prall gefüllten Kriegskasse da komplett am Boden liegen und nicht mal mehr zum Selbstkostenpreis deren Karten will.

Was ich jetzt gehört habe ist das man jetzt die Professionellen großen K.I. Chips mit Desktopkarten verbindet oder gemeinsam nutzt, "unified" zumindest bei den Highendkarten, damit könnte man eventuell auch wieder mit Nvidias Highend konkurrieren das ging von der Hardware auch jetzt schon, nur halt dank Chiplet recht teuer und dank noch problemen bei Software würde es dann eh niemand kaufen.

Daher macht man jetzt halt in dem Segment grad ne Pause, ein Abschied bei Grafikkarten ist nicht in Planung, zumal die Realität ja eh nicht das her gibt was du vorschlägst sondern eher das Gegenteil, man macht ne große Tür für AMD grad auf...
 
  • Gefällt mir
Reaktionen: hans_meiser
Wenn die Preise bei Nvidia steigen und das werden sie zweifellos, dann wäre das ein richtiger Arschtritt Move!
Jetzt mit AI sollten schon mehr drun sein!
Dass eine 7 jährige 1070 mit 8gb VRAM noch so gut schlägt, Wahnsinn.

Firefly2023 schrieb:
Ja, genau, völlig wertfrei.
4000 Beiträge in 1 Jahr, alle wertfrei! Immer nur provozieren und blau/grün loben.
Ergänzung ()

Laphonso schrieb:
Wundert jetzt aber nicht wirklich oder?
Ob man eine 5090 kauft oder nicht, das Spitzenmodell will man sehen!
 
Naja, bei der 70er hat es ja auch von der 1070 bis zur 3070 nur 8GB gegeben, daher könnte ich mir vorstellen, dass die 70er zumindest bei der 50xx noch bei 12GB bleiben wird. Sollte für die Zielauflösung WQHD aber auch ausreichen.

Die 80er mit 16GB wird wohl ebenfalls dabei bleiben, ist ja erst seit der 4080er so... und die 90er, da reichen auch die 24GB...

Mich interessiert eher, was die mit der 60er dann veranstalten werden, da die 4060 zwar wie die anderen 40xx Karten sehr effizient ist, aber seit der 2060 gibt es nur noch marginale Leistungssprünge sowie nur noch PCIe x8... da waren die 2060 Super und die 3060Ti wahrscheinlich zu ihrer Zeit zu gut gewesen...
 
AMD sollte als Konter dann einfach ne "Midrange" Karte auf 7900er Niveau bringen, aber mit 32 GB Speicher und damit das komplette Mittelfeld abgrasen.
 
Naja, ich kaufe mir die 5090 nur, wenn ich die 4090 noch gescheit verkauft bekomme... wenn mir Nvidia mit der 5080 die Gebrauchtpreise der 4090 zu weit drückt (gleicher Ramausbau / Leistung), dann behalte ich die 4090 und Wechsel in 1-2 Gens wieder zu AMD.

Bei AMDs neuen MoBos/Chipsätzen habe ich es bereits entschieden, können ihren dämlichen USB 4 Quatsch behalten... im Vergleich zum x670e Master wirken die mit Linesharing verpfuschten x870 MoBos nur erbärmlich im Bezug auf M.2 Steckplätze/Anbindung.
 
1728535615393.png

Quelle:
 
drago-museweni schrieb:
Wär typisch Nvidia, würde mich mal interessieren warum die immer so knausern mit Speicher als würde der soviel kosten, AMD ist da nicht so geizig.
Ganz einfach damit du öfter neue Karten nachkaufst.
 
  • Gefällt mir
Reaktionen: v3locite und Laphonso
Rock Lee schrieb:
Die Schafe bekommen, was sie verdienen.

Ich frage mich immer ob z.B. in nem Auto Forum auch Leute als Schafe betittelt werden, wenn sie sich die Max. Ausstattung für ihren Neuwagen auswählen...
 
drago-museweni schrieb:
Wär typisch Nvidia, würde mich mal interessieren warum die immer so knausern mit Speicher als würde der soviel kosten, AMD ist da nicht so geizig.
Weil es offensichtlich trotzdem gekauft wird. Der Kunde entscheidet in welche Richtung der Markt sich bewegt.
 
Altes Lied von nVidia.

Dass nVidia vor allem bei der "uninformierten" Käuferschaft punktet, geh ich mittlerweile nicht mehr mit.
Ich glaube nicht mehr dran, dass der Markt für GPUs im Media Markt oder sonstigem Einzelhandel so groß ist.
Dort schwätzt der "uninformierte" Verkäufer dem Kunden natürlich das teuerere nVidia Modell auf.

Aber das macht das Kraut nicht fett.

Upselling hat bei nVidia die letzten Generationen hin gut funktioniert.
Aber so langsam spürt man etwas "Sättigung" beim Kunden.

Viele Bekannte sagen mittlerweile - Ihnen reicht die aktuelle GPU - (3000/4000er Reihe).

So geht´s mir auch.

Bin mit der RX 6800 komplett zufrieden und werde auch keine GPU mehr kaufen >600 €

Ins Grübeln komme ich bei ...
  • RX 7900 XTX Leistung
  • RX 6800 Verbrauch
  • 16 oder mehr GB Speicher
  • max 450 € Preis

Dann würde ich vermutlich kaufen und weiter empfehlen.

Sollte die neue Gen so kommen .... 5070 mit 12 GB ... dann bleibts eben liegen.
 
domian schrieb:
Nö, urban legend
Das in einigen wenigen Spielen die Texturen oder ähnliches automatisch gesenkt werden wenn zu wenig VRam vorhanden ist ist ein Fakt, keine Urban Legend.
 
Dann kann sich ja die 8900XTX mit einer 5070 12GB VRAM messen 😂
 
Putzig :D
Der "Kampf" zwischen AMD und Nvidia-Fans ist ja mittlerweile wie bei den Apple- und Androidjüngern.
*Duckundweg
 
Wird auch nur gemacht weil es keine Konkurrenz gibt. Will man mit KI rumspielen, muss man 30 % mehr ausgeben nur weil man wenigsten die 4 GB mehr VRAM haben will. Aber eigentlich will man schon 24 GB VRAM, mit dem 5070 Chip. Das wäre die Perfekte Karte für mich.

Mich würde es auch nicht wundern wenn Nvidia die 5070 mit 8 GB ausstattet und sagt wie Apple, das reicht doch für alles die 8 GB entsprechen 16 GB bei der Konkurrenz :D

Finde es wirklich grausam, da der VRAM vielleicht 10-15 % der Kosten ausmacht. Und man nicht nachrüsten kann.
 
Zurück
Oben