News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

Haaase schrieb:
Das Matschige liegt aber eher an den NV Treibern,
Teils, teils. Die Spieledesigner packen dann halt keine hochauflösenden 4K-Texturen für Objekte in der Spielwelt rein, sondern nur so 512x512 Pixel oder gar noch kleiner, damit die Texturen für die vielen Objekte nicht so viel Speicher belegen. Und / oder sparen sich halt die Vielfalt an Texturen, wodurch alles ein wenig repetitiv wirkt ... Die Komprimierungsalgorithmen tun dann ihr übriges.
 
  • Gefällt mir
Reaktionen: cele
5090 reiß ich dem Ledermantel direkt aus der Hand.
Die Hochleistungskerne der CPU brauchen auch einen würdigen Hochleistungs GPU Chip.
 
  • Gefällt mir
Reaktionen: WhiteRabbit123, Nihil Baxxter und Benji18
sikarr schrieb:
Und Komplexität und Fehlerrate bzw. Ausbeuten zu erhöhen. Ein großer komplexer Chip ist schwieriger Fehlerfrei zu fertigen als ein kleiner. Aber auch Chiplets haben Probleme was dann die verschaltung untereinander angeht.
Klar, aber das ist ja GPU Design, nicht Belichtung. Der Chip der 4080 ist größer und der MCD von RDNA3 wird in N6 gefertigt, was ebenfalls die Kosten drückt.
 
  • Gefällt mir
Reaktionen: sikarr
UVLWheezle schrieb:
Und das ist schlussendlich das worauf es ankommt.
Genau und 1-2 Jahre später schreibt CB wieder dass Spiel da min 16 Gb Brauch und genau diese Käufer echauffieren sich dann. Wir kennen es mittlerweile in der 3ten Runde?
 
  • Gefällt mir
Reaktionen: danyundsahne
belive schrieb:
von amds mieseren treibern ganz zu schweigen
Sagen meistens Personen, die seit Äonen keine AMD Karte nutzen oder sogar nie genutzt haben.

Oder ihren Freund herzaubern, der immer Probleme hat.
Die Hörensagen Blase....

Viele Probleme/Instabilitäten können z.b. vom NT kommen.
Auch wenn eine Nvidia drin für kurze Testzeiträume läuft heißt das nicht, dass es nicht auch die Ursache sein kann (Unterschiede bei Lastwechel/Lastspitzen von AMD und Nvidia Karten?)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und jo0
Ne Nullrunde beim RAM-Ausbau bedeutet für mich ne Nullrunde beim Grafikkartenkauf.
Dabei wird gerade erst Nvidia auch unter Linux interessant.
 
Bierliebhaber schrieb:
Der große Vorteil der Chiplets ist doch gerade die günstigere Fertigung? Mehrere kleinere Chips sind einfach günstiger als ein großer. Sonst haben Chiplets doch eher Nachteile, wenn die Fertigung also auch noch teurer wäre wäre es absurd, Chiplets überhaupt in Erwägung zu ziehen.
ElliotAlderson schrieb:
Gerade deswegen sollte sie günstiger sein. Das war ja der Sinn hinter dem Chiplet Designer. Verschiedene Prozesse für verschiedene Komponenten.
Ja, stimmt. Aber mir schwirrt irgendwas im Kopf, dass es erstmal teurer ist (oder war?), weil es ein neuer Prozess ist und es dann langfristig gesehen günstiger wird. Kann auch sein, dass ich mich komplett vertue.

ElliotAlderson schrieb:
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.
Ja, aber objektiv betrachtet sollte man auch einen umfangreichen mehrwert davon haben. Und den hat man meiner Meinung nach nicht, wenn das hier und da mal drin ist. Und dann gibt es auch noch Software Lumen, was auch nicht schlecht ist und @Quidproquo77 bei Until Dawn auch mal verwirrt hat.
1728558493583.png

Wenn man nur Cyberpunk oder andere RT spiele spielt, dann kann man damit argumentieren.
Wenn du aber z.B. 10 Spiele im letzten Jahr gespielt hast, davon aber nur 2 RT haben und die auch nur 40 Std. oder so gespielt hast, verpufft doch das Argument mit der RT-Performance ins leere... Raster Performance ist das, was man braucht. RT-Leistung ist ein netter Bonus.
 
  • Gefällt mir
Reaktionen: daknoll
jo0 schrieb:
Ja, stimmt. Aber mir schwirrt irgendwas im Kopf, dass es erstmal teurer ist (oder war?), weil es ein neuer Prozess ist und es dann langfristig gesehen günstiger wird. Kann auch sein, dass ich mich komplett vertue.
Das trifft auf Nvidia genau so zu. Nvidia nutzt einen angepassten 5 nm Prozess, welcher also nochmal teurer ist. AMD nutzt die Standardvariante von TSMC. Der Chip der 7900 XTX ist auch noch ein ganzes Stück kleiner, was sich ebenfalls im Preis widerspiegelt. Nvidia ist also gar nicht so teuer, wie es behauptet wird. Klar sind die Karten grundsätzlich zu teuer, aber das liegt meiner Meinung nach nicht an Nv/AMD. Die geben die gestiegenen Kosten nur weiter und addieren ihren Gewinn noch oben drauf.

jo0 schrieb:
Ja, aber objektiv betrachtet sollte man auch einen umfangreichen mehrwert davon haben.
Was wieder subjektiv ist und das kann man nicht bewerten. Du magst recht haben, dass RT noch nicht vollends verbreitet ist, aber für mich war es ein Kaufgrund, wenn nicht sogar der Hauptgrund. Du siehst also, dass ich das nicht einfach ausschließen kann.
 
cele schrieb:
Also kaufen, um zu sparen! Dass ich da noch nicht selber draufgekommen bin!
Das habe ich so nicht gesagt und ich denke du weist auch wie es gemeint war. Natürlich sollte ein Kaufwunsch da sein, aber desto länger du wartest (also Genereationen) überspringst desto weniger wir deine aktuelle Karte Wert sein. Dadurch wird dein Aufrüsten halt immer teuerer.

Wenn ich meine aktuelle RTX40 jetzt verkaufe kann ich mit dem Geld gut den kauf einer RTX50 unterstützen und muss weniger neues Geld ausgeben. Aber wer kauft heute noch eine 1080 oder 3070, verstehst du wo ich hin will?
 
Zum glück gibt es Cloud Gaming Microsoft, und man kann jedes spiel, spielen. Und man braucht sich keine Sorgen um die Hardware machen. Einfach einen Fernseher mit Internet und Controller und man spielt die spiele, so ist es billiger.
 
Corpus Delicti schrieb:
Und 1 Kilo Federn ist leichter als 1 Kilo Eisen. 😉
Bitte Zitiere das nächste mal auch den vorläufigen aber noch dazugehörigen weiteren Satz von mir und reiße es nicht aus dem Zusammenhang. Dann würdest du vielleicht merken, dass dein Kommentar absolut keinen Sinn ergibt.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
mojitomay schrieb:
Ne Nullrunde beim RAM-Ausbau bedeutet für mich ne Nullrunde beim Grafikkartenkauf.
Dabei wird gerade erst Nvidia auch unter Linux interessant.
Irgendwie macht das aber auch hinsichtlich lokaler KI-Nutzung (bspw. Stable Diffusion, Flux, Chat-LLM) keinen Sinn, den VRAM nicht auszubauen und die CUDA-Kerne einem größeren Nutzungsbereich zu öffnen. Also zumindest, wenn dieses Feld im Heimbereich bedient werden soll.

Andererseits würde das aber auch den Monetarisierungs-Bestrebungen der "AI"-Firmen entgegenstehen, die ihre Hardware ebenfalls bei Nvidia einkaufen oder diese zumindest per Cloud-Nutzung mieten.

Oder es läuft auf dedizierte KI-Prozessoren hinaus, von denen aber aktuell auch wenig sichtbar ist.

Gibt schon ein paar mehr offenen Punkte, als nur die Gaming-Relevanz.
 
Ausgezeichnete Neuigkeiten!
Bei ner 16GB 5080 laesst sich meine 4090 24GB sicher noch sehr gut verkaufen. Dann kann ich eher mit 1300+€ rechnen. :)
 
ayngush schrieb:
Ich bin schon oft zwischen NV und AMD Karten gewechselt, und jedes mal beim Wechsel von AMD auf NV ist mir das Problem mit den Texturen untergekommen. Keine Ahnung ob man diese "Optimierungen" ausschalten kann, da ich mittlerweile AMD bevorzuge... ja auch wegen der Treiber.
 
cbmik schrieb:
Sagen meistens Personen, die seit Äonen keine AMD Karte nutzen oder sogar nie genutzt haben.

Oder ihren Freund herzaubern, der immer Probleme hat.
Die Hörensagen Blase....
Ich hatte weit mehr amd karten als nvidia. aber gut du hören blase du. warum sollte ich das sagen wenn es nicht zutrifft was bringt das für mich?
 
OpticalFiber schrieb:
Zum glück gibt es Cloud Gaming Microsoft, und man kann jedes spiel, spielen. Und man braucht sich keine Sorgen um die Hardware machen. Einfach einen Fernseher mit Internet und Controller und man spielt die spiele, so ist es billiger.
Nützt nur leider nichts, wenn ich ein durch Mods individuelles und vor allem lokales Spiel-Erlebnis haben will.
 
belive schrieb:
Nvidia hat das effektivere Speichermanagement, das ist soviel ich weiß auch heute noch so.
belive schrieb:
das meiste darunter reine Spekulationen.
Sicher ist die Einschätzung spekulativ, aber es würde halt Sinn ergeben. Es ist halt schwierig aus einem Mittelklassechip 7900XTX Performance zu pressen.
Dafür wurde der nicht entwickelt..
belive schrieb:
du bist der einzige der tatsächlich meint die gpu preise seien niedrig.
Ja, das AMD Topmodell gibt's für mittlerweile deutlich unter 900, gestern auf Mindfactory für 799 mit satten 24GB.

Im Vergleich zu 2020 bis 2022 ist das schon Recht günstig. Abgesehen von der 4090 ist das Recht attraktiv.
 
Quidproquo77 schrieb:
Nvidia hat das effektivere Speichermanagement, das ist soviel ich weiß auch heute noch so.
JA aber wird das auch aufn Rdna 4 zutreffen das wissen wir ja nicht :).

Mit mining zeiten die preise zu vergleichen ist ja nicht sonderlich fördernd, denke ich.
 
OpticalFiber schrieb:
Und man braucht sich keine Sorgen um die Hardware machen.
Dafür dann ums Internet.
Vigilant schrieb:
Irgendwie macht das aber auch hinsichtlich lokaler KI-Nutzung (bspw. Stable Diffusion, Flux, Chat-LLM) keinen Sinn, den VRAM nicht auszubauen und die CUDA-Kerne einem größeren Nutzungsbereich zu öffnen. Also zumindest, wenn dieses Feld im Heimbereich bedient werden soll.
Wer sagt das du als Heimanwender das sollst? Die CoPilots haben eine NPU dafür und wenn du es Professionell einsetzen willst dann kauf gefälligst eine Quadro oder Tesla.
 
12 GB macht schon Sinn, wir hatten 8 GB von der GTX 1070 bis zur RTX 3070. Da müssen also noch mindestens zwei Generationen nach der 4070 mit 12 GB kommen.
 
Zurück
Oben