News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

Welch Enttäuschung. Ja, der Speicher dürfte ja wohl keine Mangelware sein.
 
Wird GeForce gerade eigentlich nicht nur am leben gehalten um ein weiteres Standbein zu haben, falls AI Beschleuniger nicht mehr laufen sollten?
Nvidia würde die Wafer doch ehr viel lieber dort nutzen wollen.

Warum hier dann den Käufern was gönnen? ;)
 
kachiri schrieb:
Schon einmal daran gedacht, dass eigentlich genau DAS dass Problem ist. NV wird halt keine "billigen" KI-Karten auf den Markt werfen, wenn man gerade DAMIT aktuell richtig gut Geld im B2B scheffelt.

Am Ende wird eh wieder NV gekauft. Denn egal was AMD in den letzten Jahren gemacht hat - gebracht hat es nicht viel. Nicht einmal RDNA2 hat nennenswert Marktanteile gebracht und das obwohl man hier tatsächlich mit Ausnahme der RT-Leistung quasi in allen Disziplinen das bessere Produkt hatte...
Es ist nicht egal was AMD macht. RDNA2 hat keine nennenswerte Marktanteile geholt, weil zu dieser Zeit der Miningboom ausbrach. Es wurde alles gekauft was da war und da hatte Nvidia bei Samsung mehr freie Kapazitäten übrig, als AMD bei TSMC. Auch gehört es dazu nicht nur eine gute Generation zu bringen, sondern auch schon vorher zu antizipieren, dass man eine gute Generation bringen wird und entsprechende Menge an Wafer zu bestellen. Die HD5870 und HD5850 war so ein guter Wurf. Man konnte aber gar nicht so viel liefern, wie nachgefragt wurde. Die HD5800-er Karten waren lange Zeit schlecht lieferbar. Wenn man nicht liefern kann, kann man halt keinen Marktanteil steigern. Man muss aber auch zugeben, dass es schwierig ist, im Voraus zu sehen, dass man aktuell grade dabei ist eine Super-Generation zu entwickeln und das der Konkurrent da vermutlich nicht mithalten wird und das man deswegen doch mehr Wafer bestellen sollte.

https://www.computerbase.de/2024-09...hd-5870-als-erste-grafikkarte-mit-directx-11/

https://www.computerbase.de/2024-09...-hd-5850-als-bezahlbarer-directx-11-einstieg/
Ergänzung ()

kachiri schrieb:
AMD hat aus meiner Sicht mit RDNA3 mehr als gezeigt, dass man inzwischen auf Marktanteile scheißt, wenn sie nur Geld kosten.
Das für AMD Marktanteile wichtig sind, am liebsten so Richtung 40 Prozent, weil man nur mittels Marktanteilen auch die Spieleentwickler mitnehmen kann auch für AMD zu optimieren, habe nicht ich gesagt, sondern AMDs Chef der Grafikabteilung. Aber natürlich sollte so was kein Geld verbrennen, deswegen ist ja die neuste Strategie sich im Mainstream breit zu machen, statt teure High-End-Produkte zu entwickeln. Und wenn man mit einer RX8600 mit 16 GB im Mainstream und mit einer RX8800XT optional auch mit 32GB-Ausstattung im Performance-Sektor man sich Marktanteile holen kann, dann sollte AMD das machen. Die Karten mit doppeltem Speicher verkaufen sich ja für mehr Geld, also verbrennt man mit so einem Produkt kein Geld, holt sich aber den einen oder anderen Käufer.
 
Zuletzt bearbeitet:
Convert schrieb:
Das für AMD Marktanteile wichtig sind, am liebsten so Richtung 40 Prozent, weil man nur mittels Marktanteilen auch die Spieleentwickler mitnehmen kann auch für AMD zu optimieren
Das machen die Konsolen schon, wobei ich nicht weiß wie weit das greift auf dem Pc da eine Konsole trotzdem etwas anderes ist auch trotz Amd Hardware.
 
Die Konsolen helfen, aber gegen unzählige Notebooks mit Nvidia-GPU haben auch die Konsolen keine Chance auch nur annähernd auf 40 Prozent Marktanteil zu kommen. Wenn dem so wäre, würde der hohe AMD-Mitarbeiter diese Zahl nicht als Ziel ausrufen.
 
paganini schrieb:
Äh nein, eine 7900XTX hat eine RT Leistung einer 4070Ti. Eine 4070ti hat aber nicht die RT Leistung einer 3090. also ist die 3000er Serie nicht „geschlagen“ denn da müsste die 7900XTX besseres RT haben als eine 3090, hat sie aber nicht
Diese Benchmarks (auf CB gibt es welche mit ähnlicher Aussage, die habe ich nicht sofort gefunden - ein Link reicht aber ja im Prinzip) bescheinigen der 7900 XTX RT-Fähigkeiten auf 3090/3090 Ti-Niveau:

https://www.techpowerup.com/review/xfx-radeon-rx-7900-xtx-magnetic-air/33.html

Ja, okay, "geschlagen" ist Ampere so technisch gesehen nicht. Aber wenn wir schon Wortklauberei betreiben: Doch, Navi 31 XTX besitzt eine der RTX 3090 gleichwertige RT-Leistung.
 
  • Gefällt mir
Reaktionen: JarlBallin
SKu schrieb:
Das würde ich stark anzweifeln. 8K hat die vierfache Pixelanzahl im Vergleich zu 4K zu befeuern und die 4090 ist teilweise schon bei 5120x1440p überfordert - erst recht mit Pathtracing.
Eine Produktpositionierung bedeutet nicht, dass ein modernes Raytracing-Spiel mit maximalen Details mit hohen Frameraten und in nativer Auflösung spielbar sein wird. Eine 5080 mit nur 16 GB wäre aber deutlich schlechter für 8K ausgelegt.
 
Sollte das Gerücht stimmen wäre das wirklich traurig, ich hoffe das die 5070 zumindest mit 16GB ausgeliefert. Sollte dies nicht der Fall sein, kann man nur hoffen das möglichst wenige Menschen diese Grafikkarte kaufen und bekannte Streamer vom Kauf abraten.
 
Dass Gerücht scheint sich ja zu bestätigen nach den Updates.
RTX 5070 mit nur 12GB.
Dass ist ein Witz.
Die Karte wird doch mindestens so Schnell wie eine RTX4080.
Und eine RTX4080 ist schon über 300% schneller als meine RX6800 nonXT 16GB.
(Hier sieht man eine XT, meine ist nonXT also langsamer)
RTX 4080 300% faster then RX6800.jpg

Und meine Karte Profitiert schon von mehr als 12GB Vram in 1080p in Star Citizen.
Also eine 300% schnellere RTX 5070 mit nur 12GB Vram wird total abschmatzen.
Star Citizen 14Gb Vram RX6800.jpg
 
  • Gefällt mir
Reaktionen: Mcr-King
Mit Resident Evil 4 geht der Speicher inkl. Hintergrundkrinte auch auf ca. 14-15GB Belegung.

Nighteye schrieb:
RTX 5070 mit nur 12GB.
Dass ist ein Witz.
Die Karte wird doch mindestens so Schnell wie eine RTX4080.

Und da muss man dann gucken, ob es zu Nachladerucklern kommt.

Naja, kann man ja erwägen, die Generation wieder zu überspringen, gerade wenn man eh für eine XX8Xer 1000 Goldtaler und mehr zahlen darf.

Und auch auf der 4080 läuft RE4 zu 99% über 100FPS im CPU-Limit bis in den Limiter von 171.

Leistungsmäßig könnte sich die neue Gen. mehr für Unreal-Engine-Grafikh*ren-Spiele lohnen, besonders falls man bei Framegen die Artefakte nicht wegbekommt.
 
Nighteye schrieb:
Dass Gerücht scheint sich ja zu bestätigen nach den Updates.
RTX 5070 mit nur 12GB.
Dass ist ein Witz.
DAS ist dann die neue, von Nvidia empfohlene, Karte für Gaming in FHD 😆.
Sollte noch, gerade so, passen 😄
 
  • Gefällt mir
Reaktionen: Mcr-King, Cinquedea und Nighteye
DagdaMor schrieb:
DAS ist dann die neue, von Nvidia empfohlene, Karte für Gaming in FHD 😆.
Ja dass sind immer die besten die sowas sagen nur um Nvidia gut zu reden.
Ohne witz gestern im PCGH Forum haben wirklich leute so Argumentiert.
Zitat: "RTX 70er sind nur für FHD"
Meanwhile, RTX 4080 in BF2042 in 3K und 4K fps.
RTX 4080 3K and 4K BF2042.jpg

Und die RTX 5070 mit gleicher Rohleistung hat nicht mal genug Vram für 1080p je nach Spiel.
 
  • Gefällt mir
Reaktionen: Mcr-King
ElliotAlderson schrieb:
Gerade deswegen sollte sie günstiger sein. Das war ja der Sinn hinter dem Chiplet Designer. Verschiedene Prozesse für verschiedene Komponenten.
Nein, der Sinn dahinter ist der höhere Yield.
Das Packaging ist wesentlich teurer logischerweise.
ElliotAlderson schrieb:
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.
RT ist nur dann wichtig, wenn es performed. Wenn die Framerate um die Hälfte einbricht ist es eine Krücke... In einem faced paced game, geht das gar nicht in einem langsamen Story Game verschmerzbar.
ElliotAlderson schrieb:
Nein, aber ich würde auch nicht den Gamingbereich durch AI subventionieren. Wieso sollte das irgendjemand tun? Ist doch Quatsch.
Gaming ist Gaming und AI ist AI. Wer denkt, dass ne 4090 unterhalb von 1500€ für Nvidia noch wirtschaftlich wäre, der ist auf dem Holzweg. Ich bezweifle ganz stark, dass Nv pro Karte einen Reingewinn von 500€ macht. Der wird wesentlich niedriger sein.
Nö, wird er nicht. Sonst würden die AiB Karten nicht mehr als der UVP kosten, weil die wollen auch etwas vom Kuchen abhaben. Und die subventioneren nicht Gaming, sondern DLSS etc fällt halt auch für Gaming ab. Aber entwickelt wurde das nicht für Gaming.
ElliotAlderson schrieb:
Und? Was hat das eine mit dem anderen zutun. TSMC wurde mit jedem Prozess teurer. 90nm lagen damals bei $2000 und heute zahlt man $20000 für 3nm. Meinste das wird bei den Prozessen dazwischen anders sein? Die lassen sich ihr Monopol bezahlen und AMD/Nv gibt es weiter.
Komisch, daß Intels Fertigung noch teurer ist... bzw. Intel damit Miese macht. Warum läßt Intel bei TSMC fertigen? Sicher nicht, weil sie herzensgute Menschen sind und denen etwas abgeben wollen. Sondern weil a) der Prozess günstiger ist b) der Prozess besser ist, als was Intel zur Zeit hat. Jedenfalls a) weil sonst würde es wirtschaftlich keinen Sinn machen und vermutlich b).
Ergänzung ()

JMP $FCE2 schrieb:
Wann gab es je Grafikkarten, bei denen man einfach die Details bei zu ihrer Zeit aktuellen AAA-Spielen auf Anschlag drehen konnte, und trotzdem noch 120 fps bekam ?
Immer dann, wenn die Konsolengeneration sich ihrem Ende zuneigt. Wenn du schon resettest, dann resette auch den Zeitgeist. Was heute 120fps sind waren früher 60fps.
Ergänzung ()

ElliotAlderson schrieb:
Umsatz Datacenter: 22,6 milliarden USD.
Umsatz Gaming: 2,6 milliarden USD.
Da steht nix von der Gewinnmarge dabei.
Deswegen sage ich immer, ob die da 2.6 mrd machen oder nicht, ist vollkommen Banane.
Das ist übrigens nicht nur Gaming, das sind auch die ganzen Axxx aka ex Quadro Karten.
Gaming macht noch weniger aus und fällt überhaupt nicht ins Gewicht.
Ergänzung ()

gartenriese schrieb:
1. Ja, ich bin schon sehr auf RDNA4 gespannt und hoffe, dass sie da die Lücke etwas verkleinern können.
2. Deswegen spiele ich auch momentan keine Spiele mit Pathtracing, weil ich erst eine bessere Grafikkarte dafür haben möchte. Ich will keine Kompromisse eingehen was Grafik angeht.
Du wirst weiterhin Kompromisse eingehen müssen. Selbst wenn die RT Leistung von RDNA4 an die 4000er Karten heranreicht ist das imho noch viel zu lahm. Bei nvidia wirst Du noch zusätzlich VRAM Kompromisse eingehen müssen außer Du willst wirklich $2500 für eine 5090 ausgeben :) Oder Du gibst dich mit einer 5070 hüstel 5080 mit 16GB zufrieden, die dann ein Jahr später eine 5080 Super mit 24GB wird. 🤣
Ergänzung ()

paganini schrieb:
Und das auf 4000er Niveau? 😂 vlt schaffen die ja mal das 3000er Niveau zu erreichen 😏
kommt drauf an, mal knapper mal nicht. Auf jeden Fall soviel mehr, daß Sony damit zufrieden war. Es sieht ja auch nicht danach aus, als ob nvidia von 4000 auf 5000 viel drauflegen würde ausgenommen die 5090.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
Um mal zu klären ob 12gb vram reichen nun das ist komplizierter als viele denken
Spiel engines sehen nur den gesamten verfügbaren ram im System und windows gibt dann bei 12gb vram und 32gb systemram mit Auslagerung Datei frei einstellbar bis zu 64gb ram an
Und genau das sieht die engine
Der Treiber kann dann die daten verwalten wo wann was hingeht amd lädt daten primär in den vram dann ram zuletzt von der HDD SSD nvidia geht da anders vor
Zuerst werden die daten in den ram geladen komprimiert und in den vram geladen das kostet cpu Leistung
nvidia Hoffnung das man mit direct storage die daten in der gpu zu komprimieren nvidia nennt das rtx direct io
Das geht prinzipiell bei allen rtx gpu muss aber min 10% mehr Speicher haben als geladen wird. Damit reduziert sich das cpu limit.
bedingt aber das die daten im vram entpackt werden. Das wird dann ab der rtx60 gen auch umgesetzt
Es macht für nvidia keinen Sinn früher und mit weniger als 21gb vram gpu diese Technik einzusetzen obwohl das geht.

Das gute ist sobald wird es aber keine Probleme mit 12gb sku geben bis nvidia das umstellt.
rtx50 2025 ganzes lineup mixed Fertigung (tsmc n4x +samsung sf4) ab 12gb bis 32gb
rtx60 2027 nur high end ab 21gb bis 36gb (tsmc n3)
rtx70 2029 mixed portfolio mit apu intel colab ab ddr6 48- 256gb 4gb hbm dgpu ab 96gb nur titans (unklar was intel 16a oder tsmc a18)
jeweils immer Januar

Gpu werden zu Sammler Objekten ab der rtx60 gen ich kaufe nur noch eine nvidia gpu und das ist noch unklar wie nvidia diese designt

rtx5060 wird vermutlich zu langsam sein ne rtx5070 braucht zu viel Strom und die rtx6080 (21gb +- doppelte rtx4080 perf 230w) wäre ideal aber teuer.
Das wie bezieht sich auf die tbp die sm menge ist relativ klar da man nicht anders die chips cutten kann.

Daher ist die frage nur rtx4070 oder rtx5060ti mit grob 200w tbp was realistisch ist nur ob die kommt ist unklar sicher ist nur das der samsung sf4 node schlechter in der Effizienz als tsmc n4 ist etwa 25%
Bleibt die frage was kann die ps5 pro denn, den daran muss man sich richten
60cu 2,2ghz 14gb effektiven vram Nutzung +- 23tf
bedeutet es muss min ne rx8800xt (2,9ghz 28tf 250w) sein oder ne rtx4070 22,5tf 12gb 200w
leider wird es keine adäquaten ersatz geben man wird darüber sein mit mehr tbp oder deutlich darunter

rtx5060 +- 15tf 160w 32sm 12gb viel zu langsam verglichen zur ps5 pro ab 2026 Probleme mit games in 1080p über 30fps zu kommen
rx8700xt +- 190w bei gerade mal 17tf nenn hauch zu langsam (n44 3,1ghz 16gb) maxed 35fps in 2026
rtx4070 ideal könnte reichen bis 2027 und dann mit 45fps in limits zu kommen
rtx5070 kaum schneller als die rtx4070 bei gleichen verbrauch aktuell 50sm 24tf +-50fps 2027
rx8800xt ideale sku aber der verbrauch ist das problem 250w 28tf 16gb 55fps 2027
rtx4070ti super perfekte sku bis 2027 bis 60fps stabil zu haben in 1080p 33tf
rtx5070ti 14gb 200w ideale sku aber teuer (750€) +-34tf unklar ob diese kommt Tendenz nein

Darauf folgt
rtx6080 1000€ grob doppelt so schnell wie die rtx4080 mit 230w tbp 80sm a256alu per sm 21gb +-78tf

Dann aber sind apu Systeme die einzige option oder gebr ne rtx4090 die aber dann massiv im preis fallen den die apu maxed Ausbau 112cu 3,0ghz mit 8+8 Kern cpu inklusive 4gb hbm ab 600€ maxed 250w tdp 2028 diy board ram apu ab 850€
Pc ab 1100€ von System Integratoren mit 32gb ram (+-115tf)
ich rechne mit gebr. rtx4090 um die 400€ 2028 rum
Die entry apu wird 80cu 2gb hbm haben mit grob 42tf 180w tdp für 290€ ab q1 2027 erste gen apu auf am6
Kisten ab 500€ board cpu ram, Si preise ab 800€

Das amd alles auf apu setzen wird steht sicher high end wird nur für ai gebaut ab rdna5, udna wird keine desktop dgpu mehr geben

Was nvidia mit intel plant ist offen dazu gibt es nix.
 
Nighteye schrieb:
Die Karte wird doch mindestens so Schnell wie eine RTX4080.
Und eine RTX4080 ist schon über 300% schneller als meine RX6800 nonXT 16GB.
Sorry, aber das ist hochgradiger Blödsinn, den Du da schreibst, eine RX 6800 (in etwa auf Leistungsniveau einer RX 7700XT oder minimal dahinter in neueren Titeln, aber mit 4 GB Speicher mehr) ist per Rasterizer nur 60% langsamer in Full HD als eine RTX 4080 und 71% langsamer in WQHD, siehe CB Grafikkarten Rangliste:

1728615638956.png


1728615702210.png


Und im Raytracing ist der Leistungsunterschied natürlich größer mit 103% in Full HD und 122% in WQHD Auflösung (aber dazu kauft man sich auch primär keine RX 6800, sondern um damit möglichst lange (wegen der verbauten 16GB) preis-leistungstechnisch gut unterwegs zu sein und Spiele spielbar und primär Spielspaß und nicht Grafikblenderei zu haben ohne irgendwelche, oft durchwachsen implementierte Sonder-Grafikmätzchen wie RayTracing, geschweige denn PathTracing) aber weit entfernt von 300% Mehrleistung und selbst mit Deinem rosinengepickten Benchmasrk-Vergleich sind es nicht 300% Mehrleistung, vielleicht noch einmal nachrechnen ;):

1728615953080.png


1728616086364.png

Zudem wurde von Tom/Moore's Law Is Dead in etwa RTX 4070Ti Leistungsniveau bei einer RTX 5070 12 GB kolportiert, also noch nicht einmal RTX 4070 Ti Super 16 GB Leistungslevel, und ob diese damit eine RX 8800XT 16GB RDNA4 Grafikkarte von AMD übertrumpfen wird (außer vermutlich beim Raytracing in 4.Generation, bei AMD werden es erst 3 Generationen RayTracing mit RDNA4) bleibt abzuwarten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
DagdaMor schrieb:
DAS ist dann die neue, von Nvidia empfohlene, Karte für Gaming in FHD 😆.
Sollte noch, gerade so, passen 😄
Richtig und deswegen werde ich sie mir holen. Die 12GB sind zwar schon arg wenig ABER da ich die nächsten Jahre eh auf FullHD bleiben werde kann ich ruhig in den sauren Apfel beißen und diesen Speicherkrüppel kaufen.

Ich hoffe nur, dass der geringere Speicher auch zu geringeren Preisen führt...

Die RTX 6080 SUPER oder wie auch immer der Refresh der nächsten großen Nvidia-Generation heißen wird dann meine Karte mit der ich direkt auf 4K springen werde ;)
 
Cinquedea schrieb:
Ich hoffe nur, dass der geringere Speicher auch zu geringeren Preisen führt...
Aktuell werden bis zu 699 US$ für eine RTX 5070 mit nur 12 GB kolportiert plus 19% MwSt, so dass Du mit einer vermutlich schnelleren und mit 16GB bestückten RTX 4070 Ti Super (für mittlerweile unter 800 Euro) wohl besser weg kommen könntest (bevor diese vom Markt verschwindet bzw. wieder teurer wird) oder Du wechselst zu AMD und bekommst da vermutlich mit RDNA4 sowieso auch 16GB bei ähnlicher Leistung für i.d.R. spürbar weniger Geld.
 
@Chismon Die 4070 Ti SUPER hat aber keine modernen Blackwell Tensor-Kerne und DLSS 4. Das ist der Knackpunkt.

Wenn die 5070er mir zu unattraktiv erscheint wird halt auf dden Refresh der 5070er gewartet. Ob das dann eine Ti oder non-Ti wird wird dann ad hoc entschieden.
 
Es wird keinen refresh von blackwell geben da schlicht es sich nicht lohnt amd hat komplett die kampf aufgegeben und konzentriert sich auf apu in der nächsten arch bei entry und mid class gpu.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben