News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

belive schrieb:
wer hat das gesagt
Öhm ... AMD? :D

Ich nehme an, dass @daknoll etwa solchen Unsinn meint, wenn du offenbar gar nicht verstehst, was du zitierst Oo
belive schrieb:
Das weißt du nicht
Da hast du technisch gesehen recht, das ist Spekulation von @jo0 ...
belive schrieb:
auch wird ada in eine 5nm spezial fertigung gefertigt, das kostet wohl auich etwas. Aber wie viel oder was wissen nur die intern.
... aber du konterst ja selbst mit Spekulation. Auch hier muss gelten: "Das weißt du nicht", wie du es ja selbst formulierst. Es ist sogar gut möglich, dass Nvidia aufgrund der höheren Stückzahlen weniger bezahlt. Und jetzt?
belive schrieb:
Wenn juckt die Vergangenheit? was jetzt ist. wann hat die 4080 mehr als 400€ mehr gekostet als eine xtx? strix mit der billigsten xtx verglichen oder was.
Die UVP zum Marktstart lag etwa 300 € auseinander. Ich nehme nicht an, dass vergleichbare Modelle einmal 400 € auseinanderlagen, aber dennoch war der Abstand zu manchen Zeitpunkten recht groß.
belive schrieb:
mist eher fakt lol aber amd fanboys können es nicht zugeben. lmao
Ich mache diese Erfahrung ebenfalls nicht. Es tut mir leid, dass du das tust. Es gibt aber Leute, die dasselbe von Geforces sagen können. Kleiner Hinweis: Deine Lebenswirklichkeit ist nicht zwangsläufig repräsentativ. Die Froschperspektive eignet sich nicht für derlei Schlussfolgerung.
belive schrieb:
günstiger irrelevant weil die 4080 viel mehr bietet für den Aufpreis.
Subjektives Werturteil, das du als Fakt verkaufen möchtest. Manchem mögen die Vorteile das Geld nicht wert sein.
belive schrieb:
stromanschluss gebe ich dir recht ich hasse die ada stromstecker, aber auch das macht man einmal.
Das kommt auf den Anwender an. Ein Vorteil bleibt es, kein Grund zur Relativierung.
belive schrieb:
cool also wusste gar nicht das ich hier nicht so kommunizieren darf wie es andere überall tun. viellicht sollte cb die regeln erweitern weil du das willst.
Ich hoffe im Sinne deines allgemeinen Wohlergehens, dass du so wie hier nicht überall kommunizierst.
belive schrieb:
cool ich bin nvidia fanboy mit einer 7800xt.
Du äußerst dich wie einer. Welche Grafikkarte du im Einsatz hast, ändert daran nichts.
belive schrieb:
wenn schon bin ich ps5 fanboy^^
Genauso peinlich.
belive schrieb:
wohl gescheiter.💔
Ich nehme an, du meinst "gescheitert"? An dem Versuch, dich zu belehren, sind das sicherlich schon viele andere.

Kann es übrigens sein, dass du hier als Nutzer mit Namen keepsmiley5750 schon einmal angemeldet warst? Nur so nebenbei ...
 
  • Gefällt mir
Reaktionen: Nihil Baxxter, Xul, A.Xander und 3 andere
danyundsahne schrieb:
Mit diesem Downsizing hat NV mit der RTX40 Serie begonnen und wird mit RTX50 scheinbar direkt so weitermachen.
Intel hat auch seine 8 und 10 Kerner CPUs für > 1000 Euro verkauft. Ganz ehrlich das mussten sie auch, ansonsten wäre AMD pleite gegangen. Und so wird die 5070 sehr wahrscheinlich der Gegner der 8800XT.

Dann heißt es vermutlich wieder:

12GB (13,5GB effektiv) gegen 16GB
Bessere Effizienz gegen schlechtere
Vergleichbare Raster Performance
Mehr RT Performance bei Nvidia
Bessere Features bei Nvidia
Ähnlicher Preis, minimal mehr bei der 5070, die günstiger zu fertigen sein dürfte

Wenn diese Gerüchte stimmen, dann wird die RX 8800XT ähnlich zur 7900XT wie damals die RX 480 zur Fury X stehen, sprich langsamer.
danyundsahne schrieb:
Wie offensichtlich muss das für manche denn noch gemacht werden, damit man endlich mal aufwacht?
Was soll man denn machen? AMD kann ihre RX 8800 XT auch nicht für einen Appel und nen Ei verkaufen. Und irgendwo ist es auch logisch weniger Shader zu verbauen. Das hat man schon bei 4080 vs 4090 gesehen. Rund 30 bis 35% Mehrleistung bei >60% Shader.
danyundsahne schrieb:
Sowas kann man doch nicht gutheißen und am Ende auch noch NV mit einem Kauf dafür belohnen?!
Steht jedem frei zur Konkurrenz zu greifen, aber da kann ich dir ziemlich sicher vorab versichern, dass du auch mit mehr für dein Geld bekommst.
danyundsahne schrieb:
Und da soll auch Navi41 grob liegen. Ob der dann 8800XT oder 8700XT heißen wird, dazu gibt es noch keine genaueren Details.
Die GPU ist ein Playstation Derivat, wie schon Polaris es gewesen ist. Die wird weder an eine 4080 noch an eine 7900XTX rankommen. Eher 4070 Super oder 7900XT.
 
heroesgaming schrieb:
.. aber du konterst ja selbst mit Spekulation
welche spekulation meinst du jetzt genau ? :)

heroesgaming schrieb:
wenn juckt die uvp heute noch?

heroesgaming schrieb:
Ich mache diese Erfahrung ebenfalls nicht
Das freut mich für dich.

heroesgaming schrieb:
Ich hoffe im Sinne deines allgemeinen Wohlergehens, dass du so wie hier nicht überall kommunizierst.
ok boomer
heroesgaming schrieb:
Du äußerst dich wie einer.
wenn du das so siehst hast du wohl alle kritik an nvidia absichtlich überlesen.
heroesgaming schrieb:
Ich nehme an, du meinst "gescheitert"? An dem Versuch, dich zu belehren, sind das sicherlich schon viele andere.
das ist dermaßen peinlich da du offensichtlich dieses Wort gar nicht kennst. :lol: :freak:
 
ElliotAlderson schrieb:
Das war ja der Sinn hinter dem Chiplet Designer.
Und Komplexität und Fehlerrate bzw. Ausbeuten zu erhöhen bzw. zu veringern. Ein großer komplexer Chip ist schwieriger Fehlerfrei zu fertigen als ein kleiner. Aber auch Chiplets haben Probleme was dann die verschaltung untereinander angeht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson
sikarr schrieb:
Wirklich sparen tust du so oder so nicht, du verschiebst halt einfach nur den Zeitpunkt der Ausgabe + das auch noch evtl. Preissteigerungen drauf kommen, ich glaube nicht das sich das in naher Zukunft ändern wird.
Also kaufen, um zu sparen! Dass ich da noch nicht selber draufgekommen bin!
Vielleicht sollte ich wieder fernsehschauen oder den Adblocker deinstallieren, bin werbetechnisch einfach nicht mehr auf dem Laufenden.
 
  • Gefällt mir
Reaktionen: -equal-
Feierbiest schrieb:
Der Markt kann nur regeln wenn es a) Wettbewerb gibt und man Marktanteile verlieren könnte oder b) ein Rückgang der Verkäufe sich auf den Umsatz und den Gewinn des Unternehmens auswirken würden.

Beides ist aktuell leider nicht der Fall.

dann fragt dich mal wieso das so ist?
Was war damals mit der Rx6000 Serie vs RTX 3000 da hatte AMD deutlich das bessere Preisleistungsgefüge und dennoch war der Umsatz bei Nvidia besser.

Der Nvida Käufer will es so
 
Quidproquo77 schrieb:
12GB (13,5GB effektiv) gegen 16GB
:lol: was? das meiste darunter reine Spekulationen. dude was zahlt dir nvidia so etwas habe ich selten gesehen. du bist der einzige der tatsächlich meint die gpu preise seien niedrig. Das sieht nvidia wohl auch so.
 
belive schrieb:
welche spekulation meinst du jetzt genau ? :)

wenn juckt die uvp heute noch?

Das freut mich für dich.

ok boomer

wenn du das so siehst hast du wohl alle kritik an nvidia absichtlich überlesen.

das ist dermaßen peinlich da du offensichtlich dieses Wort gar nicht kennst. :lol: :freak:
Meine Güte ... du kannst nicht lesen, willst nicht verstehen oder aber bist ein Troll.

Welcome back, keepsmiley5750 :D
 
  • Gefällt mir
Reaktionen: cbmik und schiz0
@Affenbrotmann @Svennc
Für weitgehende Generationenvergleiche finde ich die Tabellen hier hilfreich:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/32.html
https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

Benji18 schrieb:
Rx6000 Serie vs RTX 3000 da hatte AMD deutlich das bessere Preisleistungsgefüge und dennoch war der Umsatz bei Nvidia besser.
AMD war (wie so oft seitdem) genauso wenig lieferbar, weil sie chronisch zu wenig bei TSMC bestellen.
Deswegen ist in der Zeit sogar ihr Marktanteil gesunken.

Erst 2 Jahre nach dem Mining Hype gab es die die 6800XT und 6900/6950 als gute Angebote für 500 / 650€. Nur blöd das man dann bereits gegen RTX4000 antreten musste und auf einmal war man Konkurrenz im eigenen Hause. Die 7900er haben so viel mehr gekostet wie sie schneller waren und die 7800XT war gleichauf bei minimal besserer Energieeffizienz. Wo bleibt da der Fortschritt?

Team Radeon schafft es verlässlich kaum ein Fettnäpfchen auszulassen. Ich versteh es nicht warum sie bei Grafikkarten nicht wie bei Ryzen agieren.
Kann nur schlussfolgern, dass der Chiplet Ansatz bei Radeon 7000 voll in die Hose gegangen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Svennc
heroesgaming schrieb:
Meine Güte ... du kannst lesen, willst nicht verstehen oder aber bist ein Troll.

Welcome back, keepsmiley5750 :D
? also statt die Frage zu beantworten kommt du mit so etwas und willst ernst genommen werden?

keepmsmiley? was?

Gut dann lassen wir das.
 
  • Gefällt mir
Reaktionen: jo0
Für mich ist folgendes GANZ KLAR:

Egal welcher Hersteller. Bei den Preisen, was Grafikkarten inzwischen kosten, kaufe ich keine unter 16GB.
Anders formuliert, ich gebe doch nicht 700€ und oder mehr für z.B. ne 5070 aus und bin dann limitiert.
Selbst wenn es nur ein Spiel "wäre" das mehr braucht, da gehts mir einfach ums Prinzip.
Dann kaufe ich lieber keine bzw. warte ggf. auf eine "super" mit 16GB.

Vielleicht hat der schnellere Speicher einen Einfluss darauf und man hat weniger oder gar keine Probleme.
Keine Ahnung, da stecke ich zu wenig drin im Technischen bezüglich Grakas.

Aber mal so grundsätzlich und natürlich auch, weil mir das bei Nvidia inzwischen richtig, wirklich richtig
auf den Senkel geht. Immer das selbe mit dem VRAM.
 
  • Gefällt mir
Reaktionen: cele und danyundsahne
Haaase schrieb:
Das Matschige liegt aber eher an den NV Treibern,
Teils, teils. Die Spieledesigner packen dann halt keine hochauflösenden 4K-Texturen für Objekte in der Spielwelt rein, sondern nur so 512x512 Pixel oder gar noch kleiner, damit die Texturen für die vielen Objekte nicht so viel Speicher belegen. Und / oder sparen sich halt die Vielfalt an Texturen, wodurch alles ein wenig repetitiv wirkt ... Die Komprimierungsalgorithmen tun dann ihr übriges.
 
  • Gefällt mir
Reaktionen: cele
5090 reiß ich dem Ledermantel direkt aus der Hand.
Die Hochleistungskerne der CPU brauchen auch einen würdigen Hochleistungs GPU Chip.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Benji18
sikarr schrieb:
Und Komplexität und Fehlerrate bzw. Ausbeuten zu erhöhen. Ein großer komplexer Chip ist schwieriger Fehlerfrei zu fertigen als ein kleiner. Aber auch Chiplets haben Probleme was dann die verschaltung untereinander angeht.
Klar, aber das ist ja GPU Design, nicht Belichtung. Der Chip der 4080 ist größer und der MCD von RDNA3 wird in N6 gefertigt, was ebenfalls die Kosten drückt.
 
  • Gefällt mir
Reaktionen: sikarr
UVLWheezle schrieb:
Und das ist schlussendlich das worauf es ankommt.
Genau und 1-2 Jahre später schreibt CB wieder dass Spiel da min 16 Gb Brauch und genau diese Käufer echauffieren sich dann. Wir kennen es mittlerweile in der 3ten Runde?
 
  • Gefällt mir
Reaktionen: danyundsahne
belive schrieb:
von amds mieseren treibern ganz zu schweigen
Sagen meistens Personen, die seit Äonen keine AMD Karte nutzen oder sogar nie genutzt haben.

Oder ihren Freund herzaubern, der immer Probleme hat.
Die Hörensagen Blase....

Viele Probleme/Instabilitäten können z.b. vom NT kommen.
Auch wenn eine Nvidia drin für kurze Testzeiträume läuft heißt das nicht, dass es nicht auch die Ursache sein kann (Unterschiede bei Lastwechel/Lastspitzen von AMD und Nvidia Karten?)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und jo0
Ne Nullrunde beim RAM-Ausbau bedeutet für mich ne Nullrunde beim Grafikkartenkauf.
Dabei wird gerade erst Nvidia auch unter Linux interessant.
 
Bierliebhaber schrieb:
Der große Vorteil der Chiplets ist doch gerade die günstigere Fertigung? Mehrere kleinere Chips sind einfach günstiger als ein großer. Sonst haben Chiplets doch eher Nachteile, wenn die Fertigung also auch noch teurer wäre wäre es absurd, Chiplets überhaupt in Erwägung zu ziehen.
ElliotAlderson schrieb:
Gerade deswegen sollte sie günstiger sein. Das war ja der Sinn hinter dem Chiplet Designer. Verschiedene Prozesse für verschiedene Komponenten.
Ja, stimmt. Aber mir schwirrt irgendwas im Kopf, dass es erstmal teurer ist (oder war?), weil es ein neuer Prozess ist und es dann langfristig gesehen günstiger wird. Kann auch sein, dass ich mich komplett vertue.

ElliotAlderson schrieb:
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.
Ja, aber objektiv betrachtet sollte man auch einen umfangreichen mehrwert davon haben. Und den hat man meiner Meinung nach nicht, wenn das hier und da mal drin ist. Und dann gibt es auch noch Software Lumen, was auch nicht schlecht ist und @Quidproquo77 bei Until Dawn auch mal verwirrt hat.
1728558493583.png

Wenn man nur Cyberpunk oder andere RT spiele spielt, dann kann man damit argumentieren.
Wenn du aber z.B. 10 Spiele im letzten Jahr gespielt hast, davon aber nur 2 RT haben und die auch nur 40 Std. oder so gespielt hast, verpufft doch das Argument mit der RT-Performance ins leere... Raster Performance ist das, was man braucht. RT-Leistung ist ein netter Bonus.
 
Zurück
Oben