News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

paganini schrieb:
Selbst meine 4090 reicht oft nicht für 4K, das kannst mit 700€ noch mehr vergessen (Max Settings)
Hätte ja die Hoffnung, dass ne 5070 etwas öfters für 4K geeignet wäre, und 12GB damit etwas öfters knapp werden könnten.
 
Verdient nachdem auch die 4070 und die 4070Ti mit bereits zu wenig Speicher wie verrückt gekauft wurden. Alle labern hier immer rum und kaufen den Müll dann trotzdem.

Ich hab ne 7800XT von AMD geholt.
 
  • Gefällt mir
Reaktionen: Eli0t, up.whatever, Ostfriese und eine weitere Person
Cr4y schrieb:
Hätte ja die Hoffnung, dass ne 5070 etwas öfters für 4K geeignet wäre, und 12GB damit etwas öfters knapp werden könnten.
Das wird sich nicht passieren, 70er sind für 1080p und maximal 1440p, 80er für 1440p und maximal 4K und 90er für 4K oder eher alles Max in WQHD
 
@ElliotAlderson Eben nicht weil du einfach gesagt hast das es undervolting ist. was es nicht ist. du scheinst ein problem damit zu haben es zu sagen wenn du falsch liegst.
 
Verstehe die Aufregung nicht. AMD könnte dreimal so viel Speicher haben und wären am Ende des Tages halb so schnell. Mehr Arbeitsspeicher wird die Karte auch nicht viel schneller machen im Bereich Gaming. Finde das Speichermanagement von Nvidia ist halt gut genug. Bin auch erst vor kurzem zu Nvidia gewechselt und habe weniger Speicher, aber die Karte rennt wie sau.
 
  • Gefällt mir
Reaktionen: shaboo, thuering und paganini
Gabber schrieb:
erst die 4070 (2023) brachte 12 GB.

Schon die ältere, kleinere 3060 hatte 12GB.

Vllt wurde auch einfach das Namensschema angepasst, was eigentlich eine 5060 ist wird 5070 genannt und entsprechend bepreist verkauft.
 
Eli0t schrieb:
ja und? selbst wenn der chip 500$ kosten sollte (was er bei einer 4090 nicht tut), muß die Karte keine $1600 kosten.
Der Chip für eine 4090 könnte durch aus 300$ - 500$ / Stück kosten, genaue Zahlen gibt es leider nicht. Der Rest sind dann Entwicklungskosten, Bestückung, Vertrieb, Lagerung etc. und natürlich möchte man auch Gewinn machen.
 
  • Gefällt mir
Reaktionen: thuering
belive schrieb:
@ElliotAlderson Eben nicht weil du einfach gesagt hast das es undervolting ist. was es nicht ist. du scheinst ein problem damit zu haben es zu sagen wenn du falsch liegst.
Ich habe es doch zugegeben, aber du lenkst weiterhin davon ab, dass es was bringt. Sowohl UV, als auch das Reduzieren des PT lohnt sich. Du dementierst es.

Du sprichst hier selbst von Watt (PT) und nicht von UV.
belive schrieb:
Das stimmt halt nicht pauschal, es gibt games die brauchen jedes watt für die Power und andere wiederum begnügen sich viel weniger.

Du wurdest ertappt und versuchst jetzt zu trollen. Blöd gelaufen ;)
 
Natürlich knausert man beim Speicher. Die Menge an VRAM ist wichtig für ML-Modelle.

Wir wollen doch nicht, dass sich irgendwelche Leute mit vergleichsweise günstigen GPUs eindecken anstatt die teuren ML-Beschleuniger mit viel VRAM zu kaufen.
 
Hatte bisher die letzen Jahre immer nVidia...aber irgendwie stagniert das gerade. Der Verbrauch wird immer höher, Speicher stagniert und Preise steigen ins unermessliche.

Ich bleibe bei meiner Meinung. Ich kaufe einfach die beste Grafikkarte im Bereich 200-220W (Also der damalige 8Pin). Ich würde mir da echt wünschen, dass da AMD ein wenig effizienter wird. Bei dem Rest sind die ja schon gut dabei.

PS: Irgendwie ist der Trend generell zu mehr Verbrauch überall zu sehen. Auch bei den APUs. der 6800U hatte ja noch mit der 680m 15W TDP mit 28W Burst...jetzt sind die neuen mit 780m oder 880m schon eher Richtung 40-45W. Wahrscheinlich sind aktuell nur darüber wirkliche Leistungssteigerungen bei Berechnungen wirklich möglich. Und das ausgerechnet Apple da zeigt, wie man mit weniger Verbrauch ordentlich Leistung bringt.....
 
@Vitche ist der Satzbau so richtig?
Demzufolge verfügt die vorerst drittkleinste Gaming-Blackwell-Grafikkarte über eine GPU, die bis zu 6.400 trägt FP32-ALUs, wie viele davon auf diesem Modell aktiv sind, steht aber noch in den Sternen.
 
  • Gefällt mir
Reaktionen: K3ks
So wie man nVidia kennt, wird es entweder eine 5070 mit 8 GB geben oder später noch ne 5060 mit 8GB^^.
12 GB für ne 5070 wären doch zu großzügig :)
 
Für die RTX 4070 waren die 12GB VRAM gerade noch so ok, aber für die 5070 würde ich mir definitiv mehr wünschen bzw. für mich wäre es ein Dealbreaker.
 
  • Gefällt mir
Reaktionen: sikarr
drago-museweni schrieb:
Gerade ich nicht, auch wenn die Leistung nicht so hoch ist kaufe ich keine Speicherkrüppel.

@G3cko das glaubst du doch selbst nicht das der Kunde da was zu entscheiden hätte, Nvidia hat die Macht und diese sagen was der Markt zu brauchen hat, und die Zahlen geben Ihnen mehr als recht, es wird alles gekauft.

Natürlich hat der Kunde etwas zu entscheiden und es sprichwörtlich in der Hand. Du entscheidest dich FÜR das Produkt. Es gibt somit für den Hersteller keinen Handlungsbedarf etwas zu ändern.

Mit der 390x gab's vor 10 Jahren schon 8 GB und trotzdem haben viele den Speicherkrüppel GTX970 gekauft. Natürlich hat der Kunde es in der Hand.

Vor 20 Jahren gab es nicht selten Grafikkarten in 2 verschiedenen Speicherausbaustufen, da konnte der Kunde entscheiden: Geld sparen oder lieber mehr VRAM. Es war der Wettbewerb, welcher die Hersteller dazu bewegt hat. Nun heulen alle rum, obwohl sie damals mehrfach hätten zum besseren Produkt greifen können und so für mehr Wettbewerb hätten sorgen können. Hab die Fanboys nicht gemacht, nun gibt's Monopolpreise und AMD orientiert sich grob an den Preisen von Nvidia. Wozu auch? Es hat kaum einen Effekt auf die Marktanteile. AMD zerstört sich nur selbst die Marge. Zudem ist AMD Grafikkarten-Leader, da sie ihre Chips in den Konsolen haben.

Es gibt also keinen Bedarf für mehr Wettbewerb oder einen Preiskampf. Die einzige Hoffnung ist Intel.
 
Tja, da muss man echt überlegen auf was man upgraden will.
Hatte eigentlich vor mir eine 4070 Super zu holen, wenn die Black Friday Angebote gut sind.
Aber bei FHD und ab und an mal nen älteres Game in 4k, überlege ich echt auf ne 7800XT oder 8800XT zu wechseln.
Die reichen beide für FHD Gaming mit max Details und 60 FPS und 4K ist mit Anpassungen an den Reglern auch in vielen aktuellen Games möglich.

DIe Preise die Nvidia für Mid Range GPUs aufruft sind einfach unverschämt geworden (ich weiß, wers kann der machts)
 
Balkoth schrieb:
Ich hab ne 7800XT von AMD geholt.

Genau das werde ich wohl auch tun.
Zudem behalte ich dann auch erstmal meinen guten alten IPS EIZO-FullHD-Monitor.

Nächsten Monat wird der neue PC endlich gebaut.
Irgendwann 2025 wird er dann aufgerüstet mit neuem Monitor und neuer Grafikkarte.
(Und beides wird zusammen wahrscheinlich teurer werden als der neue PC nächsten Monat, obwohl da auch kein Billigkram reinkommt, im Gegenteil.)

Die 7800 XT wird dennoch ein sehr großer Sprung sein (vor allem für FullHD), denn ich bin momentan noch mit einer GTX 1060 zugange, inkl. Xeon E3-1240 und Windows 7 x64 Pro.

Letzteres (das OS) ist ausschlaggebend für einen neuen PC.
Mein aktueller Rechenknecht ist trotz seiner Betagtheit nicht schlecht, aber ich werde ja nun gezwungen, auf Windows 11 umzusteigen.

Dabei nutze ich Sachen gerne, bis sie nicht mehr funktionieren/reparabel sind - man sollte sich ein Beispiel an mir nehmen. (Im Ernst! :king:)

Schade, dass AMD keine GPUs der Oberklasse herausbringen wird auf absehbare Zeit...

An den Gerüchten zu den neuen Karten von nVidia beteilige ich mich nicht, dennoch:

Wahrscheinlich kommt nächstes Jahr ja die RTX 6000er-Reihe raus und die 5000 wird einfach übersprungen.
Die RTX 6100 hat dann 64GB VRAM und kostet 3999 EUR UVP...
Das sagt jedenfalls meine leuchtende Baby Yoda-Glaskugel und ist somit vermutlich wahr.

:schluck:
 
diese ganzen mittelklasse karten bei nvidia sind imho rohrkrepierer. ständig irgendeine achillesferse, um die haltbarkeit zu beschneiden.
kaufe diesen schmodder nicht. lieber einmal ne ordentliche karte holen und dann viele jahre im pc spaß haben.
so zumindestens mache ich das.

grüße
 
  • Gefällt mir
Reaktionen: up.whatever und Xul
Zurück
Oben