News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

uff 250 Watt für diese gpu. Also die gpus werden auch immer stromdurstiger. Da wird der Spielraum klein bleiben. villeicht erlebe ich es ja noch einen Nachfolger des rtx 3050 mit 75 Watt als Nachfolger. Das wird allerdings noch einige Zeit dauern bis da mal was erscheinen wird. Klar kann man eine gpu runter drosseln. Aber mal ehrlich warum sollte man sich ne teure gpu kaufen und diese dann auf 75 Watt herunter drosseln.
Der Preis ist auch nicht ohne.
Das gute mit der Begrenzung der vram ist das welche mit weniger vram noch immer nicht die puste ausgehen.
ich dümple noch immer mit ner 4 GB vram herum und komme gut damit klar. 12 GB wäre ne massive Steigerung. Das höchste was ich bisher hatte war ne gtx titan mit 6 GB vram.
mit der zeit denke ich mal steigt es schon der Bedarf an mehr vram. Im Moment sehe ich das noch nicht so.

selbst 8 GB reichen noch für full HD aus. 6 GB bei HD ebenso.
Nun ja bei mir wird es also klar das alles ab rtx xx80 totes Blatt bzw totes Tuch ist.
Das gute ist das wenn man sich an hohe Auflösung nie wirklich gewöhnen kann dann kommt man mit geringerer gpu Anforderungen daher. Ohne RT ist man sogar noch sicherer unterwegs.

ich bin also echt gespannt wie es weiter gehen wird. Und welche gpu ich mir holen werde wenn es drauf an kommen wird, ebenso. Der Preis sollte nicht zu hoch sein. Mal sehen was man so für 300€ rum bekommen wird. egal ob gebraucht oder neu.
 
Eli0t schrieb:
Wenn es eine 4050 nur als Laptop Edition gibt, aber im Desktop nicht, warum sollte es dann eine 5050 geben? Mit 96bit Speicherinterface gehen doch 8GB gar ned, das können nur 6GB sein oder 9GB mit 3GB Chips.
Ich geh mal davon aus, dass es eine 5050 geben wird, wenn es schon zwei Chips mit 128Bit SI gibt. Es gab eine 1050 und Ti, eine 1650 (Super) und eine 3050, da stehen die Chancen gut für eine 5050. Und wer sagt, dass die ein 96Bit SI bekommen muss, nur weil eine 4050 Mobile das hat?
Eli0t schrieb:
So ein Unsinn. Das Steamdeck ist ja nur mindestens 3 Millionen mal verkauft worden :)
Mit Strix Halo mit quad-channel Speicherinterface und 40WG sind alle Einsteigerkarten quasi obsolet. Und der Chip kommt mit LP-DDR5-8500.
Das Handhelds eine Ausnahme sind, hab ich kurz nach dem von Dir zitierten Post zugegeben, wobei ich deren Reiz auch nicht verstehe, aber ich spiele auch hauptsächlich Spiele, die man schlecht darauf spielen kann.
Mit Strix Halo wird man sehen, ich bin da skeptisch, Gaming scheint nicht das Hauptziel zu sein, sondern eher mobile oder kleine Workstations. Dafür sprechen die vielen vollwertigen Kerne, die dann den gesamten, breit angebundenen Speicher nutzen können. Für Gaming wären 8-12 Kerne un X3D sinnvoller gewesen.

Ich bin skeptisch, ob eine 16-Kern CPU mit IGP etwas oberhalb der 7600M XT, die aber mit der TDP auskommen muss, die unterhalb der Gesamtsumme einer vergleichbaren CPU und dGPU ist, wobei diese dann auch an einer Stelle konzentriert und sicherlich schwieriger abzufühhren ist, wirklich so leistungsfähig sein kann.
Zudem sind 256Bit mit LPDDR5X-8500 immernoch deutlich zu wenig und bieten weniger Bandbreite, als die 7600er dGPUs mit 128Bit, aber GDDR6 alleine für sich haben. Ich würde vermuten, dass eine Kombination aus separater 8-Kern CPU mit 35-45W und einer dGPU mit 80-100W (also eine 7600M XT z.B.) schneller sein dürfte.

Halo Strix kommt mir aber schon deswegen nicht ins Haus, weil offensichtlich nur fest verlöteter LPDDR5X verwendet wird und kein LPCAMM2 und das lehne ich grundsätztlich ab, erst recht bei diesen Speichermengen. Man sollte ja mindestens 48GB kaufen, besser 64GB oder 96GB, wenn das teure Gerät lange halten soll.

Eli0t schrieb:
Es gibt genug Pixelgrafik Spiele wo es vollkommen egal ist, welche Grafikkarte Du hast, die sehen immer gleich aus.
Dann verstehe ich immernoch den Sinn starker APUs nicht. Für solche Spiele ist es ja egal, ob ich auf der IGP eines Ryzen 9000 oder 8700G spiele und wie schnell mein Speicher ist. Sofern es nicht auf jedes Bisschen Platz ankommt, ist aber jede halbwegs aktuelle dGPU immer überlegen.
Eli0t schrieb:
Unterm Tisch wird der PC viel staubiger. Um das zu verringern den PC auf den Schreibtisch stellen.
Und deswegen packe ich mir den Schreibtisch voll und stell mir die Lärmquelle direkt neben die Ohren? Unterm Tisch sehe ich den Staub nicht bzw. kann ihn leicht oberflächlich abwischen.
 
latiose88 schrieb:
Aber mal ehrlich warum sollte man sich ne teure gpu kaufen und diese dann auf 75 Watt herunter drosseln.
Tatsächlich reagiert die RTX 4000 Serie sehr wohlwollend auf Powerlimits. Eine auf 75 Watt gedrosselte RTX 4060 ist nur unwesentlich langsamer. Selbiges gilt für die Midrange und Highend Modelle. Nvidia hat es mit den Taktraten einfach übertrieben in dieser Serie.

Der Beweggrund für die 75 Watt sind der nicht benötigte Stromanschluss (6pin/8pin). Und der damit verbundene Vorteil die GPU auch in OEM Rechner einbauen zu können, die kein ATX Netzteil haben.
 
Wenn die neue Reihe nicht mehr RAM bekommt als die aktuelle, wird die neue halt nicht gekauft 🤷‍♂️ Unter 32GB kaufe ich nichts mehr.
 
Die Frage ist halt, ob und wann später Speichermodule mit 1,5facher Kapazität erscheinen. Dann lässt sich die gleiche Karte auch mit 18 GB anbieten und das Speicherthema ist vom Tisch.
 
Joar... Krasse Preise, mieser Performancezuwachs. Danke für nix.

https://x.com/harukaze5719/status/1844240151041671435?t=JaseA3uroRzJRCo-zSehew&s=19

1000031965.jpg
 
  • Gefällt mir
Reaktionen: muvmend und danyundsahne
Floppy5885 schrieb:
AMD hat bei der aktuellen Gen ausschließlich auf GDDR6 gesetzt während NV auf GDDR6X gesetzt hat.
Wo hätte AMD denn GDDR6X Speicher herzaubern sollen? Der Speicher ist kein Jedec-Standard, sondern wurde von Micron in Zusammenarbeit mit Nvidia entwickelt. Entsprechend wird der auch exclusiv für Nvidia produziert und für andere Hersteller gibt es schlicht nur GDDR6 und jetzt GDDR7, die auch von der Jedec standardisiert sind.
 
  • Gefällt mir
Reaktionen: Eli0t, Corpus Delicti und Flaschensammler
Toprallog schrieb:

Wie erwartet, meine sehr gut eingestellte (UV) 4090 wird es dann für 1499 Euro im Gebrauchtmarkt geben.. mit 24 Gigabyte Ram natürlich xD.

Asus, MSI und Co werden kommende Generation kein Geld von mir bekommen.
Ich sehe schon die 3000 Euro für die ganz tollen OC Modelle..

Werde Nvidia, Gamerock, PNY, oder KFA bevorzugen.
 
pacifico schrieb:
Konkurrenz gibt es schon, wird aber von zu vielen Kunden ignoriert....
Ich würde gerne auf die Konkurrenz zurückgreifen, wenn sie technologisch nicht so weit abgeschlagen wäre. Für schnelleres und schöneres Raytracing bin ich nun mal bereit etwas mehr zu bezahlen.
 
  • Gefällt mir
Reaktionen: akuji13
Crifty schrieb:
und trotzdem kaufen 8 von 10 Kunden NVIDIA, was sagt dir das? Es ist anscheinend nicht so schlimm, sonst würden sich die Karten nicht so gut verkaufen

Das ist doch Quatsch , man kann das alles gerne sehr einseitig sehen , den meisten die diese Karte kaufen geht das sicher nicht so leicht von der Hand wie du sagst die "schmerzt" das sicher auch aber doofe Frage aus Mangel an alternativen was soll man machen ? Sein Hobby aufgeben ? Sicher nicht

Ja 2000-2500 ist viel Geld , kauft man am Anfang hat man erstmal 2-3 Jahre Ruhe , im ideal Fall verkauft man das Vorgänger Modell für 1000 Euro dann sieht alles schon gar nicht mehr so extrem aus .... Oder lässt das jährliche iPhone aus ....mit iPhone will ich nur drauf anspielen das keiner so vorwurfsvoll sein muss jeder hat "Dreck am Stecken" bzw ein Hobby das nen Haufen Geld kostet

Muss 2500 kosten mir wäre lieber wenn nicht ist aber so und deshalb aufhören sich Rechner zu bauen die für eine zeitliche Moment Aufnahme das stärkste am Markt sind niemals ......mir tun die Auto hobbyisten sehr leid oder gar die Foto Abteilung sollen wir die Mal fragen was ne linse kostet ....lieber nicht
 
  • Gefällt mir
Reaktionen: ElectricStream, sikarr und gartenriese
@Simanova ok das ist gut. Dann kann ich das ja einer rtx 3050 mit 75 Watt vorziehen. Die Taktraten der gpu kann ich selbst ganz nach links drehen. Dann ist sie wirklich sparsam. Dann kommt es nur noch auf den Preis drauf an. Aber noch ist meine gpu nicht defekt. Wenn das mal der Fall sein sollte, kann ich ja mal nen thread eröffnen. Denn ich komme mit dem Markt nicht mehr mit. Bei cpu kenne ich mich sehr gut aus aber bei gpu bin ich blank. Die letzte gpu habe ich gebraucht 2022 gekauft. Damals für um die 120 € eine gtx 1650.
heute wird es deutlich schwerer eine halbwegs gute gpu mit sparsamer Hintergrund zu ergattern. Wenn dann brauche ich das um einen PC der keine onboard gpu hat lauffähig zu machen. Mit onboard ist ja zumindest inzwischen auf gtx 750 ti level. Von daher habe ich gute Chancen durch zu kommen.
Wenn man genügsam unterwegs ist wird man ja bekanntlich belohnt. Sollen sich doch die es brauchen herum schlagen mit anderen. Ich kann mich derweil zurück lehnen. Die Zeit ist zumindest aktuell auf der sicheren seite. Ich habe ja zur Not noch eine gtx 970 die ich irgendwie noch immer nicht verkauft habe da. Also an gpu scheitert es nicht. Nur die nehme ich nie her weil die ist mir zu stromdurstig. naja eines ist sicher, warten hilft wirklich.
 
UNRUHEHERD schrieb:
Ich glaube, damit AI Workloads mit hohem Speicherbedarf nicht auf Spiele-GPUs ausgeführt werden können
Für Professionelle Anwender sollte das eh schon nicht mehr lohnenswert sein. Nvidia hat seit der GF5 Serie angefangen die Chips für den Konsumer in Punkto Rechnleistung FP32 zu beschneiden damit Quadro und weiter gekauft werden müssen.
ninjaduck schrieb:
Ich find das super - dann wird doch für alle 12GB User schön lange noch optimiert.
Da wird nix optimiert, die Regler kann man da einfach nicht mehr auf max ziehen. gibt schon heute Spiele wo das nicht mehr möglich ist, CoH III z.B.
latiose88 schrieb:
ich dümple noch immer mit ner 4 GB vram herum und komme gut damit klar.
Das ist schön für dich, dann bist du irgendwann stehen geblieben oder bist einfach Blind. Wüsste jetzt keinen aktuellen Titel der mit einer GPU die nur über 4GB verfügt auch nur halbwegs anständig läuft
latiose88 schrieb:
selbst 8 GB reichen noch für full HD aus. 6 GB bei HD ebenso.
8Gb sind mittlerweile bei FullHD eben nicht mehr ausreichend bzw. wenn dann nur knapp und durch Kniffe wie rBAR oder DirectStorage
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: UNRUHEHERD
@danyundsahne : Danke. Ja hab mich geirrt. Das war die 4070Ti. Guter Beitrag.
 
  • Gefällt mir
Reaktionen: danyundsahne
Cr4y schrieb:
Spielst du in 4K?
Wenn ich ~700€ für ne GPU ausgebe und es jetzt schon knapp werden kann... ich weiß nicht, ein bisschen mehr Puffer wäre mir da lieber. Müssten vielleicht nicht gleich 16GB sein, aber anders geht es aufgrund der Chip-Größen wohl nicht.
Selbst meine 4090 reicht oft nicht für 4K, das kannst mit 700€ noch mehr vergessen (Max Settings)
 
  • Gefällt mir
Reaktionen: K3ks
belive schrieb:
Schon traurig wenn man nv verteidigen muss:lol:
Man sollte halt nicht nur auf einen einschlagen und die Nutzer von solchen Karten als Fanboys bezeichnen, wenn der Mitbewerber keinen Deut besser ist, oder es besser kann/macht.
Wer da die Fanboykeule schwingt, darf sich getrost an die eigenen Nase fassen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und akuji13
gartenriese schrieb:
Die Quelle ist MLID, das kannste also in die Tonne werfen.
Ergibt aber sinn. Es ist der gleiche Node wie bei Ada und der Chip der 5090 wird größer. Ich wüsste nicht, dass TSMC den Preis für seine 5 nm verringert hätte über die Zeit.
 
JackTheRippchen schrieb:
Die Zeit des Kirschen-Pflückens ist dieses Jahr bereits vorbei, bzw. nicht jeder Kunde hat die RT-Nadel im Arm.
Es kommt ja auch nie wieder was......ausserdem....Kirschen sind gesund.
 
Zurück
Oben