News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

12 GB VRAM, keine Ahnung ob das für maximale Details bei 1080-1440p reicht.

Ich warte auf die neue RTX 50er Reihe, da ich meine Xbox Series X ersetzen möchte.

16GB VRAM wären natürlich besser, aber man kann ja nicht alles haben.

Wenn die Leistung stimmt und die beim Preis nicht völlig durchdrehen für die obere Mittelklasse, bin ich nicht abgeneigt, da zuzuschlagen.
 
latiose88 schrieb:
Aber mal ehrlich warum sollte man sich ne teure gpu kaufen und diese dann auf 75 Watt herunter drosseln.
Der Preis ist auch nicht ohne.
Weil sie dadurch verrückt effizienter werden!
Beispiel 4090:
Du reduzierst das power target um 20% (!!) und verlierst keine zwei Frames.

Die Frage ist eher: Wer würde das NICHT machen...
VuGaGUV8EwofumnTgfDBfk-970-80.png.webp
 
  • Gefällt mir
Reaktionen: JackTheRippchen, K3ks, Morpheus101 und eine weitere Person
belive schrieb:
blöde frage wird immer am spiel liegen. Die Frage ergibt nur sinn wenn alle Games exakt gleich performen.:p
Meine Frage war im Kontext zum Rest des Textes zu sehen. Natürlich ist das eine blöde Frage, aber es geht ja auch dahin, das heutzutage keine Highend GPU in sogenannten "AAA" Titeln (die nicht mal Shooter sind) 60 fps in 4K ohne Upscaling oder anderen "Fuschkram" hinbekommen.

Im Vergleich zu vor 10-15 Jahren haben wir heute die exponentielle Leistung bei GPUs, aber die Art und Weise wie mit dieser gehaushaltet wird ist erbärmlich.
 
Hmmm also wird's wohl ne Karte von AMD, 16GB VRAM sind eh zu wenig um damit ernsthaft lokal Bilder zu generieren, ne 5090 zahle ich nicht, ne gebrauchte 4090 wäre mir auch viel zu teuer.
 
  • Gefällt mir
Reaktionen: Eli0t
Bulletchief schrieb:
Die Frage ist eher: Wer würde das NICHT machen...
Das stimmt halt nicht pauschal, es gibt games die brauchen jedes watt für die Power und andere wiederum begnügen sich viel weniger.
 
  • Gefällt mir
Reaktionen: cbmik
Danke Nvidia, erneute Nullrunde beim Speicherausbau der Mid-Karten :(

Die nächste Evolution im Gaming (allgemein bessere und größere Texturenpacks, parallel zum Game laufende LLMs für NPCs etc. etc.), wird so aufgrund des durchschnittlichen VRAM- Mangels weiter verzögert.
 
DaHell63 schrieb:
Man sollte halt nicht nur auf einen einschlagen und die Nutzer von solchen Karten als Fanboys bezeichnen, wenn der Mitbewerber keinen Deut besser ist, oder es besser kann/macht.
Wer da die Fanboykeule schwingt, darf sich getrost an die eigenen Nase fassen.
tun auch viele nicht, was ein paar hansel sagen ist doch latte. Aber 12gb sind halt pervers für die 5070. wird halt eine 2te 4070ti mit bissl weniger verbrauch. stagnation FTW
 
  • Gefällt mir
Reaktionen: cbmik
@Vitche Ich glaube im Update sind die Wechselstaben verbuchtet worden. Hab mich gewundert warum ich den Satz nicht gelesen bekomme, ohne das sich mein Monkhirn sperrt :schluck:

Demzufolge verfügt die vorerst drittkleinste Gaming-Blackwell-Grafikkarte über eine GPU, die bis zu 6.400 trägt FP32-ALUs,

Soll wohl heissen: die bis zu 6400 FP32-ALUs trägt

Oder ich brauche eine KI die für mich übersetzt. Monk<->Deutsch Deutsch<->Monk
 
Da auch die mittlerweile völlig überzogenen, ehm. Scalper-Preise von der Kundschaft angenommen wurden, AMD will ab dieser Ebene ja nicht mehr konkurrieren, wieso sollte das denn nicht funktionieren?

Wer wirklich in 4k spielen möchte, dem ist doch eine ~1500€ Investition dies auch wert? Ist doch das Hobby oder? Man gibt doch auch locker 5k für schicke Felgen aus wenn dass das Hobby ist ;)
 
Ach ist doch egal, ganz Computerbase.de Forum kauft doch eh die 5090 um 2500 € wie wir von der Umfrage her wissen :)
 
  • Gefällt mir
Reaktionen: Bimmy&Jimmy
ElliotAlderson schrieb:
Nvidia hält die Preise nicht künstlich hoch. Die Belichtung der Chips ist eben teuer.
doch. Alle Karten sind überteuert.
ElliotAlderson schrieb:
90 nm kosteten bei TSMC $2.000, 3 nm liegt bei $20.000. Wenn du glaubst, dass sich das nicht massiv im Endkundenpreis der Karten widerspiegelt, bist du ziemlich naiv.
ja und? selbst wenn der chip 500$ kosten sollte (was er bei einer 4090 nicht tut), muß die Karte keine $1600 kosten. Bei Blackwell ist es noch egaler was der Chip kostet, weil die Karte alleine $30000 kostet. Die Waferkosten sind da generell zu vernachlässigen. Die spielen bei derartigen Karten keine Rolle.
ElliotAlderson schrieb:
Oder hast du vielleicht eine sinnige Erklärung dafür, dass die 7900 XTX vom P/L her ungefähr genau so viel kostet wie die 4080?
P/L ist relativ. Die Marge bei AMD ist sicher kleiner als bei nvidia.
 
belive schrieb:
Das stimmt halt nicht pauschal, es gibt games die brauchen jedes watt für die Power und andere wiederum begnügen sich viel weniger.
Nein, UV lohnt sich, weil du immer näher an den Sweetspot kommst. Für jeden weiteren Frame brauchst du exponentiell mehr Leistung.

Eli0t schrieb:
doch. Alle Karten sind überteuert.
Ich habe nichts gegenteiliges Behauptet, aber was erwartest du? Soll Nvidia für jede einzelne Karte draufzahlen?

Eli0t schrieb:
ja und? selbst wenn der chip 500$ kosten sollte (was er bei einer 4090 nicht tut), muß die Karte keine $1600 kosten.
Wie kommst du zu dieser Erkenntnis? Meinste die einzigen kosten sind die Belichtung der Maske? Der Rest fertigt sich dann von selbst für Umme und Support, F&E etc. kostet alles auch nichts.
Bin auch raus an der Stelle. Auf so einem Niveau habe ich keine Lust zu diskutieren, das führt zu nichts.

Nvidia und AMD sind gleichermaßen teuer, aber mal auf den Trichter zu kommen, dass es nicht an den beiden liegt, sondern an dem Rattenschwanz dahinter (TSMC z.B.), klappt dann nicht. TSMC lobhuldigt man noch dafür, dass sie von Node zu Node die Preise um 50% anheben. Ja gg.
 
scryed schrieb:
doofe Frage aus Mangel an alternativen was soll man machen ? Sein Hobby aufgeben ? Sicher nicht
Muss man nicht, AMD hat Alternativprodukte aber die werden ja nie auch nur in Betracht gezogen. Gerade im Midrange-Bereich wo die meisten Spieler unterwegs sind (Annahme) gibt es eine 7800xt und eine 7900gre. Beide bieten mindestens 16gb Vram aber sind dafür in Raytracing halt langsamer, der Rest quasi identisch (fast). Selbst AMD will weiterhin für die Mitteklasse bauen, also wo ist das Problem?

Ich kann es dir sagen, es ist der eigene Kopf, alle wollen Raytracing, hohe FPS und das am besten für maximal 400€, ja sorry aber die Zeiten sind vorbei, entweder Kompromisse oder Vollprogramm für 2000€+. So ist der Markt und das weiß auch jeder. Regler bedienen war gestern, heute wird 24/7 ins Forum geheult. Einfach eine traurige Situation das ganze.
 
  • Gefällt mir
Reaktionen: Nordbadener, Herr-A, Corpus Delicti und eine weitere Person
Vitche schrieb:
Demzufolge verfügt die vorerst drittkleinste Gaming-Blackwell-Grafikkarte über eine GPU, die bis zu 6.400 trägt FP32-ALUs, wie viele davon auf diesem Modell aktiv sind, steht aber noch in den Sternen.
Ich glaube, das trägt sollte nach den FP32-ALUs kommen.
 
ElliotAlderson schrieb:
Nein, UV lohnt sich, weil du immer näher an den Sweetspot kommst. Für jeden weiteren Frame brauchst du exponentiell mehr Leistung.
Powerlimit reduzieren ist nicht undervolting.
 
  • Gefällt mir
Reaktionen: cbmik
Tigerfox schrieb:
Ich geh mal davon aus, dass es eine 5050 geben wird
Ich gehe davon aus, daß es die nicht geben wird, solange 3050 auf Halde liegen.
Tigerfox schrieb:
Das Handhelds eine Ausnahme sind, hab ich kurz nach dem von Dir zitierten Post zugegeben...
Muß verlötet werden, wie auf einer Grafikkarte. Da regst Dich ja auch nicht auf, daß die Karte nicht erweiterbar ist?! WTF?
Tigerfox schrieb:
Dann verstehe ich immernoch den Sinn starker APUs nicht.
Hast Du das auch Sony und M$ gesagt? Ich meine, was sind Konsolenchips anderes als große APUs? Kann man damit spielen? Ja. Sorry, diese Argumentation hat keinen Sinn.
 
belive schrieb:
Powerlimit reduzieren ist nicht undervolting.
Führt aber zu einem ähnlichen Ergebnis. Fakt ist, es lohnt sich. Wenn du mir nicht glaubst, schau dir die Videos von Der8auer an. Denke, dass der wesentlich mehr Ahnung als du hat.
 
Zurück
Oben