News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

Cohen schrieb:
Die Speicherverteilung bei der Xbox Series X (6 GB langsam angebundenes RAM + 10 GB schnell angebundenes RAM) deuten bereits darauf hin, dass 10 GB VRAM-Anteil bei den aktuellen Konsolen das realistische Limit sind.
Naja stimmt nicht ganz die haben auch eine SSD die richtig Schnell ist und dadurch geht dass Streaming direkt in die GPU.

Klar sollte es am PC auch geben naja aber gibt es noch lange nicht.

Auch sitzten GPU und CPU auf dem selben interposser. 😉
 
bigfudge13 schrieb:
So wie ich Nvidia kenne, werden die das Beste aus beiden Szenarien kombinieren und das Interface bei 384 Bit belassen aber trotzdem 3500€ aufrufen ;)
Bei GDDR7 und 6 Chips a 64 Bit kommt man auf etwa 60% mehr Bandbreite als mit GDDR6x bei etwa -20% Energiebedarf.
4, 6 und 8 Gigabyte Chips sind definiert, also 24 GByte bei 384 Bit (6× 4 GByte) und 256 Bit (4× 6 GByte) machbar. Letztere so schnell wie 384 Bit GDDR6x.
Also, alles recht leicht für nvidia machbar.
 
Ich für meinen Teil möchte gern die schnellste GPU am Mark fürs Gaming kaufen, benötige aber keine sinnlosen Megnen an VRAM, die einfach nur mitbezahle und mir nie irgendwas bringen. In absehbarer Zeit werden die 24GB locker ausreichen, selbst mit 16GB hat man heute keine Probleme. Mehr VRAM wird erst wieder interessant wenn die neue Konsolengeneration da ist. Diese haben dann ebenfalls mehr (V)RAM. Solange aber PS5 und Co nur 16GB shares RAM haben wird sich am PC nichts tun. Wenn dann sind das nur unoptimierte Einzelfälle die dann meist generell schlecht laufen. Auch unkomprimierte Texturen braucht absolut niemand, da eine simple Kompression die Texturen erheblich verkleinert und keinerlei Qualität wegnimmt.
 
Artikel-Update: Vor zwei Tagen verbannte kopite7kimi Gaming-Blackwell mit 512 Bit breitem Speicherinterface ins Reich der Fantasie, nun soll diese Fantasie doch der Wirklichkeit entsprechen: Der große Chip für GeForce RTX „GB202“ soll doch über ein 512 Bit breites Speicherinterface verfügen. Zudem ist von Speicherchips mit 28 Gbit/s die Rede. Das würde eine sehr hohe Speicherbandbreite von knapp 1,8 TB/s bedeuten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Analog der teils im Tagesrythmus widersprüchliche Mutmaßungen hervorbringenden Gerüchteküche im Vorfeld zu GeForce RTX 4000 im Jahr 2022 dürfte es auch in diesem Jahr nicht leicht sein, Gerüchte mit Substanz zum richtigen Zeitpunkt aufzugreifen. ComputerBase wird versuchen nicht jedem Informationshappen nachzujagen, aber nichtdestoweniger über die Geschehnisse in der Gerüchteküche zu berichten.
 
  • Gefällt mir
Reaktionen: Poati, lubi7, Benjamin_Blume und 11 andere
@ CB: wenn ihr, wie im Update beschrieben, nicht jedem Infohappen nachjagen wollt, solltet ihr vielleicht über den Updaterhythmus nachdenken - gefühlt dreht sich die Gerüchteküche jeden Tag 2x um 180°. Und eine Küche ohne echte Köche ist irgendwie auch keine richtige Küche.
 
  • Gefällt mir
Reaktionen: shaboo, bensen, Sebbi und 6 andere
512 Bit sind schon leider geil 🤩
 
Analog der teils im Tagesrythmus widersprüchliche Mutmaßungen hervorbringenden Gerüchteküche im Vorfeld zu GeForce RTX 4000 im Jahr 2022 dürfte es auch in diesem Jahr nicht leicht sein, Gerüchte mit Substanz zum richtigen Zeitpunkt aufzugreifen
Vielleicht sollte man dann einfach aufhören jeden Mist den irgendein Noname ins Internet rotzt als "News"artikel zu verwursten und einfach warten bis es offizielle Informationen des Produktherstellers gibt. Ja, man macht dann weniger Klicks aber dafür steigt die Qualität ins unermessliche und wer sich hier wirklich über die Gerüchte, die sonst jedes Klatschblatt verbreitet, unterhalten will, kann dafür ja dann selber einen Faden im Forum eröffnen.

Denke es gibt in der IT genug andere Themen mit tatsächlichen Fakten die man stattdessen hier behandeln und diskutieren kann.
 
  • Gefällt mir
Reaktionen: shaboo, bensen, SgtChronos und eine weitere Person
Also doch 2500€+ für das Topmodell...und die Leute flippen aus, die meisten nehmen sich nen Kredit und kaufen wie blöde. :D

Ist ja alles schön und gut wenn NV uns mit so schnellen GPUs versorgt. Aber die preisliche Entwicklung kann und darf man einfach nicht gut heißen.
Bei 512-bit, wohl mindestens 32, vll sogar 48GB VRAM, wird der Preis einfach nicht unter 2K€ sein, wohl eher Richtung 2,5K. Das muss man sich mal überlegen...für eine GPU, bei der die meisten eh nur Zocken wollen....

Das wirkt sich natürlich auch auf die unteren Produkte aus, und NV wird hier die Preise weiteranziehen (können) Und jetzt sagt mir nicht wieder AMD sei schuld. Nein, das verbockt NV ganz alleine mit den Preisen :D
 
ich fand die News bei Gamers Nexus ja krass, dass Dell sich auf 1000Watt GPUs (von NVidea) einstellt und sie halt schauen wollen, dass ganze noch unter luft zu Kühlen

@Jan hast du dazu auch was erfahren ? Oder könntest du den Artikel dazu ergänzen ?
 
  • Gefällt mir
Reaktionen: aklaa
OdinHades schrieb:
Aber für meine zurückgebliebenen Laien-Augen gibt es bis heute kein Spiel, das hübscher aussieht als Red Dead Redemption 2.
Dann geh mal zum Augenarzt. Alan Wake 2, CyberPunk, A Plague Tale, Ark2, Avatar, Star Wars Battlefront, Battlefield, The Last of Us, Uncharted, Horizon...es gibt einige Spiele die besser aussehen.

RDR2 sah ganz gut aus, keine Frage, aber war auch recht leer. Es besteht halt zu 90% nur aus Landschaft.

OdinHades schrieb:
Erschienen im Jahr 2018. Läuft auf der PS4 mit weiß-ich-nicht-wie-wenig VRAM.
Erzähl doch keinen Müll. RDR2 hat damals jede Hardware gekillt und es gab nichts, was das maxed out flüssig darstellen konnte und wir reden hier von 1080p. Ich weiß es, weil ich damals selbst ne 2080 TI besaß und das Spiel gespielt habe.

https://www.pcgameshardware.de/Red-...Online-Update-neue-Benchmarks-2022-1399745/2/
46 FPS 1080p auf der damals schnellsten Karte. 4K war undenkbar. Wenn heute ein Spiel so beschissen laufen würde, dann würde das Forum brennen, aber dauernd kommt RDR2 als Argument.

Ohne AA hattest du Treppchenbildung of Doom, mit FXAA wars Bild unscharf, mit TAA hattest du Ghosting aus der Hölle und MSAA war auch verbuggt und sorgte dafür, dass das Laub der Bäume in der Ferne zu einem riesigen grünen Klumpen wurde.
Von den ganzen Bugs und Crashes zum Launch mal ganz abgesehen. Das Spiel lief bei einigen anfangs gar nicht und die Foren haben gebrannt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cruse
Ich erachte 32gb als zu wenig wenn wir über 8k native Auflösung sprechen, da die Performance leider eher akzeptabel sein wird, kommt DLSS 4.0 mit hoffentlich astreiner Upsampling Qualität daher. Ich war lange nicht mehr so scharf auf mehr GPU Power :freaky:
 
  • Gefällt mir
Reaktionen: riloka
danyundsahne schrieb:
Also doch 2500€+ für das Topmodell...und die Leute flippen aus, die meisten nehmen sich nen Kredit und kaufen wie blöde. :D
Für nicht wenige Leute sind 2,5k€ nicht wirklich viel Geld. Bedenke auch, dass für Nvidia der Gaming Bereich sowieso nur ein Nebengeschäft ist, den man so beiläufig mitnimmt. Das große Geld verdienen die in anderen Bereichen.

danyundsahne schrieb:
Ist ja alles schön und gut wenn NV uns mit so schnellen GPUs versorgt. Aber die preisliche Entwicklung kann und darf man einfach nicht gut heißen.
Bei 512-bit, wohl mindestens 32, vll sogar 48GB VRAM, wird der Preis einfach nicht unter 2K€ sein, wohl eher Richtung 2,5K. Das muss man sich mal überlegen...für eine GPU, bei der die meisten eh nur Zocken wollen....
Also so lange keine neue Konsolengeneration erscheint dürfte eine 2,5k€ Karte von NV der nächsten Generation für Spiele nicht viel Mehrwert bringen, als das was die aktuelle Generation schon kann.

Merit schrieb:
ich fand die News bei Gamers Nexus ja krass, dass Dell sich auf 1000Watt GPUs (von NVidea) einstellt und sie halt schauen wollen, dass ganze noch unter luft zu Kühlen

@Jan hast du dazu auch was erfahren ? Oder könntest du den Artikel dazu ergänzen ?
Damit sind halt Server-GPUs gemeint, die dann auch fünfstellig kosten, für KI-Anwendungen und nicht für Spiele, die auch auf einer "popeligen" PS5 oder XBox laufen müssen. Also ganz sicher würde ich mir keine 1000W Grafikkarte in den Rechner einbauen, im Winter wäre es ja ok, aber im Sommer müsste die Klima dann diese Leistung wieder gegenkühlen.
 
  • Gefällt mir
Reaktionen: shaboo und Merit
@frazzlerunning Hilf mir auf die Sprünge, aber welches der Spiele läuft mit 45 FPS in 1080p auf der 4090?

136 FPS in HL: https://www.pcgameshardware.de/Hogw...cy-Tech-Test-Benchmarks-Raytracing-1413184/3/
94 FPS in Starfield: https://www.computerbase.de/2023-09...enchmarks_in_full_hd_wqhd_und_ultra_hd_update
134 FPS in CP 2077: https://www.computerbase.de/2023-09...s_in_full_hd_wqhd_und_ultra_hd_mit_raytracing

Aber hauptsache dagegen argumentieren. Ich kann nicht nachvollziehen, wieso man sich hier dauernd so auf RDR2 einschießt, obwohl es definitiv kein Positivbeispiel ist. Die Texturqualität ist alles andere als hoch und die Polygonanzahl ist auch nicht der Burner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo und Quidproquo77
Danke für die prompten Rückmeldungen die eigentliche Meldung zum Thema ging leider komplett an mir vorbei und ich gehe absolut mit, dass 1000 absolut zu viel sind und finde den Trend der letzten Jahre auch nicht so gut mit immer höheren Watt Zahlen - ich hoffe ja etwas darauf, dass die nächste AMD Generation da in punko Effizienz was macht
 
512 haben, heisst ja nicht, dass es benutzt wird.
 
  • Gefällt mir
Reaktionen: simosh
MrHeisenberg schrieb:
Alan Wake 2, CyberPunk, A Plague Tale, Ark2, Avatar, Star Wars Battlefront, Battlefield, The Last of Us, Uncharted, Horizon...es gibt einige Spiele die besser aussehen.
Ich will gar nicht abstreiten, dass die genannten Titel rein technisch besser, toller und beeindruckender sind. Aber für mich sehen sie trotzdem nicht besser aus. Das ist am Ende halt immer noch sehr subjektiv. Selbst Raytracing oder Pathtracing oder was gerade der heiße Shit sein mag, ersetzt für mich kein gutes und stimmiges Artdesign.

MrHeisenberg schrieb:
RDR2 sah ganz gut aus, keine Frage, aber war auch recht leer. Es besteht halt zu 90% nur aus Landschaft.
Hab ich nie nachgemessen, aber das Spiel hat sich vor allem unheimlich lebendig angefühlt. Die Charaktere haben eine starke Mimik und sehr ansehnliche Animationen. Das wirkt alles nicht so "hakelig" und Uncanny Valley-mäßig wie in vielen anderen Spielen, und da muss ich gerade ganz stark an Cyberpunk denken. Letzteres hatte viel mehr diesen typischen Charakter eines Videospiels.

MrHeisenberg schrieb:
Erzähl doch keinen Müll. RDR2 hat damals jede Hardware gekillt und es gab nichts, was das maxed out flüssig darstellen konnte und wir reden hier von 1080p.
Also auf meiner Playsi lief es schulterzuck

MrHeisenberg schrieb:
46 FPS 1080p auf der damals schnellsten Karte. 4K war undenkbar. Wenn heute ein Spiel so beschissen laufen würde, dann würde das Forum brennen, aber dauernd kommt RDR2 als Argument.
Ich weiß meine Genügsamkeit zu schätzen. Ich brauche kein 4K und auch nicht alle Regler auf Maximum. Meinen Augen geht es blendend, danke der Nachfrage.

Ach ja, und gemotzt wird sowieso immer.
 
  • Gefällt mir
Reaktionen: Melmoth, Zarlak und Michael vdMaas
Zurück
Oben