News GeForce RTX 50: Nvidia veröffentlicht technisches Whitepaper für Blackwell

Hauwexis schrieb:
Diese RTX5000er Generation ist leider eine Enttäuschung.
Vielleicht ist Nvidia jetzt auf Intels Tick-Tock-Modell umgestiegen. Demnach müsste die nächste Generation ja wieder ein Banger werden ;)
 
  • Gefällt mir
Reaktionen: sil79, ElectricStream und Black Phoenix
fertigungsprozess grafikkarten.png

Habe mal perplexity befragt, da hier ja die Frage nach den Fertigungsprozessen aufkam
 
  • Gefällt mir
Reaktionen: FLCL, sil79 und SweetOhm
Theoretisch müssten die 5000er Karten doppelte Int32-Leistung haben. Auf Seite 55 sieht man, dass selbst die 5070, die ca. 0% mehr TFlops hat, dennoch bei "Peak INT32 TOPS (non-Tensor)" 30,9 statt 14,6 stehen hat. Bei Int16 müsste es dann 60,8 und bei Int8 dann 121,6 sein. Aber das gibt Nvidia nicht an, also ist es evtl. nicht so.

Dennoch, doppelte Int32-Leistung ist hammer gut. Also müssten Algorithmen zum Sortieren, Komprimieren, Verschlüsseln, Hashing oder irgendwas mit Strings schneller laufen. Nur halt keine Spiele, weil die Gleitkommazahlen nutzen.
 
  • Gefällt mir
Reaktionen: sil79
Marcel55 schrieb:
Vielleicht ist Nvidia jetzt auf Intels Tick-Tock-Modell umgestiegen...

Das kam mir heute beim durchforsten des kompletten Inet's & unzähligen Tech Video's auch so vor!
Jedoch wurde das Prinzip nicht ganz so umgesetzt. Ausgehen von der 700er Serie bis jetzt, ist es das

"Tick Tock Tock Tick Prinzip."

a) um Kosten zu sparen und sich nur bewegen wenn man muss (Stöckchen-Hund Prinzip)
b) um die maximale Marge zu erzielen, die seit der 20x0er Serie preislich völlig falsch abgebogen ist
c) Jensen eigene Aussage (warum Gamer berücksichtigen, wenn die meiste Kohle um Server Markt zu holen ist)
d) immer nur homopatische Dosen verteilen, da kein Wettbewerb

Kurzum, man springt nur so hoch wie man muss. Auch 1000de FPS werden nicht toller wenn die Latenz (Frametime) über 35ms steigt. Denn das ist das, was als "ruckelig" wargenommen wird vom menschlichen Auge.
 
  • Gefällt mir
Reaktionen: sil79
Nö, bei 200 FPS ist gar nichts ruckelig. Selbst wenn die Latenz 200 ms hoch wäre.

Ist halt trotzdem nicht spielbar, aber wäre super smooth. Wie kommst du darauf, dass ruckeln mit der Latenz zusammenhängt? Das ergibt keinen Sinn.
 
  • Gefällt mir
Reaktionen: Quidproquo77
ElectricStream schrieb:
Rubin kann alles, was Blackwell kann, und noch viel mehr und besser durch den Shrink, wesentlich effizienter und leistungsstärker.
Ich warte schon seit Jahren auf eine hohe Effizienz, leider kommt sie immer mit noch mehr Stromverbrauch. Das hilft mir nicht. Gleichbleibender Verbrauch oder weniger mit mehr Leistung wäre mal was.
 
  • Gefällt mir
Reaktionen: SweetOhm
  • 4. Generation RT-Kerne die eigentlich unveränderte 3. Generation RT Kerne sind
  • 5. Generation Tensor-Kerne die eigentlich unveränderte 4. Generation Tensor-Kerne sind
Damit ist die Hardware auch schon erklärt
 
  • Gefällt mir
Reaktionen: sil79
CDLABSRadonP... schrieb:
Genau umgekehrt: Es gab jedes der aufgeführten Male keinen Shrink. Es wurde zu einem kleineren Prozess gewechselt, aber es wurde gerade nicht ein bestehender Chip genommen und "einfach" in einem kleineren Fertigungsverfahren gefertigt, sondern ein neuer Chip aufgelegt.
Den letzten Shrink, den im Consumer-GPU-Bereich gab, war der GT200B.
 
Cr4y schrieb:
Muss jetzt wirklich in jeder News das selbe Gejammer zur mageren Performance abgelassen werden?

Solangsam wünsche ich mir ne AI-Funktion fürs Forum, die inhaltiche Dubletten einfach zusammenfasst. 5080-Test-Thread wäre gefühlt von aktuell 450 Posts auf 5 zusammengefasst.
Oder einen Roboter der gleich das ganze Forum schmeißt. Reden und fachsimpeln unerwünscht. Kommunikation überflüssig. Am besten alles und jeden kontrollieren. Sprache auf das wesentliche reduzieren. Neusprech und doppelgut. Ist der Robi aus China sauer auf Dich gibts was auf die Finger.

Wer was schlechtes über Großkonzerne sagt wird eingesperrt. 5080 doppelt plus gut.

Oder Du tritts gleich aus dem Forum aus. Dann musste gar nichts mehr lesen.
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., OpenSystemFan, FLCL und 3 andere
Mimir schrieb:
Nö, bei 200 FPS ist gar nichts ruckelig. Selbst wenn die Latenz 200 ms hoch wäre.

Ist halt trotzdem nicht spielbar, aber wäre super smooth. Wie kommst du darauf, dass ruckeln mit der Latenz zusammenhängt? Das ergibt keinen Sinn.

Dann würde ich dir mal dringlich anraten dich mit der Thematik Latenz (Frametime) zu beschäftigen. Es gibt Leute die sind anfällig dagegen und sehen dies mit dem puren Auge. Das was viele als "ruckelig" definieren ist genau dieses Szenario. Was im Zusammenhang mit Motion Sickness bei VR , bei diversen Leuten hervor ruft.

Zum besseren verstehen:

Fühl' dich glücklich wenn Du nicht zu dem Kreis gehört, der dies war nimmt. Andere tuen dies jedoch!
 
  • Gefällt mir
Reaktionen: sil79
Jo... Was fällt es den Ungläubigen nur ein, die 5070 = 4090 Geschichte nicht unhinterfragt zu schlucken? Sollen sie doch bitte mit den Jammern aufhören, und die Fresse halten!

Jetzt im Ernst, einige hier sind verdammt tief gesunken.
 
  • Gefällt mir
Reaktionen: peru3232, FLCL und SweetOhm
pioneer3001 schrieb:
Auf Seite 55 sieht man, dass selbst die 5070, die ca. 0% mehr TFlops hat, dennoch bei "Peak INT32 TOPS (non-Tensor)" 30,9 statt 14,6 stehen hat. Bei Int16 müsste es dann 60,8 und bei Int8 dann 121,6 sein. Aber das gibt Nvidia nicht an, also ist es evtl. nicht so.
Wow, endlich jemand hier, der das auch gelesen hat und thematisch darauf eingeht, anstatt nur am Thema vorbei zu diskutieren.
 
Temporä schrieb:
TSMC 12nm ist 16nm++
Samsung 8nm ist 10nm++

Turing kam schon wieder mit dem selben Node, allerdings waren die Pascal chips ziemlich klein und die Turing chips sind dann stark gewachsen. Das war hier nicht der Fall und bei der 5090 auch gar nicht möglich.
Genau. Hier kommen zwei Sachen zusammen. Keine neue Fertigung und die Die waren für einen neuen Prozess gar nicht mal so klein. Für AD102 sogar riesig.
Das GB202 nicht viel drauflegen wird, war von vorneherein klar.
Was hingegen mich zumindest schon überrascht hat ist, dass die Chips darunter nicht gewachsen sind. Denn das war bei Turing noch der Fall ein TU106 ist fast so groß geworden wie ein GP102.
Ich hätte schon erwartet, dass ein GB203 wächst. Nicht so stark wie bei Turing, dafür sind TSMCs Preise zu hoch und AMDs Gegenwehr zu niedrig. Aber mit dem GB203 auf 450 - 500 mm² wäre schon ein ordentlicher Sprung drin gewesen.

Die nächste Generation in 3nm wird schon gut was drauflegen. Hier wird man dann eher an der Spitze nicht viel gutmachen. Ich bezweifle, dass Nvidia direkt auf 750 mm² geht. Und wenn dann bleibt für die nächste Generation nichts übrig. Die Sprünge in der Fertigung werden kleiner.
 
Zuletzt bearbeitet:
Cr4y schrieb:
Muss jetzt wirklich in jeder News das selbe Gejammer zur mageren Performance abgelassen werden?

Solangsam wünsche ich mir ne AI-Funktion fürs Forum, die inhaltiche Dubletten einfach zusammenfasst. 5080-Test-Thread wäre gefühlt von aktuell 450 Posts auf 5 zusammengefasst.
Einfach in den NV RT/PT AI DLSS MFG voll geile Features Preis egal Huldigungs Thread gehen und gut ... :cool_alt:
Ergänzung ()

Laphonso schrieb:
Meine Kollegen nennen das hier das TATUFO, das Taschentuchforum wegen des nonstop Geweines ^^
Witzig ! Die meinigen betiteln jenes als MERPH (Mit E-Penis Rum Proll Heinze) :heul:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beatmaster A.C. und sil79
Ich frage mich, mit welcher Technik all die MFG-Hater eigentlich die künftigen Anforderungen an GPUs erfüllt sehen wollen. Waren vor ein paar Jahren noch 2560*1440er-Auflösungen populär und 60 Hz - und damit auch 60 fps - die Wald&Wiesen-Refreshrate, so lockt das keinen mehr hinter dem Ofen hervor.

Man wünscht sich heute "4K" und 120 fps gelten als "must have". Meanwhile tauchen die ersten erschwinglichen 5K-Ultrawide-Displays am Markt auf und man diskutiert, ob 480 Hz-Displays Schwachsinn sind, weil 360 Hz ja "erstmal reichen".

Künftig möchte man also mit (5120*2160) / (2560*1440) die dreifache Auflösung darstellen, und das nicht mehr mit 60, sondern 360 oder vielleicht besser doch mit 480 fps... Klar, das ist ja nur die 18 bzw 24fache Pixelmenge pro Sekunde... aber genau da soll die Reise hingehen und das geht eben NUR mit MFG. NVidia hat das frühzeitig erkannt.

Es wird auf absehbare Zeit keine GPU geben, die das mit klassischem Rasterizing hinbekommt, also bei zeitgemässer Grafik (AAA), bzw künftiger zeitgemässer Grafik.

Den Wunsch nach "echten" 120 fps kann ich insofern verstehen, aber Framerates jenseits der 240/360/480 Hz werden eine Domäne von (M)FG bleiben. Da kann man so viel "Fakeframe!" schimpfen wie man will.

Wer das nicht glaubt, kann ja mal eine fiktive GPU skizzieren, über wie viele Shader sie verfügen müsste und wie gross das Die, gerne auch gefertigt in 2nm, denn dann so wäre... gross wie ein Bierdeckel?
 
  • Gefällt mir
Reaktionen: Brotkasten3000
TheInvisible schrieb:
Und diese bekommt sogar noch das geniale dlss4 Update.
War nicht DLSS3 schon genial/perfekt ?!? :lol:
 
hmm AI AI AI :D

So wie ich das seh, (korrigiert mich wenn ich falsch liege) sind die meisten Dinge wie Neural Shading, mega Geometry etc. Sachen, die die Spieleentwickler in ihren Spielen integrieren müssen und wieder nur auf Nvidia laufen.
Das ist halt bei einem Marktanteil von 90% super machbar xD. So festigt man halt schön sein Monopol und bindet damit schön alle an Nvidia. Das ist für mich halt schon "Ausnutzung einer marktbeherrschenden Stellung".

Oder sind das Features, die in Direct X und Vulkan implementiert werden und die anderen Hersteller "nur" in ihre Hardware entsprechende Einheiten haben und die APIs ansprechen müssen?
 
  • Gefällt mir
Reaktionen: SweetOhm
mannefix schrieb:
Oder Du tritts gleich aus dem Forum aus. Dann musste gar nichts mehr lesen.
Übertreib halt.
Ich sehe keinen Mehrwert darin, den xten Post eines Users zu lesen, der sich sichtbar nicht die Mühe gemacht, das bis dahin gepostete zu lesen, sondern einfach seine zwei Gedanken raushaut "Find ich enttäuschend, Geldbeutel bleibt zu", die exakt dem entsprechen, was vorher schon x-mal gepostet wurde. Das hat mMn auch nichts mit Fachsimpeln und Austausch zu tun.
Das nervige daran: die guten Posts, in denen sich User Mühe geben, gehen leider unter.

Ich denke, mein Punkt dazu sollte jetzt klar sein und dass es um keine Allmachtsphantasien geht. Wenn noch Bedarf besteht, gerne per PN.
 
Zuletzt bearbeitet:
@DevPandi, @Chismon
Mit dieser Änderung verliert Blackwell allerdings eine Fähigkeit gegenüber Ada Lovelace, die Nvidia mit Turing eingeführt hat: INT- und FP-Berechnungen können innerhalb einer Shader-Partition nicht mehr gleichzeitig in einem Taktzyklus ausgeführt werden.

Das stimmt so nicht: Sowohl auf Ada als auch auf Blackwell gibt jede "Shader-Partition" pro Taktzyklus eine Vektorinstruktion heraus. Auf Ada konnte jede von einer Shader-Partition herausgegebene Instruktion eine FP-Instruktion und nur jede zweite von einer Shader-Partition herausgegebene Instruktion auch zusätzlich eine Integerinstruktion sein. Auf Blackwell kann nun jede von einer Shader-Partition herausgegebene Instruktion wieder eine FP-Instruktion oder eine Integerinstruktion sein. Eine gleichzeitige Ausführung von FP- und Integerinstruktionen in einer Shader-Partition findet also bei beiden Architekturen nicht in einem Taktzyklus (bzw. nur in unterschiedlichen Pipelinestufen) statt.

Siehe auch hier: https://www.computerbase.de/forum/t...90-5080-5070-ti.2226228/page-18#post-30185205

Gut, dass das hier im Artikel heraus gestellt wurde, evt. hebt sich nVidia die Wiedereinführung gleichzeitiger Berechnung bei INT und FP für RTX 6000 wieder auf und da Neuralshader wohl eher eine Weile brauchen dürften, bis diese in neuen, ausgesuchten/gesponsorten Spielen (ähnlich RT-PT, also evt. ganze 4 Spiele in 2 Jahren) mit Mehrwert zum tragen können, kann man sich das auch für dahingehend wohl stärker ausgestattete RTX 6000er Grafikkarten aufheben oder schauen, was die Konkurrenz macht in dem Bereich.
Dadurch, dass auf Blackwell nun jede Vektoreinheit wieder Integer-Instruktionen ausführen kann (und nicht nur jede zweite wie auf Ada), erhöht sich auch der IPC-Wert eines Multiprozessors bei Integer-lastigen Programmen (bis zur Verdopplung), ohne dass für diesen Multiprozessor ein (direkter) Nachteil entstehen würde. Allerdings benötigt ein Multiprozessor dadurch auf Blackwell etwas mehr Chipfläche als auf Ada, d.h. ohne diese Integer-Unterstützung für alle Vektoreinheiten könnte Blackwell z.B. etwas größere Caches oder etwas mehr Multiprozessoren auf der gleichen Chipfläche unterbringen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cr4y
  • Gefällt mir
Reaktionen: evilhunter
Zurück
Oben