News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

Ich habe seit Polaris die Gerüchteküche gefressen, im negativen Sinne...
Diese Leaker gehen mir auf den Zeiger, wie der tgl. Wetterbericht.
 
  • Gefällt mir
Reaktionen: Luxmanl525
tmu ja shader ja mit rop hat das nix zu tun.

Wie auch raster operation pipeline
oder auch rasterizer genannt, da wird quasi das bild erzeugt also grob die maximale Auflösung
DXR setzt vorher an.
Deswegen ist ja DXR ein hybrid aus raster und voxel Ansatz (3dfx Idee von nvidia aufgekauft 2002)
Das problem ist bei rein raytraycing zu berechnendes bild das die Datenmenge exponential ansteigt.
Darum wird immer raster effektiver mit ram und auch Berechnung schneller sein. Da ist dxr eine gute Lösung aber auch eine die enorm viel rechenlast auf der gpu fordert.
Zuerst wird dxr deutliche software Entwicklung brauchen damit es standard wird. Die Konsolen werden da helfen. Wenn die ersten engines darauf ausgelegt werden.
Aktuell ist das mehr ein gimmick.
Für effektive dxr einzusetzen braucht es min die doppelte vram menge und min ein drittel mehr T.era f.lops als jetzt
bsp rx5700xt 9tf dann min 12tf mit 16gb vram
oder rtx2070s 10tf zu 14tf
 
  • Gefällt mir
Reaktionen: Mcr-King
ZeroZerp schrieb:
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.
Und das nach zwei Jahren. Da sieht man mal, was AMD aufzuholen hat...
 
Colindo schrieb:
Zurzeit gibt es keinerlei Implementierung für Tensor-Core-basiertes Denoising für Spiele. Wird auch in Nvidias Whitepaper von 2018 nirgendwo erwähnt. Einzig die Beschleunigung für produktive Software gibt es.

Doch im Prinzip werden diese für RTX Voice genutzt weil die andern Workouts noch nicht fertig sind und Entwickler heutzutage nichts mehr selbst machen. ;)
IIxRaZoRxII schrieb:
her damit endlich, ich will meine 2080ti los werden


Gieb sie mir ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
BoardBricker schrieb:
Mal sehen. Meine Vega64 ist mir für WQHD je nach Titel ein bisschen schlapp, wenn die Regler rechts von der Mitte stehen sollen. Eine RX5700XT bietet mir bei dem Preis zu wenig Mehrwert gegenüber dem, was ich gerade habe und eine Neuerscheinung, wenn sie dann mal kommt, ist wahrscheinlich auch außerhalb meines Budgets.

Ich glaub, ich kauf mir einen 17'' TFT und spiele wieder in 1280x1024

ich hätte noch einen abzugeben :D
oder kauf dir sowas:
 

Anhänge

  • IMG_20200421_004150-01.jpeg
    IMG_20200421_004150-01.jpeg
    1,1 MB · Aufrufe: 402
  • Gefällt mir
Reaktionen: BoardBricker
Colindo schrieb:
Und das nach zwei Jahren. Da sieht man mal, was AMD aufzuholen hat...

Sagte ja SW Entwickler können nix mehr selbst schreiben.
Ergänzung ()

GokuSS4 schrieb:
ich hätte noch einen abzugeben :D
oder kauf dir sowas:

Voll Retro aber meiner von Sony war besser. ;)
 
Leider sind crt nicht Dauerbelastbar sie verlieren ihren Helligkeit und farbechtheit nach Jahren.
und weil die Dinger quasi seit min 2007 nicht mehr hergestellt werden.
Erledigt sich nativ gaming auf null reaktionzeit völlig
Was war ich damals gut in ut2004 oder ut3
 
inwiefern besser? pitch?
 
GokuSS4 schrieb:
inwiefern besser? pitch?

Ach so der war es damals Sony CPD-G500 21" CRT Monitor 2048x1536 mit 85Hz.

Da ging was.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
error
 
  • Gefällt mir
Reaktionen: Mcr-King
Was noch nicht aufgeworfen wurde in vielen der Leaks, ist die Abfolge der Veröffentlichungen und Preisbildung.

Momentan ist nVidia ja als Marktführer in Lauerstellung und seit RDNA1 ist es ein Katz und Maus Spiel welches Modell wann für welchen Marktstart-Preis angeboten wird (das hat man bei der Navi10 Preisbildung ja schön gesehen und dem vorherigen "Super"- Refresh Präventivschlag).

Ähnliches erwarte ich auch dieses Jahr und damit leider keine Gesamtsortiment-Vorstellung von nVidia (ich rechne da mit einer nachgeschoben RTX 3080Ti) und bei AMD/RTG tendenziell eher ebenso wenig.

Ob der Maximalausbau in gemunkelter 505mm^2 RDNA2 Flaggschiffkarte als As im Ärmel schon zu Beginn ausgespielt wird oder ob ein noch größeres Geschütz bei AMD/RTG (also Navi 20) noch nachgeschoben werden könnte, falls nVidia eine RTX 3080Ti zur Gewinnmaximierung einer RTX 3080 etliche Monate erst nachfolgen lässt?

Vermutlich werde ich mich auch aus dem Grund (bis alle Karten bei GPU-Entwickler auf dem Tisch sind) und wegen der absehbaren Postcoronapreiserholung bis 2021 gedulden (müssen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Mcr-King schrieb:
Ach so der war es damals Sony CPD-G500 21" CRT Monitor 2048x1536 mit 85Hz.

Da ging was.

kann mein HM204DT aber auch :)
 
ZeroZerp schrieb:
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.

Scheint man auf den Quadros jetzt schon zu verwenden?!

"The OptiX AI denoising technology, combined with the new NVIDIA Tensor Cores in the Quadro GV100, delivers 3x the performance of previous-generation GPUs and enables fluid interactivity in complex scenes. "

Quelle
 
  • Gefällt mir
Reaktionen: .Sentinel.
Neodar schrieb:
Also eine RX6xxx Karte mit der Leistung einer RX 5700XT bei ca. 50% weniger Leistungsaufnahme wäre sehr schön. Da wäre ich dann auch wieder dabei.

Hier muss man aber auch noch einmal präzisieren:

Die neuen werden 50% mehr Leistung bei gleichem Verbrauch haben. Das heißt, nicht, dass sie bei halben Verbrauch, gleich viel leisten.

200 Watt 15 Tera, 300 Watt 20 Tera. das wäre eine Punktlandung.

mfg
 
GERmaximus schrieb:
Du hast eine AMD GPU? Für Hochleistungs Gamer sind doch die Nvidia Dinger besser :D ;) :schluck:

Theoretisch ja, NVIDIA ist das Maß der Dinge, the way it's meant to be played eben. Aber ich habe auch eine Budgetobergrenze, und da war die 5700 XT die beste Karte für meinen Hochfrequenzmonitor.
 
  • Gefällt mir
Reaktionen: Andre Prime, pietcux, muzafferamg58 und 2 andere
Alles noch Gerüchte, aber ohne Feuer halt auch kein Rauch. Schauen wir mal. Den schnuckeligsten Satz hat CB übrigens nicht wiedergegeben:
By TSMC's definition, N20 family is no longer using 7nm.
 
  • Gefällt mir
Reaktionen: [wege]mini
syfsyn schrieb:
tmu ja shader ja mit rop hat das nix zu tun.

Wie auch raster operation pipeline
oder auch rasterizer genannt, da wird quasi das bild erzeugt also grob die maximale Auflösung
Der Rasterizer übersetzt die 3D- Szenerie folgerichtig in die 2D Matrix des Bildschirms.

DXR setzt vorher an.
Deswegen ist ja DXR ein hybrid aus raster und voxel Ansatz (3dfx Idee von nvidia aufgekauft 2002)
Vorsicht - Der Voxel Ansatz ist zwar im Prinzip ähnlich, aber doch was anderes als der DX12 RTRT Ansatz, welcher viel feingliedriger auflöst.

Das problem ist bei rein raytraycing zu berechnendes bild das die Datenmenge exponential ansteigt.
Und der Vorteil wiederum, dass mit ansteigender Szenenkomplexität die Rasterisierung an Effizienz verliert und Raytracing durch den per Pixel Ansatz dadurch kaum beeindruckt wird.

Wird durch RT erst einmal die kritische Menge an Rays pro Pixel überschritten, sind der Komplexität der Szene quasi keine Grenzen mehr gesetzt.

Darum wird immer raster effektiver mit ram und auch Berechnung schneller sein.
Das gilt eben nur für einige Berechnungen. Shadowmapping (nicht GI!), AO etc. ist bereits im jetzigen Zustand per RT genauer und schneller in der Berechnung.

Da hast Du noch "alte" Information. Es hat sich seit dem Start von Turing viel getan....

Da ist dxr eine gute Lösung aber auch eine die enorm viel rechenlast auf der gpu fordert.
Und wie- ABER Raytracing skaliert unendlich viel besser als das Rasterisieren, so dass innerhalb kürzester Zeit erhebliche Sprünge gemacht werden können.

Durch den massiv parallelen Ansatz, sind hocheffiziente multi- GPU- Karten mit Chipletgrößen optimaler Herstellungs- und Kosteneffizienz denkbar.

Auch sind SLI Karten wieder denkbar, ohne die bekannten Nachteile. Du willst mehr RT- Speed?
Karte rein, schon hast Du die doppelte Leistung.

Du könntest im Extremfall für jeden Pixel am Bildschirm einen Core einsetzen und es würde skalieren.

In Sachen Rasterisierung kommen wir grad bei der Shaderzahl um die 5000 in Bereiche wo es mit zusätzlichen Kernen eben immer weniger Effizienz/Leistungsnutzen gibt.

Zuerst wird dxr deutliche software Entwicklung brauchen damit es standard wird.
Auch da hinkst Du dem aktuellen Stand etwas hinterher.

Die letzten eineinviertel Jahre hat man extrem viele Fortschritte gemacht/optimiert.

Das Ergebnis ist unter Anderem DX 12 Ultimate, welches eben den kommenden, optimierten Standard darstellt.

Die Konsolen werden da helfen. Wenn die ersten engines darauf ausgelegt werden.
Die großen Engines sind bereits darauf ausgelegt (UE4 hat die derzeit ausgefeilteste Plug and Play Implementation).

Aktuell ist das mehr ein gimmick.
Das war es mal. Inzwischen ist das Zeug mit Komplementärtechnologien wie DLSS inzwischen so weit,
dass wir z.B. in Minecraft einen waschechten realtime- Pathtracer in Aktion bewundern können.

Wir sind also schon sehr sehr viel weiter in der Entwicklung, als sich einige hier träumen lassen.

Für effektive dxr einzusetzen braucht es min die doppelte vram menge und min ein drittel mehr T.era f.lops als jetzt
bsp rx5700xt 9tf dann min 12tf mit 16gb vram
oder rtx2070s 10tf zu 14tf
Es braucht vor allem die Gewissheit der Untersützung über alle Plattformen hinweg. Die derzeit erheblich bremsenden "Rasterzöpfe" :) könnte man nämlich abschneiden, wenn sich der Entwickler sicher sein kann, dass jeder RTRT- Fähiges Material sein Eigen nennt.

Da befinden wir uns die nächsten par Jahre in einer Übergangsphase...

Die Marschrichtung wird aber von allen großen Herstellern und Entwicklern dankend unterstützt.

LG
Zero
Ergänzung ()

ZeroStrat schrieb:
Scheint man auf den Quadros jetzt schon zu verwenden?!
Ja- Nur haben sie bis jetzt dran zu kauen, das Ganze wirklich realtime- Fähig zu gestalten.
Zudem eignet sich nicht jedes denoising- Verfahren für jede Aufgabe. Licht, Schatten, "blaues" Montecarlo- Da muss überall ein anderer Ansatz her, um effektiv zu sein.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Teralios, Onkel Föhn und eine weitere Person
IIxRaZoRxII schrieb:
des Weiteren will ich keine Nvidia mehr im System haben mit rückschrittlichem c64 Treiber und features

Hey, BITTE nicht nVidia und den Ehrwürdigen C64 in einem Satz nennen … ;-)

MfG Föhn.
 
der Unzensierte schrieb:
Alles noch Gerüchte


Wenn nur die Hälfte stimmt, darf TSMC dem Kind aber auch einen neuen Namen geben.

Falls sie den Takt wirklich dort hin bekommen, wo sie glauben und falls der Stromverbrauch tatsächlich nicht explodiert, passt das schon.

Kleine Chips mit hohem Takt sind halt bei gleichem Verbrauch immer besser als große Chips mit kleinem Takt, vor allem wenn sie gleich schnell sind. :evillol:

3 Ghz, 20 CU´s, 50 Watt klingt doch z.B. lecker. Wird aber vor 5nm+++ nicht realistisch sein.

mfg
 
Zurück
Oben