Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs
Wie auch raster operation pipeline
oder auch rasterizer genannt, da wird quasi das bild erzeugt also grob die maximale Auflösung
DXR setzt vorher an.
Deswegen ist ja DXR ein hybrid aus raster und voxel Ansatz (3dfx Idee von nvidia aufgekauft 2002)
Das problem ist bei rein raytraycing zu berechnendes bild das die Datenmenge exponential ansteigt.
Darum wird immer raster effektiver mit ram und auch Berechnung schneller sein. Da ist dxr eine gute Lösung aber auch eine die enorm viel rechenlast auf der gpu fordert.
Zuerst wird dxr deutliche software Entwicklung brauchen damit es standard wird. Die Konsolen werden da helfen. Wenn die ersten engines darauf ausgelegt werden.
Aktuell ist das mehr ein gimmick.
Für effektive dxr einzusetzen braucht es min die doppelte vram menge und min ein drittel mehr T.era f.lops als jetzt
bsp rx5700xt 9tf dann min 12tf mit 16gb vram
oder rtx2070s 10tf zu 14tf
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.
Zurzeit gibt es keinerlei Implementierung für Tensor-Core-basiertes Denoising für Spiele. Wird auch in Nvidias Whitepaper von 2018 nirgendwo erwähnt. Einzig die Beschleunigung für produktive Software gibt es.
Doch im Prinzip werden diese für RTX Voice genutzt weil die andern Workouts noch nicht fertig sind und Entwickler heutzutage nichts mehr selbst machen.
IIxRaZoRxII schrieb:
her damit endlich, ich will meine 2080ti los werden
Mal sehen. Meine Vega64 ist mir für WQHD je nach Titel ein bisschen schlapp, wenn die Regler rechts von der Mitte stehen sollen. Eine RX5700XT bietet mir bei dem Preis zu wenig Mehrwert gegenüber dem, was ich gerade habe und eine Neuerscheinung, wenn sie dann mal kommt, ist wahrscheinlich auch außerhalb meines Budgets.
Ich glaub, ich kauf mir einen 17'' TFT und spiele wieder in 1280x1024
Leider sind crt nicht Dauerbelastbar sie verlieren ihren Helligkeit und farbechtheit nach Jahren.
und weil die Dinger quasi seit min 2007 nicht mehr hergestellt werden.
Erledigt sich nativ gaming auf null reaktionzeit völlig
Was war ich damals gut in ut2004 oder ut3
Was noch nicht aufgeworfen wurde in vielen der Leaks, ist die Abfolge der Veröffentlichungen und Preisbildung.
Momentan ist nVidia ja als Marktführer in Lauerstellung und seit RDNA1 ist es ein Katz und Maus Spiel welches Modell wann für welchen Marktstart-Preis angeboten wird (das hat man bei der Navi10 Preisbildung ja schön gesehen und dem vorherigen "Super"- Refresh Präventivschlag).
Ähnliches erwarte ich auch dieses Jahr und damit leider keine Gesamtsortiment-Vorstellung von nVidia (ich rechne da mit einer nachgeschoben RTX 3080Ti) und bei AMD/RTG tendenziell eher ebenso wenig.
Ob der Maximalausbau in gemunkelter 505mm^2 RDNA2 Flaggschiffkarte als As im Ärmel schon zu Beginn ausgespielt wird oder ob ein noch größeres Geschütz bei AMD/RTG (also Navi 20) noch nachgeschoben werden könnte, falls nVidia eine RTX 3080Ti zur Gewinnmaximierung einer RTX 3080 etliche Monate erst nachfolgen lässt?
Vermutlich werde ich mich auch aus dem Grund (bis alle Karten bei GPU-Entwickler auf dem Tisch sind) und wegen der absehbaren Postcoronapreiserholung bis 2021 gedulden (müssen).
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.
Scheint man auf den Quadros jetzt schon zu verwenden?!
"The OptiX AI denoising technology, combined with the new NVIDIA Tensor Cores in the Quadro GV100, delivers 3x the performance of previous-generation GPUs and enables fluid interactivity in complex scenes. "
Theoretisch ja, NVIDIA ist das Maß der Dinge, the way it's meant to be played eben. Aber ich habe auch eine Budgetobergrenze, und da war die 5700 XT die beste Karte für meinen Hochfrequenzmonitor.
Alles noch Gerüchte, aber ohne Feuer halt auch kein Rauch. Schauen wir mal. Den schnuckeligsten Satz hat CB übrigens nicht wiedergegeben: By TSMC's definition, N20 family is no longer using 7nm.
Und der Vorteil wiederum, dass mit ansteigender Szenenkomplexität die Rasterisierung an Effizienz verliert und Raytracing durch den per Pixel Ansatz dadurch kaum beeindruckt wird.
Wird durch RT erst einmal die kritische Menge an Rays pro Pixel überschritten, sind der Komplexität der Szene quasi keine Grenzen mehr gesetzt.
Darum wird immer raster effektiver mit ram und auch Berechnung schneller sein.
Das gilt eben nur für einige Berechnungen. Shadowmapping (nicht GI!), AO etc. ist bereits im jetzigen Zustand per RT genauer und schneller in der Berechnung.
Da hast Du noch "alte" Information. Es hat sich seit dem Start von Turing viel getan....
Da ist dxr eine gute Lösung aber auch eine die enorm viel rechenlast auf der gpu fordert.
Und wie- ABER Raytracing skaliert unendlich viel besser als das Rasterisieren, so dass innerhalb kürzester Zeit erhebliche Sprünge gemacht werden können.
Durch den massiv parallelen Ansatz, sind hocheffiziente multi- GPU- Karten mit Chipletgrößen optimaler Herstellungs- und Kosteneffizienz denkbar.
Auch sind SLI Karten wieder denkbar, ohne die bekannten Nachteile. Du willst mehr RT- Speed?
Karte rein, schon hast Du die doppelte Leistung.
Du könntest im Extremfall für jeden Pixel am Bildschirm einen Core einsetzen und es würde skalieren.
In Sachen Rasterisierung kommen wir grad bei der Shaderzahl um die 5000 in Bereiche wo es mit zusätzlichen Kernen eben immer weniger Effizienz/Leistungsnutzen gibt.
Zuerst wird dxr deutliche software Entwicklung brauchen damit es standard wird.
Das war es mal. Inzwischen ist das Zeug mit Komplementärtechnologien wie DLSS inzwischen so weit,
dass wir z.B. in Minecraft einen waschechten realtime- Pathtracer in Aktion bewundern können.
Wir sind also schon sehr sehr viel weiter in der Entwicklung, als sich einige hier träumen lassen.
Für effektive dxr einzusetzen braucht es min die doppelte vram menge und min ein drittel mehr T.era f.lops als jetzt
bsp rx5700xt 9tf dann min 12tf mit 16gb vram
oder rtx2070s 10tf zu 14tf
Es braucht vor allem die Gewissheit der Untersützung über alle Plattformen hinweg. Die derzeit erheblich bremsenden "Rasterzöpfe" könnte man nämlich abschneiden, wenn sich der Entwickler sicher sein kann, dass jeder RTRT- Fähiges Material sein Eigen nennt.
Da befinden wir uns die nächsten par Jahre in einer Übergangsphase...
Die Marschrichtung wird aber von allen großen Herstellern und Entwicklern dankend unterstützt.
LG
Zero
Ergänzung ()
ZeroStrat schrieb:
Scheint man auf den Quadros jetzt schon zu verwenden?!
Ja- Nur haben sie bis jetzt dran zu kauen, das Ganze wirklich realtime- Fähig zu gestalten.
Zudem eignet sich nicht jedes denoising- Verfahren für jede Aufgabe. Licht, Schatten, "blaues" Montecarlo- Da muss überall ein anderer Ansatz her, um effektiv zu sein.