Der Nachbar schrieb:
Dann hätte DigitalFoundry im Vergleich zwischen Konsolen und PC mit nvidia nicht so gravierende Unterschiede fest gestellt. Entweder die Technik es ist DXR kompatibel und performant oder nicht. In der Konsole hängen auch noch weniger CUs ab.
… kennst du dich mit Engine/3d-Entwicklung aus? Weißt du, wo die Unterschiede zwischen den RT-Cores und ggf. der AMD Implementierung liegt? Besitzt du die Kompetenz hier eine wirklich fundierte Einschätzung zu schreiben?
Ich kann mir nur aktuell die verschiedenen Tests ansehen und da ist das Bild was RT angeht sehr durchwachsen.
@Colindo hat sich bereits die Mühe gemacht mal den Unterschied zwischen den RT-Cores als auch dem Weg, den AMD gewählt hat aufzuzeigen. Grundlegende Aussage von ihm: Die RT-Cores durchwühlen den BVH-Tree und berechnen den Schnitt zwischen Polygon und Strahl. AMD wiederum nutzt für die BVH-Suche die TMUs, dann geht das erst mal an den Shader und der entscheidet dann ob über den RA-Accelator der Schnitt berechnet wird.
Das ändert aber nichts daran, dass die meisten Spiele, die bisher enschienen sind, auf die RT-Implementierung von NVIDIA optimiert wurden und die RT-Effekte sogar oft von den NVIDIA-Entwicklern in die Spiele implementiert wurden. Da sich die Vorgehensweisen doch durchaus - DXR hin oder her - unterscheiden, kann man hier sehr wohl darauf optimieren, dass der RTCore »zwei Schritte« macht, während man bei AMD nach dem 1. Schritt noch entscheiden kann, ob man den zweiten Schritt machen will.
Und sowohl hier im Test von CB, als auch Golem zeigt sich, dass es Spiele gibt, bei denen die die RX 6800 mit der 3070 konkurriert in RT und ebenso die 6800 XT mit der 3080 und eben nicht auf 2080 Ti abfallen, während bei anderen Spielen eben durchaus dieser Abfall zu beobachten ist.
Und es ist durchaus bezeichnend, dass gerade bei »neueren« Titel - WoW RT und Dirt 5 - es sich zeigt, dass man auf dem gleichen Level agiert. Wie ich geschrieben habe: Bisher würden RT-Effekte auf Turing-Karten entwickelt und bei fast allen Spielen in Zusammenarbeit mit NVIDIA und genau das ist der Punkt: Man kann hier natürlich annehmen, dass RDNA2 RT generell nicht liegt, ein valider Schluss. Der lässt aber eben mehre Faktoren außer acht - RT-Effekte wurden durch NVIDIA in die Spiele implementiert, bisher gab es nur Turing und damit der Ansatz von NVIDIA. Erst jetzt ist RDNA2 auf dem Markt und die Entwickler können anfangen auch auf die Eigenheiten vom AMD-Weg hin optimieren. Die »1. Generation« an RT-Titeln ist also nicht unbedingt DER Indikator, ob RDNA2 für RT geeignet ist oder nicht und auch DAS ist eine valider Standpunkt!
Golem.de hat dazu genau ein passendes Fazit:
Golem.de schrieb:
Anders sieht es bei den meisten aktuellen Spielen aus, wenn Raytracing dazugeschaltet wird. Außer in Dirt 5 und in World of Warcraft Shadowlands fällt der Performance-Einbruch bei der Radeon RX 6900 XT deutlich höher aus als bei der Geforce RTX 3090/3080, allerdings wurden auch fast alle Titel der vergangenen Monate auf Nvidia-Hardware entwickelt und für diese optimiert, da AMD schlicht keine entsprechende Hardware hatte.
Ob und wie sich das künftig ändert, ist schwer einzuschätzen. Weil jedoch alle drei Spielekonsolen - Playstation 5, Xbox Series S, Xbox Series S - auf Grafikeinheiten setzen, die den Radeon RX 6000 äußerst stark ähneln, dürften wichtige Synergie-Effekte zugunsten von AMD entstehen. Zumindest Cyberpunk 2077 erscheint zum Release nur mit Raytracing auf Nvidia-Karten, ein Patch für Radeon-Modelle soll folgen und die Konsolenversionen werden erst 2021 angepasst. Auch fehlt AMD bisher eine Alternative zum Rekonstruktionsfilter DLSS 2.0 (Deep Learning Super Sampling), denn FidelityFX Super Resolution braucht noch einige Wochen oder Monate.
Der Nachbar schrieb:
nvdia hat AMD mit RT einfach seit Jahren kalt erwischt, wie 3dfx mit der T&L Einheit und 32Bit erwischt wurde.
… Ah ja, haben sie das? Na ja, Dirt 5 und WoW zeigen da, dass es auch anders aussehen kann. Du lässt hier, wie ich es bereits angedeutet habe, sehr viele Faktoren, wie die meisten, die aktuell AMD eine RT-Schwäche unterstellen, außer acht und das vermutlich aus dem Grund, weil ihr gewisse Sachen nicht auf dem Schirm habt oder euch das Thema allgemein nicht interessiert.
Nur weil DXR hier der gemeinsame Grundstein für RT ist, heißt es nicht, dass es auf Hardware-Ebene nicht ggf. Eigenheiten gibt, die man in seinen Algorithmen beachten muss. Da die Herangehensweisen von AMD an RT sich etwas unterscheidet von dem Weg von NVIDIA, können die »Schwächen« die du hier der Hardware attestieren willst, eben eher Schwächen der Software - sprich der Spiele - sein. Ich hab schon oft genug erlebt, dass ein Algorithmus auf einer CPU rannte, während auf einer anderen CPU der gleiche Algorithmus überhaupt nicht performen wollte und dann eine kleine Anpassung am Code dann der Algorithmus auf beiden CPUs rannte, wie man es erwarten würde.
Programmierung ist weitaus komplexer, als viele denken und auch wenn man versucht vieles über APIs zu abstrahieren, können Eigeneinheiten von Hardware dennoch von Bedeutung sein!
Und nein, 3dFX wurde damals von 32 Bit nicht wirklich kalt erwischt und ebenso wurde es nicht von Hardware T&L kalt erwischt. Man sieht an beiden Sachen nur mal wieder gut, wie anfällig manche Leute für Marketing sind, gerade wenn sie Null Ahnung haben und es ist noch erstaunlicher, wie lang das nachwirkt und dein Beitrag belegt es sogar sehr gut.
Als 32Bit Texturen und Texturen wirklich in der Breite genutzt wurden, konnten es die 3dFX Karten. Ja, die Voodoo3 konnte damals keine 32Bit, sondern nur 16Bit. Wirklich breitflächig genutzt wurde 32Bit erst ab den 2000er und die Voodoo 4 konnte es.
Und Hardware T&L? Klar, 1999 und 2000 mit der GeForce 256 und GeForce 2 war das durchaus ein Nice-to-Have auf der Karte, nur haben selbst die meisten »DX7« spiele diese Möglichkeiten kaum, genutzt, weil sie alle mit der DX6-Harware - Riva TNT und Riva TNT2, sowie Rage und eben Voodoo2 und Voodoo 3 damals, kompatible blieben. Hardware T&L hat sich erst mit DX8 dann durchgesetzt, als DX7 Hardware weit verbreitet war und die Spiele keinen DX6, sondern DX7 und DX-Pfade angeboten haben.
Der Nachbar schrieb:
Der Vorsprung, der irgendwann nutzbar wurde hätte 3dfx auch nicht mehr aufholen können, selbst wenn die GPU sehr leistungsfähig gewesen wäre und man die Vermarktung mit den Boardpartnern erneut versucht.
Ach, hätten sie nicht? Dann würde ich dir mal empfehlen dich mit der
3dFX Rampage zu befassen, die kurz vor der
Vollendung stand, ein DirectX 8 Chip! Ohja, 3dFX hätte 32 Bit und Hardware T&L NIEMALS aufholen können.
Sie hätten es aufholen können. 3dFX ist nicht daran gescheitert, dass man bei 32Bit eine Generation zurückstand, sie sind auch nicht an Hardware T&L gescheitert, 3dFX ist an ihrer eigenen Überheblichkeit und damit getroffenen falschen Entscheidungen gescheitert, so z.B. dass sie selbst Karten herstellen wollten, statt Chips zu verkaufen, dass sie ein Fertiger übernommen haben usw.
Dein Beitrag liest sich wie ein Standard-08/15-Beitrag von Fanboys, die ein paar »Zahlen« und Stichworte in den Raum werfen, nur damit sie was in den Raum geworfen haben, aber eigentlich nicht wirklich wissen, was sie schreiben.
Der einzige wirklich valide Punkt, den du hast in deiner Aussage, ist CUDA. AMD arbeitet jedoch auch hier bereits daran, dass ihre Karten CUDA kompatible werden: ROCm. RDNA zeigt aktuell durchaus eine »Schwäche« in OpenCL als auch anderen Compute-Anwendungen, aber auch hier: Sobald man die Eigenheiten von RDNA kennt, kann man selbst OpenCL-Algorithmen sehr gut auf RDNA anpassen. Hier ist es jetzt entscheidend, dass AMD nicht nur ROCm für CDNA anpasst, sondern dass sie auch den Schwung zu RDNA und RDNA2 finden mit der Zeit, sodass Radeon Pros auf RDNA2-Basis möglich werden. Aber auch hier: RDNA2 hat keine generelle Compute-Schwäche, das Problem ist die Software und aktuell die Treiber.