• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Xbox Series X: Technische Details zur Zen-2-CPU und RDNA-2-GPU

Teralios schrieb:
Bei NVIDIA sendet der Shader seine Anfrage an den RT-Core, bei AMD an die TMU. Beide müssen ab der Abfrage darauf warten, bis sie das Ergebnis ihrer Anfrage haben, dann geht es weiter.
Also bisher hat es sich für mich als Leihen so angehört das nVidias Ansatz viel performanter ist als der von AMD.
Aber nach deiner erklärung würde ich jetzt das so verstehen das es wie schon bei nVidia auch bei AMD zum Leistungseinbruch bei RT kommen wird. Und wahrscheinlich in ähnlichem Verhältnis.
 
  • Gefällt mir
Reaktionen: Maxxx800 und BGnom
Teralios schrieb:
Shader berechnet seinen Wert, Shader stößt auf einen "unbekannten" Wert und muss den BVH-Baum durch suchen. Shader sendet Anfrage an den RT-Core oder die TMU. RT-Core/TMU durchsuchen nun den BVH-Baum nach dem richtigen Eintrag. RT-Core/TMU liefern den Wert an den Shader zurück. Shader rechnet weiter.
Mir fiel eben noch ein Detail aus meinem Artikel ein: In AMDs Patent hieß es, die TMU macht immer nur einen Schritt des BVH-Baums, während NVidias RT-Core den ganzen Baum bis zum Triangle durch geht. Also braucht AMD ein Vielfaches ihrer GRays, um auf die gleiche Zahl wie Nvidia zu kommen. Andererseits ist AMDs Ansatz deutlich flexibler, falls man Strahlen mittendrin verwerfen kann.
Taxxor schrieb:
Danke für die grobe Erklärung, bedeutet das aber nicht trotzdem, dass immer nur jeweils ein Bruchteil der CUs die Aufgabe übernehmen muss, die bei Nvidia die RT Cores übernehmen?
Nein, siehe oben. AMDs TMUs gehen an die Berechnung ganz anders heran.
Taxxor schrieb:
Ich bin glaube ich echt zu wenig in der Materie um hier überhaupt einen halbwegs schlüssigen Gedankengang zu formulieren ohne dass dort direkt wieder Annahmen drin sind, die falsch sind^^
Schon gelesen? https://www.computerbase.de/2020-04/raytracing-in-spielen-gpu-beschleunigung/
 
  • Gefällt mir
Reaktionen: Sephiroth51
  • Gefällt mir
Reaktionen: bad_sign, VPG_Danny, adAstra und eine weitere Person
@menace_one bin ich grundsätzlich bei dir, leider glaube ich dass es hier noch ein wenig dauern wird. Ich war kurz irritiert als ich das gelesen habe bis full HD da ich bisher selbst in diesem Bereich hinsichtlich editing unterwegs war. Programme wie Resolve bieten auch schon sämtliche Schnittstellen aber da ich dort nichts hochlade ist es an meinem Anwendungsfall vorbei gegangen bisher.

Wenn es dann bis UHD hoch geht wäre es schön. Da es ein offener Standard ist sollte das Thema Verbreitung sich noch entspannen und evtl sehen wir dann für Hopper und RDNA3 entsprechende Implementierungen.

Dank Threadripper habe ich aber auch kein Problem wenn's erstmal nur in Software geht. Düfte keine Probleme bis 8k geben.
 
Colindo schrieb:
Mir fiel eben noch ein Detail aus meinem Artikel ein: In AMDs Patent hieß es, die TMU macht immer nur einen Schritt des BVH-Baums, während NVidias RT-Core den ganzen Baum bis zum Triangle durch geht. Also braucht AMD ein Vielfaches ihrer GRays, um auf die gleiche Zahl wie Nvidia zu kommen. Andererseits ist AMDs Ansatz deutlich flexibler, falls man Strahlen mittendrin verwerfen kann.
Ja, das wird sich noch zeigen müssen. Wenn ich mir das Patent und die aktuelle Beschreibung ansehe, scheint es aber durchaus so zu sein, dass der Shader ab einem gewissen Punkt die Suche abbrechen kann und man so flexibler reagieren kann, was wieder Leistung freigibt.

Eine Suche gnadenlos durchführen kann zwar schnell sein, am Ende aber mehr Zeit benötigen, falls die Rückgabe unbrauchbar ist oder unnötig.

Das sind aber jetzt dann Detailfragen der Umsetzung. Da muss man nun schauen, wie es geht und was kommt. Der "grobe" Ablauf gleicht sich bei beiden jedoch.

derseb schrieb:
Raytracing geht doch auch ohne den ganzen quatsch, daher verstehe ich hier die Aufregung nicht... liegt doch alles am Entwickler der Spiele und nicht am Blech
Dann würde ich mal den Beitrag genau lesen und welche Nachteile Crytecs Ansatz da hat. ;)

Es hat schon ein Grund, warum man nun stärker auf Path-Tracing zusammen mit einem BVH-Tree geht.
 
  • Gefällt mir
Reaktionen: jemandanders und Colindo
RNG_AGESA schrieb:
falls nein; wozu die ganzen konsolennews?
Haben Auto-News von BMW oder Mercedes Auswirkungen auf die Preisgestaltung?

falls ja: großartig.
Wenn nicht: nicht tragisch, immerhin ging es um die Technik ;)

zum Thema: da mir kaum noch Zeit zum Zocken bleibt, kommt mir die neue Konsolengeneration sehr gelegen. Mal eben einschalten und läuft ist einfach bequemer als sich Hardwaretechnisch auf dem laufenden zu halten, Treiber installieren oder zusehen das alles flüssig läuft.
 
Quake 2 ist kein gutes Beispiel.
Ein Frame bei Metro zeigt, dass die RT Cores wirklich nur einen kurzen Moment zum Einsatz kommen.

1597757624881.png
 
  • Gefällt mir
Reaktionen: bad_sign, fox40phil, gartenriese und eine weitere Person
Inxession schrieb:
Interessant, interessant ..

sollte der RT Ansatz dann auch bei Big Navi Einzug halten (was sehr wahrscheinlich ist), kann man ja eigentlich erahnen das die Leistung signifikant einbricht, sobald RT zugeschaltet wird.

Wird die geballte Power komplett ohne Raytracing genutzt, kommt einiges an Output, möchte man meinen.

Ob das dann der Türöffner für RT ist, bleibt abzuwarten.
Naja man sieht an Beispielen wir RDR2 dass hübsche Spiele auch ohne RT auskommen können, wobei dann natürlich wenig "dynamisch" passiert und die Entwicklung sehr arbeitsintensiv ist (lightmaps).
RT vereinfacht die Implementierung schöner Lichtstimmungen und sorgt für realistische Farbverhältnisse.

Vor allem grafisch einfachere Titel profitieren enorm finde ich.
Ein Fallguys würde wie ein Animationsfilm aussehen.
Bei dem RT Minecraft Mod sieht man was ich meine: Statt Computergrafikblöcken sieht man "echte" Legoblöcke, die Beleuchtung allein sorgt für einen enormen Sprung im Realismus.

Meine Prognose geht in Richtung dahin dass AAA-Top Grafik Titel weiterhin mit eher wenig Raytracingeffekten kommen weil dort zu wenig GPU RT Leistung zur Verfügung steht und die Entwickler mit Arbeitsaufwand und Shaderzaubereien auch plausibles Licht hinkriegen. Games von kleineren Studios mit weniger Geld werden durch Raytracing stark profitieren.
 
  • Gefällt mir
Reaktionen: rumpeLson, gartenriese und evilhunter
Shoryuken94 schrieb:
Wüsste nicht, warum ich die kaufen wollen würde. Im PC wäre die nicht sinnvoll nutzbar. Denn dort bräuchte man dann auch GDDR6 oder HBM2 als Hauptspeicher. Mit normalen DDR4 Speicher wäre das eine ziemliche Gurke.

Tja. Vor ein paar Jahren hätte ich erwartet, dass es inzwischen reihenweise PCs, speziell Notebooks, mit HBM-APUs gibt, und ich wäre mir auch sehr sicher gewesen, dass die nächste Konsolen-Generation voll auf HBM-Speicher setzt. HBM schien mir das Potential zu haben, den Speicherflaschenhals von APUs und generell leistungsfähigeren SoCs zu überwinden und das Tor weit auf zu machen, für extrem leistungsfähige und kompakte, hoch-integrierte Systeme.

Aber irgendwie hat es wohl keiner hinbekommen, HBM-Speicher günstig/wirtschaftlich herzustellen, und bei High-End-Grafikkarten (für Consumer) scheint der Trend tatsächlich wieder weg von HBM, hin zu immer schnellerem, klassischen GDDR-Speicher zu gehen.
 
  • Gefällt mir
Reaktionen: .Sentinel., fox40phil, jemandanders und eine weitere Person
Xtrasmart schrieb:
In meinen Augen ein beeindruckendes Stück Technik für den kolportierten Endkundenpreis um 500 Euro. Wo wären wir bei einem vergleichbaren Gaming PC auf aktueller Plattform ? 1500 Euro ?
immer diese übertreibungen...

das system hier raucht ps5 und xbone locker in der pfeife.
 
derseb schrieb:
Raytracing geht doch auch ohne den ganzen quatsch, daher verstehe ich hier die Aufregung nicht... liegt doch alles am Entwickler der Spiele und nicht am Blech

Klar geht es, halt nur ohne Hardwarebschleunigung. Das ist ja genau der Punkt. Die benötigten Berechnungen können theoretisch sogar komplett in Software auf der CPU gerechnet werden, was aber noch viel viel langsamer ist.

derseb schrieb:
Von wegen Raytracing geht nicht mit Vega ;-)

Auch das hat nie jemand gesagt. Raytracing als Technik selbst ist nicht wirklich von der Architektur abhängig. Aber die Art ist davon abhängig. Vega kann kein Microsoft DXR. Technisch theoretisch schon, dass müsste AMD aber über den Treiber aktivieren, was Sie nicht machen. Zur Crytekdemo. Diese hat hier und da Ihre Limits und Einschränkungen, die sehr gekonnt mit der gewählten Szene umgangen werden ;) Aber ja, wenn man einen Spiegelsaal damit bauen möchte, geht das relativ gut. Realistische Szenen hingegen sind stark vom dargestellten abhängig, genauso wie die Qualität. Mehr dazu in diesem Video

 
  • Gefällt mir
Reaktionen: fox40phil und gartenriese
Taxxor schrieb:
Du gehst hier davon aus, dass sich AMD bis zum Release der RTX Karten absolut 0 mit Raytracing beschäftigt hat, woher kommt diese Annahme?

Du legst mir da etwas in den Mund das ich nicht gesagt habe, jedoch hinkt der vergleich auf den du hinaus willst!

Zu wissen was etwas ist und wie man es einsetzen kann ist das eine. Es praktikabel umzusetzen das andere. Raytracing selbst ist nichts neues. Die Art wie es berechnet wird das es effektiv ist schon. Denn vor den RTX Karten konntest du es zwar auch berechnen lassen das Problem wahren dann nur unspielbare Frame-raten im einstelligen bereich und dabei hat die Grafikkarte nichts anderes berechnet als nur den Raytracing Effekt. Jetzt hast du Spielbare Frame-raten während weiterhin ein komplettes Spiel berechnet wird und nicht das die ganze Leistung nur für Raytracing Effekte genutzt wird. Es war praktisch ein Luxus Effekt der Primär nur in Filmen genutzt wurde weil man ganze Rechenzentren für die Berechnungen dieses Effekts für Sekunden in Filmen nutzt. Aus dem Grund war Raytracing zuvor in Spielen (nicht tech-demos) praktisch nicht vorhanden.
 
  • Gefällt mir
Reaktionen: gartenriese
Gamefaq schrieb:
Bei nVidia haste du die Tensor Kerne die nur für Raytracing oder DLSS (oder eben die Kombination so wie benötigt) genutzt werden.

So wie ich es verstanden habe dürfte es dann bei beiden gleich ablaufen.
Die Strahlenverfolgung vom Raytracing findet mit Hilfe einer FFU (fixed function unit) statt die bei nvidia in Form der RT Units und bei AMD als Zusatzfunktion in den TMUs vorliegen würde, der Effekt selbst wird von den Shadern berechnet. In beiden Fällen darf erstmal auf das Ergebnis der Strahlenverfolgung gewartet werden bis es mit dem Rendervorgang weiter gehen kann. So oder so nehmen die FFUs "nur" einen arbeitsintensiven Teil des Ablaufs ab.
Die Tensor Cores waren seinerzeit lediglich zum entrauschen des Bildes im Gespräch (keine Ahnung was wirklich daraus wurde) und sind sonst eher ein Fall für DLSS.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Gamefaq schrieb:
Du legst mir da etwas in den Mund das ich nicht gesagt habe, jedoch hinkt der vergleich auf den du hinaus willst!
Zu wissen was etwas ist und wie man es einsetzen kann ist das eine. Es praktikabel umzusetzen das andere.

Du sagtest doch genau das, AMD habe erst mit dem Release von Nvidia angefangen, sich zu überlegen, wie man nun auf die Schnelle halbwegs effizient Echtzeit RT für Spiele in die Consumerkarten bekommen kann.

Nvidia hat daran 10 Jahre gearbeitet, wer sagt denn, dass AMD nich auch schon Jahre daran gearbeitet hat, nur eben 2 Jahre später mit dem Release sind, weil sie die Technik erst noch weiter reifen lassen wollten?
 
  • Gefällt mir
Reaktionen: .Sentinel.
Glyphus schrieb:
so a ray being tested against a box with 3 triangles will take up to 3 cycles to be tested (no need to continue testing once a hit is found)."
Das ist so nicht richtig, da eine Box am Ende immer nur 1 Triangle enthält. Es würde also in einem Cycle getestet, welches Triangle das finale ist, und im zweiten Cycle die Intersection durchgeführt.
@xexex
Ich denke du hattest nicht mitbekommen, dass die RT-Cores Teil eines SMs sind. Deswegen stimmen alle Aussagen von @Teralios.
Gamefaq schrieb:
Nvidia hat sie mit Raytracing in Hardware überrascht und an den Tensor Kernen nach eigener Angabe 10 Jahre geforscht.
Grob falsch. Nvidia bezieht sich auf öffentliche Demos, die sie 2008 durchgeführt haben. Die Algortihmen waren in der Wissenschaft aber alle bekannt, mehrere Jahre bevor Nvidia sie 2018 eingesetzt hat. AMDs Patent ist auch von 2017, also vor Turing.
ThePlayer schrieb:
Aber nach deiner erklärung würde ich jetzt das so verstehen das es wie schon bei nVidia auch bei AMD zum Leistungseinbruch bei RT kommen wird. Und wahrscheinlich in ähnlichem Verhältnis.
Es kann gut sein, dass sich die Szenen, in denen der Einbruch am stärksten ist, bei beiden Herstellern unterschiedlich ist.
 
  • Gefällt mir
Reaktionen: gartenriese
Taxxor schrieb:
Zu den anderen Ausführungen wurde ja schon genug geschrieben, die TMUs bei AMD machen nicht anderes als die RT Cores bei Nvidia und es wird auch bei Nvidia weniger Leistung für das Spiel selbst bereitstehen, je mehr RT genutzt wird, da deren SMs ebensowenig was anderes machen können, während sie auf die RT Cores warten.

Das ist so nicht richtig.
While that standard FP32 shader processing takes place, the dedicated RT cores and integer pipeline are executing their own specialized tasks at the same time. Once all that’s done, everything’s handed off to the tensor cores for the final 20 percent of a frame, which perform their machine learning-enhanced magic—such as denoising ray traced images or applying Deep Learning Super Sampling—in games that utilize Nvidia’s RTX technology stack.

1597758375127.png
 
  • Gefällt mir
Reaktionen: .Sentinel.
@xexex

Schön das du mich bestätigst denn überall da wo Strahlen verschossen werden um was zu ermitteln ist es grün und da wo am Ergebnis gearbeitet wird nicht mehr. :D
 
  • Gefällt mir
Reaktionen: gartenriese
Zurück
Oben