r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.692
Also im Prinzip das, was auch die RT Kerne machen.yurij schrieb:Und diese werden durch HW beschleunigte Intersection Berechnungen auf den Textureinheiten unterstützt.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Also im Prinzip das, was auch die RT Kerne machen.yurij schrieb:Und diese werden durch HW beschleunigte Intersection Berechnungen auf den Textureinheiten unterstützt.
Sunjy Kamikaze schrieb:Die frage ist.. würde dann Raytracing mit AMD in Games anders aussehen als mit Nvidia? Ansich sollte doch beides das Licht Realistisch berechnen oder?
HardRockDude schrieb:Ob die Lösung wirklich Nvidia hinterher hängen wird, wag ich nach der im März vorgestellten Demo aber etwas zu bezweifeln
https://www.computerbase.de/2019-03/neon-noir-crytek-raytracing-demo-cryengine/
Das ist aber schon nicht ganz vergleichbar. Die Crytek-Demo hielt gewisse Informationen zurück und ob man einen vordefinierten Kameralauf mit einem Spielgeschehen vergleichen kann, ist auch fraglich. Dazu kommt eben, wieviel Last auf der GPU liegt und mit wie vielen Frames das ganze dann läuft. Die Crytek-Technik verwendet dazu noch einige Tricks mehr für die Berechnung (was nicht heißen soll, dass es schlecht ist, nur eben anders)HardRockDude schrieb:wag ich nach der im März vorgestellten Demo aber etwas zu bezweifeln
Die Konsolen-Kidz werden es eh nicht merken.Mar1u5 schrieb:Die Konsolen werden dann bestimmt mit 8k, 144Hz, HDR, Raytracing beworben
die crytek demo hat mit der hier angesprochenen amd technologie soviel zu tun wie mit einem backstein...HardRockDude schrieb:Ob die Lösung wirklich Nvidia hinterher hängen wird, wag ich nach der im März vorgestellten Demo aber etwas zu bezweifeln
https://www.computerbase.de/2019-03/neon-noir-crytek-raytracing-demo-cryengine/
Im Patent wird ja darauf hingewiesen, dass der Shader die Steuerung übernimmt (Software) und die Textureinheit quasi für den Hardwarebasierten Ansatz steht.Herdware schrieb:Vielleicht sind damit auch nur die Textur-Einheiten (TMU) gemeint, die es sowieso auf jeder (halbwegs modernen) GPU gibt. Eventuell mit speziellen Anpassungen/Erweiterungen, so dass sie zusätzlich auch RT beschleunigen können.
Es ist kein weiterer Chip. Es wurde einfach im Deutschen als TexturProzessor übersetzt.Toprallog schrieb:Natürlich fressen die eine Menge Strom und werden dadurch sehr warm. Aber einen (großen) Chip zu kühlen auf einer recht kleinen Fläche, wie einer Grafikkartenplatine, stelle ich mir einfacher vor, als einen weiteren Chip zu kühlen.
A texture mapping unit (TMU) is a component in modern graphics processing units (GPUs). Historically it was a separate physical processor.
Today (2013), TMUs are part of the shader pipeline and decoupled from the Render Output Pipelines (ROPs). For example, in AMD's Cypress GPU, each shader pipeline (of which there are 20) has four TMUs, giving the GPU 80 TMUs. This is done by chip designers to closely couple shaders and the texture engines they will be working with.
Ich sehe da keine Probleme den man könnte den Texturprozessor in das Chip Design integrieren oder als zweiten Chip mit dem gleichen CHip Gehäuse nutzen ohne irgendetwas zusätzlich zu kühlen. Da ich aber davon ausgehe dass der CHip in 7nm gefertigt wird gehe ich persönlich von der 2 DIE Variante aus. Man hat inzwischen ausreichen Erfahrung mit multichip Designs gesammelt und die kleinere Chip Größe in Verbindung mit dem weniger komplexen Chip Design sollte auch die Ausbeute verbessern und damit die Kosten minimieren.Toprallog schrieb:Aber ein eigenständiger Texturprozessor auf der Grafikkarte erschwert das Platinenlayout, muss zusätzlich gekühlt werden und wird auch gut Strom fressen.
ob sich ein Multichip Design lohnt hängt vor allem von der Größe der einzelnen Chips und die zu erwartene Chip Ausbeute ab. Mit zunehmender Größe des Chips nimmt natürlich auch die Angriffsfläche für Defekte zu die den Chip beschädigen oder gar zerstören können, deshalb nimmt die Ausbeute an voll funktionstüchtigen Chips auch mit zunehmende Chip Größe (beim gleichen Fertigungsprozess) erheblich ab.Toprallog schrieb:Natürlich fressen die eine Menge Strom und werden dadurch sehr warm. Aber einen (großen) Chip zu kühlen auf einer recht kleinen Fläche, wie einer Grafikkartenplatine, stelle ich mir einfacher vor, als einen weiteren Chip zu kühlen. Dabei bleibt es ja nicht. Spannungsversorgung und RAM sind ja auch kühlpflichtige Komponenten.
Bei der 2080Ti hat NV ja scheinbar reichlich Probleme gehabt, ein 2-Chip-Design macht es nicht unbedingt einfacher/günstiger.
Die Erfahrung hat gezeigt das es sich offensichtlich nicht für AMD rentiert solche Karten zu entwickeln weil sie vom Großteil der Kundschaft ohnehin nur als Preisdrücker für die Geforce Karten angesehen werden.Roche schrieb:Nett, dass auch AMD sich mit dem Thema beschäftigt.
Allerdings hätte ich von denen viel lieber mal wieder gescheite neue Grafikkarten mit ordentlich Leistung bei gleichzeitig angemessenem Stromverbrauch und einem fairen Preis.
Das ist mir viel wichtiger als irgendwelche Raytracing Effekte.
Was Sony macht, ist hier erst einmal egal. Interessant ist eben was AMD macht und die werden schlecht beraten jenseits von Microsofts DXR einen separaten weg einzuschlagen. AMDs Marktanteil für PCs ist eben viel zu gering, um eine proprietäre Lösung anzustreben, wenn es doch bereits eine verfügbare Lösung gibt. Dazu gibt´s dann ja auch noch die X-Box, die dann auch DXR verwenden möchte.rikko11 schrieb:Warum sollte sich Sony, mit AMD HW an den von Nvidia benützten Microsofts Standard DXR halten ?
pipip schrieb:Im Vergleich zur NV Lösung, soll man unter anderem an Die Fläche Sparen und man benötigt auch keine große Puffer und nützt die Speicherpool der Textureinheit.
pipip schrieb:Sprich, man hat per Software laut Patent mehr Freiheiten, hat aber natürlich etwas weniger Performance als die RTX Variante, aber deutlich besser als rein per Software.
Gerade, wenn es bei AMD bei hohen Shaderzahlen nicht so gut skaliert, was "gewöhnliche" Grafikberechnungen betrifft (wie es bei Navi aussieht, wissen wir natürlich noch nicht).pipip schrieb:Kurz interessant wie gut das funktioniert und ob durch "gewonnene" Die-Size, man das dafür mit mehr Shader kompensieren kann.
Nicht mitbekommen, dass es hier um Vermutungen rein auf Basis des Patents geht?Übersoldier75 schrieb:Benchmarks? Link?
Herdware schrieb:Insgesamt klingt AMDs Ansatz eleganter/flexibler, aber es kommt natürlich darauf an, wie schnell RT dann letztlich damit läuft. Wenn Nvidia nicht total daneben gegriffen hat, sollten spezialisierte Einheiten leistungsfähiger sein, als (erweiterte) Allround-Hardware.
Ozmog schrieb:Zumindest hat man nicht x Diefläche für dedizierte RT-Einheiten verbraucht, die ja dann nur zum Tragen kommen, wenn auch RT berechnet wird. Und bei wie vielen Spielen ist es bisher der Fall? Ein Aufpreis für ein (bisher) kaum genutztes Feature.
Ozmog schrieb:Nicht mitbekommen, dass es hier um Vermutungen rein auf Basis des Patents geht?
pipip schrieb:Such dir die "Benchmarks" von einer reinen Software Lösung (GTX Karten) vs einer RTX Karte und addiere das mit den Fakt, dass Shader programmierbar sind und die TextureUnit mehr oder weniger (falls ich mich nicht irre) eine fix function Prozessor war, der seinen Weg wie vieles andere in die GPU geschafft hat und direkt in der grafik pipline ist.