News Licht in Spielen: AMD patentiert eigene Raytracing-Technologie

  • Gefällt mir
Reaktionen: Schmarall
@Vitali.Metzger Da gebe ich dir Recht. Wenn möglichst viel Hardware / Softwareunterstützung vorhanden ist, kommen auch immer mehr Spiele damit raus. Mit der Raytracing Geschichte kann man ja echt schicke Sachen machen und dabei ist man erst am Anfang.
 
Vitali.Metzger schrieb:
Dank AMD und der neuen Konsolen-Generation wird diese ganze Raytracing Geschichte massentauglich.

Und NVidia bekommt damit wieder noch mehr Grafikkarten verkauft, dank AMD. Das sollte eigentlich nicht das Ziel sein, glaube ich.
 
Habe mal in das Patent geschaut. Sieht eigentlich recht clever aus.

Die Textureinheiten werden um Ray-Intersection-Hardware erweitert, also werden die Textureinheiten entweder größer oder das lässt sich mit der Mathematik in den Einheiten bereits abdecken. Die Shader können dann einen Raytracing-Befehl an die Textureinheiten schicken. Die Daten (also unteranderem die BVH-Datenstruktur/Geometrie) werden einfach als Textur aufgefasst und ganz normal im Cache/Speicher gehalten. Das Ergebnis der Intersection wird dann an die Shadereinheiten zurückgegeben.

Also im Prinzip eine Beschleunigung der Intersection und eine intelligente Verpackung der Datenstrukturen als Textur. Das muss nicht langsamer sein als spezialisierte Hardware (kann aber natürlich sein).
 
  • Gefällt mir
Reaktionen: Colindo, danyundsahne, F.b und 15 andere
Toprallog schrieb:
Natürlich fressen die eine Menge Strom und werden dadurch sehr warm. Aber einen (großen) Chip zu kühlen auf einer recht kleinen Fläche, wie einer Grafikkartenplatine, stelle ich mir einfacher vor, als einen weiteren Chip zu kühlen. Dabei bleibt es ja nicht. Spannungsversorgung und RAM sind ja auch kühlpflichtige Komponenten.
Bei der 2080Ti hat NV ja scheinbar reichlich Probleme gehabt, ein 2-Chip-Design macht es nicht unbedingt einfacher/günstiger.

Wie um alles in der Welt kommst du auf ein 2 Chip Design?
Der Texturprozessor von dem hier die Rede ist, wird in das normale GPU Design und die TMU Einheiten integriert werden, wie kommst du auf einen extra Chip?
 
  • Gefällt mir
Reaktionen: MiG001, Beitrag und Transistor 22
Interessant. Ich hätte gedacht, AMD würde vielleicht das SoC mit Zen 2 und Navi Chiplets sowie einem dedizierten für RT anbieten.
 
DonL_ schrieb:
Wie um alles in der Welt kommst du auf ein 2 Chip Design?
Der Texturprozessor von dem hier die Rede ist, wird in das normale GPU Design und die TMU Einheiten integriert werden, wie kommst du auf einen extra Chip?
Ich hab den Text schon so verstanden. Wenn es nicht so gemeint ist, dann war mein letzter Kaffee wohl schon zu kalt. :D
 
  • Gefällt mir
Reaktionen: Lübke82, Tzk und Makso
Dass ein Texturprozessor verwendet wird, heißt nicht zwangsweise, dass er auch separat auf der Platine gelötet werden muss, sondern kann genauso On-Chip sein.
Die Verwendung von Shadern und einem Texturprozessor sowie die Auslagerung als Software auf einem 12-16 Kerner AMD kann da durchaus nicht die aller schlechteste Option sein. Grafikkarte kann damit Chipfläche sparen und es wird Last auf die CPU verlagert. Wenn die Grafikkarte sowieso meist im Limit läuft und auf der Mainstream-Plattform genug Threads der CPU wenig ausgelastet sind, ist das erst einmal eine nicht schlechte Idee. Wie es in der Praxis aussieht, werden wir dann bald sehen. Meine Glaskugel sagt: Es hängt der Hardwarelösung von Nvidia etwas hinterher, vergrößert die CPU-Last spart aber Fläche und auch Leistungsaufnahme auf der GPU. Dazu kränkelt es wahrscheinlich etwas bei der Softwareumsetzung. Man muss bedenken, dass AMD speziell die RTG nur ein Bruchteil der Ressourcen von Nvidia zur Verfügung hat. Da geht das nicht mal eben so auf Augenhöhe (im CPU-Umfeld ist es ja schon eine Sensation, dass es so schnell ging, aber da war Intels 10nm stark dran beteiligt)

Unterm Strich ist es genauso ein erster Schritt auf den langen Weg zum wirklichen Nutzen von Echtzeit-Raytracing. Nichts, was die Welt von heute auf morgen revolutioniert. Ein kleines Gimmick, was man aktuell kaum braucht und auch die nächsten paar Jahre noch nicht wirklich Relevanz erlangen werden.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Transistor 22, GHad und 7 andere
@Ozmog Danke für die Erklärung und Einschätzung.
 
Apocalypse schrieb:
120 FPS.
Aber natürlich nichts davon gleichzeitig. ;-)
Hehe, ich mein ja nur.. was bringt der ganze Kram wenn nicht alles gleichzeitig in annehmbarer Performance läuft? ;-)
 
Klingt soweit ganz gut - auch dass der Ansatz eine andere Herangehensweise softwareseitig impliziert, ist durchaus positiv aus AMDs Sicht zu werten, da ansonsten ja wie erwähnt eher nVidia zugearbeitet werden würde -
Mal sehn, was wirklich dabei rauskommen wird... :)
 
Ich glaube mit "Software" ist huer nicht die Berechnung auf der CPU gemeint sondern die Shader-Programme. Und diese werden durch HW beschleunigte Intersection Berechnungen auf den Textureinheiten unterstützt.
 
  • Gefällt mir
Reaktionen: .Sentinel. und xexex
Für Konsolen wahrscheinlich ein guter Ansatz, da man selbst die Kontrolle über CPU und GPU hat. Beim PC hängt es dann davon ab welche CPU der User verbaut hat.

edit: Post über mir mach meine Spekulation sinnlos. :)
 
yurij schrieb:
Ich glaube mit "Software" ist huer nicht die Berechnung auf der CPU gemeint sondern die Shader-Programme.
Das habe ich mir inzwischen auch schon überlegt, kann gut sein. Ob es allerdings auch etwas CPU-Last nötig hat?
 
Die frage ist.. würde dann Raytracing mit AMD in Games anders aussehen als mit Nvidia? Ansich sollte doch beides das Licht Realistisch berechnen oder?

Von mir aus können sie sowas aber gern auch von der CPU berechnen lassen.. da liegt ja oft Leistung brach gerade bei vielen Kernen.
 
Ozmog schrieb:
Die Verwendung von Shadern und einem Texturprozessor sowie die Auslagerung als Software auf einem 12-16 Kerner AMD kann da durchaus nicht die aller schlechteste Option sein.

Soweit ich das Patent verstehe, geht es hier um Auslagerung in Shader-Software. Also alles innerhalb der GPU. Dass natürlich ein wenig Treiberlast dazu kommt, ist klar. Aber es geht nicht darum Raytracing auf der CPU zu berechnen - das wäre auch viel zu teuer.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Transistor 22 und Tzk
Sunjy Kamikaze schrieb:
Die frage ist.. würde dann Raytracing mit AMD in Games anders aussehen als mit Nvidia?
Wenn es über DXR läuft, sollte es ein ähnliches Ergebnis liefern. Allerdings hängt es auch davon ab, wie viele Rays abgeschossen werden und was alles per RT berechnet wird. Alles geht ja noch längst nicht.
Nvidia hatte ja auch Probleme mit einigen Objekten, die dann nicht mehr Berücksichtigt werden, aufgrund ihrer geringen Bedeutung. Ich glaube, da ging es um umherwehende Blätter oder so.
 
Warum sollte sich Sony, mit AMD HW an den von Nvidia benützten Microsofts Standard DXR halten ?
 
Ich sehe es so. Da AMD Kernen Geil ist und die Konsolen werden sicher 4+4 oder 8+8 Kerne bekommen, wird da sicher die RT einen Teil an die CPU auslagern. Was im Grunde nicht schlecht ist. Wie es sich aber unter Windof auswirkt werden wir sehen.
 
Zurück
Oben