News Grafikkarten: AMD will auf der E3 auch über Raytracing sprechen

[wege]mini schrieb:
die schwelle steigt exponentiell mit der auflösung......4k....aktuell niemals.

full HD...spätestens in 2 jahren...

mfg

Irgendwo zwischen 6k und 8k bringt mehr Auflösung für Desktops dann aber auch nix mehr und bei Fernsehern ist bei üblichen Größen und Abständen ja 4k schon genug. ;-)
 
  • Gefällt mir
Reaktionen: Unnu und [wege]mini
Das Prinzp das mit DXR bzw. dem BVH Traversal eingesetzt wird, wurde Timothy L. Kay. James T. Kajiya bereits 1986 erforscht/entwickelt.
https://cumincad.architexturez.net/system/files/pdf/67d2.content.pdf

Es ist KEINE nVidia Erfindung und keine proprietäre Art RT durchzuführen.
Auch DXR ist nichts proprietäres.
Die RT Cores auf den nvidia Karten sind fixed function Einheiten, die die DXR Instruktionen z.T. erheblich beschleunigen können.

In der Praxis erreichen die RT Cores ein Äquivalent von ca. 60 Teraflops.
Über die unbeschleunigte Funktion erreicht eine GTX Karte mit 11.3 Teraflops ca. ein Gigaray.

Die Rechenleistung ist also da, wie man auch am fully path traced Quake 2 sehen kann, das kürzlich erschienen ist.

Ich muss schmunzeln, wenn ich lese, Raytracing braucht noch Zeit, wird erst in Zukunft kommen und und und....

Ausnahmslos alle modernen Spiele enthalten Raytracing- Techniken. Manche vorberechnet, manche über eine Batterie an Tricks angenähert.
Raytracing ist also schon längst da.

Wir stehen nun an der Anfangsphase des "real- Deals". Berechnung ohne Tricksereien, was im Spieleentwicklungsprozess, wenn man den Entwicklern, die mit DXR zu tun hatten, ERHEBLICH Ressourcen im Tech- und im Art- Department einspart.

Lustigerweise bestätigen viele Entwickler den Ausspruch "It just works", für den Jensen Huang von der Community so gescholten wurde.

How easy is it to develop with UE4’s new RTX tools?

Very easy! Mostly everything just works, and is highly backwards compatible. Kudos to Epic for making the transition from rasterized to RTX so seamless.
https://babeltechreviews.com/stay-in-the-light-rtx-required-game-preview-dev-interview/

Es kann also mittels Raytracing wieder deutlich mehr Zeit auf die Entwicklung von Gameplay- Mechaniken gelegt werden. Die Graphic Artists werden in ihrer Kreativität nicht mehr technisch eingeschränkt (keine dynamischen Szenerien mit prebaked global illumination möglich).

Also nochmal- Raytracing wird in fast allen modernen Spielen bereits genutzt, jeweils aber immer mit Einschränkungen für die Leveldesigner und die Veränderbarkeit, Lebendigkeit, Dynamik einer Szene (was ja immer wieder von Spielern bemängelt wird- mangel an Interaktion mit der Umwelt). Das findet hier nämlich seinen technischen Ursprung.
Der Rasterizer kriegt das nicht richtig beleuchtet.

Somit wundert es mich nicht, dass einige hier keine "großen" Unterschiede zu aktuell verfügbaren AAA Spielen sehen. Die Raytracen nämlich schon alles und Backen das dann Fest in die Szene rein (was sie eben dazu verdammt z.B. lichttechnisch nicht richtig zu reagieren, wenn die Umgebung zerstörbar sein soll).

Und das mit gigabyteweise Lightmaps, Probes und Konsorten, oder habt Ihr Euch noch nie gefragt, warum alle modernen Spiele fast schon ganze Festplatten füllen?

Die Entwicklung ist unaufhaltsam. Es geht um niedrigere Entwicklungszeit, höheren Freiraum für die Kreativen, geringere Fehleranfälligkeit der Routinen, höhere Grafikqualität und damit ganz simpel im Endeffekt ums Geld.
Allein deswegen sitzen gerade alle großen Engine- Entwickler mit Hochdruck dran, diese Fit für DXR zu machen.

Schön, dass man bald erfährt, wie AMD das ganze Thema angehen will bzw. welche Hardware wie DXR unterstützen wird.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Piranha771, Unnu und 10 andere
t3chn0 schrieb:
Also wenn AMD das macht, dann ist Raytracing bestimmt auf einmal voll geil und sinnvoll =).

Ne, als es intel bringen wollte, war es Schei...e und mit nvidia ist es endlich cool
 
@ZeroZerp

es ist trotzdem nur "brückentechnologie"

hier ist eine art von spekulatius fred.... schaut man zu ssd´s stellt man fest, dass 3 zustände kein problem sind. also kann man locker die alte vektor basierende berechnung für 3d objekte hier noch einmal deutlich pushen...

das passiert aber frühestens 2025...

graka´s sind halt echt nett für bestimmte berechnungen (bitcoins ist doch nur die spitze des eisberges) und mit guter software kann man manche sachen echt besser berechnen als mit "cpu´s".

die entwicklung wird nicht stehen bleiben (auf dem papier existiert sie schon) und wir werden erleben, was wir als mainstream bekommen werden.

mfg
 
Ich finde die Technik rund um Raytracing sehr interessant, schon als ich vor Jahren davon mal in der PCGH gelesen hatte (ja, Print)

Bei Turing ist der Kritikpunkt eher, dass es eben recht große Dice erfordert durch die RT-Cores plus die Tensor-Cores, es als Killer-Feature angepriesen wurde und dann doch nur Partiell bei einigen wenigen Spielen zum Einsatz kommt. Die erste Vorstellung war ja schon fast katastrophal, wo eine Tausend-Euro-Karte für ein paar Reflexionen in FHD gerade mal auf 60 FPS kam.

Klar muss irgendwo ein Anfang gesetzt werden. Aber ob die Vorgehensweise von Nvidia da so ideal war?
Klar ist, dass es noch eine ganze Weile dauert, bis RT sich durchsetzt. Und somit ist es bis jetzt ein teuer erkauftes Feature im Experimental-Status. Auch wenn mit Navi bereits RT-Echtzeitberechnung Einzug erhalten sollte, wird es da auf kurzer Sicht nicht viel ändern. Aber dass sich eine Technik wirklich durchsetzt, ist definitiv mehr als ein Alleingang notwendig. Ähnlich wie mit Mantle, als Einstieg in die Welt der Low-Level-API. Mantle selbst konnte sich nie verbreiten, wenn es nur AMD verwendet. Daraus wurde aber Vulkan und es hat bestimmt auch Einfluss auf DX12 ausgeübt. DX12 bzw Low-Level-APIs an sich haben sich ja immer noch nicht so dolle durchgesetzt, was allerdings auch ein Stück an Nvidia lag, weil Pascal nicht so besonders gut mit denen umgehen kann. Turing kommt da deutlich besser bei weg, sah man beispielsweise beim letzten Test mit Vulkan.

Letztendlich, obwohl die Technik sehr interessant ist, bringt das zur Zeit noch viel zu wenig. Im Spielgeschehen selbst gehen dann diverse tolle Effekte und Details wieder unter und es löst eher zu Beginn und zwischendurch an ruhigen Passagen wirklich einen Wow-Effekt aus. Meistens jedoch hat man eher wenig davon, weil man sich eben auf andere Sachen konzentriert. Ja, irgendwann wird das jedes Tripple-A-Spiel haben und auch Mittelklasse-Karten und Konsolen unterstützen. Aber im Moment sind das teuer erkaufte Details, die unterm Strich wenig bringen. Ich lehne mich erst einmal bequem zurück und verfolge die Entwicklung um RT trotzdem mit großem Interesse.

RT wird mit ziemlicher Sicherheit die Zukunft sein, wie lange das aber dauert, das steht in den Sternen. Ein paar Jährchen werden aber mindestens noch vergehen.
 
  • Gefällt mir
Reaktionen: GERmaximus, Orok91 und geist4711
solange es weltweit nur drei Spiele gibt die RT unterstützen ist die Sache für mich kein Kaufargument sondern maximal ein Techdemo, egal vom wem eine RT taugliche Grafikkarte letztenendes kommt.
Raytracing sieht mal mehr oder weniger gut aus, ist aber vor allen Dingen ein Leistungsfresser und ich denke da werden die AMD Karten, sofern sie es denn unterstützen werden, keine Ausnahme bilden.

Man darf weiter gespannt sein was die Zukunft noch bringt.
 
  • Gefällt mir
Reaktionen: GERmaximus, Chismon, Otsy und eine weitere Person
cookie_dent schrieb:
sofern sie es denn unterstützen werden, keine Ausnahme bilden.

stell dir einfach vor, die rdna cores können beides berechnen....

du machst jetzt also 2k cores für die 3d berechnung frei und hast noch 1k cores für raytracing....OMG

lass doch die karten erst mal kommen und dann schauen wir, was sony da bauen lassen hat.

mfg

@ZeroZerp

wir haben uns falsch verstanden...raytracing wird bleiben. die art und weise wie "chips" arbeiten werden, wird sich aber ändern. aktuell haben wir 0 und 1. das wird sich in den nächsten 10 jahren ändern :heilig:
 
[wege]mini schrieb:
es ist trotzdem nur "brückentechnologie"
Wie meinst Du das? DXR beinhaltet ja alle Funktionen, die die unterschiedlichen Raytracing Verfahren auch in Proof- Qualität errechnen könnten.

Es beherrscht aber auch die hybride Spielweise, die wir gerade bei den aktuellen Titeln sehen.

Und ich glaube nicht, dass man eine Technik entwickeln wird, die einer Lichtstrahlenverfolgung überlegen sein kann, da diese ja den physikalischen und physischen Gegebenheiten für uns entspricht.

Ich sehe also Raytracing als die ultimative Technik, nach der nichts mehr kommen wird.

[wege]mini schrieb:
wir haben uns falsch verstanden...raytracing wird bleiben. die art und weise wie "chips" arbeiten werden, wird sich aber ändern. aktuell haben wir 0 und 1. das wird sich in den nächsten 10 jahren ändern :heilig:
Ah verstehe- Ja. Ist naheliegend, dass man vielleicht auch bei Computern irgendwann mal "Zwischenladungen" verarbeiten/nutzen kann :)

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
ZeroZerp schrieb:
Wie meinst Du das? DXR beinhaltet ja alle Funktionen, die die unterschiedlichen Raytracing Verfahren auch in Proof- Qualität errechnen könnten.

Es beherrscht aber auch die Hybride Spielweise, die wir gerade bei den aktuellen Titeln sehen.

Und ich glaube nicht, dass man eine Technik entwickeln wird, die einer Lichtstrahlenverfolgung überlegen sein kann, da diese ja den physikalischen und physischen Gegebenheiten für uns entspricht.

Ich sehe also Raytracing als die ultimative Technik, nach der nichts mehr kommen wird.

LG
Zero
Sehe ich auch so. Nur halt nicht mit den aktuellen Nvidia Karten.
 
Apocalypse schrieb:
Sehe ich auch so. Nur halt nicht mit den aktuellen Nvidia Karten.
Naja- Jetzt haben wir ja seit gestern ein Beispiel für einen fullay raytraced- Titel (Pathtraced).

Die 50FPS, die man in 4K damit erzielt finde ich alles andere als übel, wenn man bedenkt, dass es sich um die erste Generation an Grafikkarten mit RT- Beschleunigung handelt.


Und wie gesagt- Natürlich ist die Szenengeometrie lahm, alt, eckig und die Texturen übel, aber wie oben beschrieben gehen komplexe Geometrien bei Raytracing deutlich weniger auf die GPU als bei der Rasterisierung.

Allgemein gilt: Wenn man die geometrische Komplexität einer Szene um das Zehnfache steigert, dann erhöht sich der Rechenaufwand bei der Verwendung der hierarchischen Beschleunigungsstrukturen nur um den Faktor zwei. Im Kontrast dazu steht die Rasterisierung mit ihrem linearen Verhalten, bei dem die Steigerung der Geometrie um das Zehnfache auch den zehnfachen Rechenaufwand bedeutet.
https://www.computerbase.de/artikel/grafikkarten/bericht-raytracing-in-spielen-2-0.759/seite-2

Der verlinkte Artikel ist unbedingt lesenswert.
Er behandelt unter anderem die Themen, ab wann Raytracing Vorteile bringt und auch, warum der Hybrid- Ansatz, wie er derzeit praktiziert wird, die Performance unnötig runterzieht.

Wir sind also bereits jetzt näher dran, als viele denken...
Es gibt nur noch nicht enstprechende Titel.

Und ein wenig ist ja die nächsten Monate bereits geboten und das trotz noch rudimentärer Entwicklungswerkzeuge für DXR:

Abducted
Assetto Corsa Competizione
Atomic Heart
Battlefield 5
Call of Duty Modern Warfare
Control
Dragon Hound
Dying Light 2 (befindet sich in der Evaluierung/vielleicht)
Enlisted
Grimmstar
Justice
JX3
Mechwarrior 5
Metro Exodus
Quake 2
Shadow of the Tomb Raider
Stay in the light
Sword and Fairy 7
Vampire: Die Maskerade Bloodlines 2
Wolfenstein Youngblood

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, USB-Kabeljau und Jethro
xeonking schrieb:
Naja, ich will Raytracing nicht schlecht reden, das ist es definitiv nicht. Aber bisher ist es auch nicht wirklich brauchbar. Und ich sehe da auch absolut kein Quantensprung..
Den Quantensprung wollte Intel mit Raytracing 2007.. da wollten aber weder AMD noch Nvidia, also bleib es bei der Ambition..
@t3chn0 , sorry aber du begibst dich mal wieder auf Kindergarten Niveau. Die Preispolitik der RTX ist diskussionswürdig und hat Null mit AMD zutun. Sollte AMD ein DXR Konformes RT bieten, wird es dennoch ne Weile dauern bis wir davon Profitieren. Wie gesagt 2007 wollte Intel und Intel ist Marktführer. Genutzt hat das am Ende Null
 
ZeroZerp schrieb:

Und wie gesagt- Natürlich ist die Szenengeometrie lahm, alt, eckig und die Texturen übel, aber wie oben beschrieben gehen komplexe Geometrien bei Raytracing deutlich weniger auf die GPU als bei der Rasterisierung.
Ich finds witzig, die Beleuchtung haben sie aber immer noch nicht im Griff. In Videospielen wird sie immer "unnatürlich" sein. D.h. die Kontraste sind nicht so drastisch, wie in Wirklichkeit.
 
Die Kontraste kann man gar nicht wie in Wirklichkeit darstellen, da die Monitore nicht den entsprechenden Dynamik-Umfang bieten.
Davon aber mal abgesehen gibt es Spiele, die sehr gut abgestimmt sind.
Leider sind das die wenigsten.

Das finde ich auch bei diesem Quake-Teil so schade.
Man nimmt ein potten hässliches Game und ballert dann einfach RT drauf.
Das RT selbst (bzw. die Beleuchtung) passt man nicht an, so daß es am Ende immer noch total scheiße aussieht (mal ganz abgesehen von den altbackenen Texturen, miesen Modellen und Animationen, etc.).

Ich wette, die ersten geilen RT-Umsetzungen sehen wir von Moddern oder Indie-Entwicklern.
Und mit etwas Glück dauert das kein Jahr mehr.
 
  • Gefällt mir
Reaktionen: Unnu, KlaraElfer und .Sentinel.
yummycandy schrieb:
Ich finds witzig, die Beleuchtung haben sie aber immer noch nicht im Griff. In Videospielen wird sie immer "unnatürlich" sein. D.h. die Kontraste sind nicht so drastisch, wie in Wirklichkeit.

Mir is aufgefallen, dass bei den Optionen, bei "global illumination: low" stand.
Wenn's da ein "low" gibt, gibt es ja evtl. auch noch ein medium/high/ultra ?

789729
 
ChrisMK72 schrieb:
Wenn's da ein "low" gibt, gibt es ja evtl. auch noch ein medium/high/ultra ?
Ja- Dadurch wird kontrolliert, wieviele Strahlen verschossen werden und wie oft diese "bouncen" dürfen.

Ultra hat 2 zusätzliche Bounces.

LG
Zero
 
  • Gefällt mir
Reaktionen: ChrisMK72
ZeroZerp schrieb:
Naja- Jetzt haben wir ja seit gestern ein Beispiel für einen fullay raytraced- Titel (Pathtraced).

Die 50FPS, die man in 4K damit erzielt finde ich alles andere als übel, wenn man bedenkt, dass es sich um die erste Generation an Grafikkarten mit Beschleunigung handelt.


Und wie gesagt- Natürlich ist die Szenengeometrie lahm, alt, eckig und die Texturen übel, aber wie oben beschrieben gehen komplexe Geometrien bei Raytracing deutlich weniger ... [Snip]

Wir sind also bereits jetzt näher dran, als viele denken...
Es gibt nur noch nicht enstprechende Titel.

Ich als Quake 2 Spieler würde halt nur trotzdem nicht mit 50 FPS spielen wollen, sondern dann halt bei den Expo Edition Texturen bleiben. ;-)
Besonders weil das Licht mir dem neuen Renderer zwar durchaus so auch in modernen Games verwendet werden kann und deswegen das ganze eine tolle Techdemo ist, aber der Spieler hier am Ende doch lieber viel mehr Performance hätte. Nette Spielerei, überzeugt aber noch nicht.

Das wir aber kurz davor stehen macht allein die PS5 deutlich. RT im Mainstream.
 
  • Gefällt mir
Reaktionen: aldaric
Inxession schrieb:
Stellt euch vor AMDs Ansatz, über Voxel basierte Beschleunigung, Raytracing zu verwirklichen funktioniert. (siehe demo auf vega 56)...

Die DXR Schnittstelle in DirectX könnte dies auch...

Und auf einmal sind alle TensorCores und RTX Proprietäre Bibliotheken hinfällig.

Eigentlich kann RT nur so funktionieren... Flächendeckend inkl Konsolen.

Wäre überrascht wenn AMD extra Hardwareeinheiten verbaut.
Das ist Pathtracing und Voxel basiertes Raycasting in niedriger Auflösung, welche übrigens auf DXR lief. Tensor Cores machen auch keine RT Berechnungen, du hast quasi die Kompetenz bei der Garderobe abgegeben :rolleyes:.

Mit der dedizierten Hardware wie von Nvidia in diesem Bereich geliefert kann AMD nicht mithalten.
Sollte man RT forcieren wir man evlt. bei der Playstation einen Extra Chip verbauen müssen das wird sie allerdings etwas verteuern, mit Sony aber denkbar.
Wollen wir hoffen das der neue Horizont mehr reflektiert als bei den peinlichen Fanboy's.

Ich persönlich würde mich speziell für Prügelspiele freuen wenn man das Szenario etwas aufhübscht und verschnellert, anstatt die Leute weiter mit Microtransaktionen abzuzocken, es wird Zeit.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
t3chn0 schrieb:
Hier wurde bewusst Raytracing selbst kritisiert und schlechtgeredet weil eben Nvidia dieses zuerst angeboten hat.

Schwachsinn. Keiner hat die Technologie an sich kritisiert oder schlechtgeredet, sondern wie nVidia das ganze umgesetzt hat. Utopische Preise, kaum vorhandene Titel, fehlerhafte Software -> absolut gerechtfertigte Kritik.

nVidia hätte das ganze bei den Profi-Karten lassen sollen und noch eine Generation reifen lassen. Aber um irgendwie überhaupt mal wieder neue Karten zu verkaufen hat man mit superlativen um sich geworfen und sich dann blamiert.

Diese ganze Kritik, dieser Shitstorm war rein auf nVidia, nicht auf die Technologie bezogen. Man erinnere sich nur an den berühmten Satz "it just works"... :lol:

Warum sollte man auch Raytracing kritisieren? Die Technik gibts seit 25 Jahren.
 
  • Gefällt mir
Reaktionen: Iscaran, Rock Lee, Sanjuro und 9 andere
KlaraElfer schrieb:
AMDs Hardware und Treiber ist auch proprietär, da gibt es keinen Unterschied zu RTX.
Wat. Der Open Source Treiber von AMD würde da gerne mal ein Wörtchen mitreden.
Ja, es ist der Treiber für Linux, aber die Codebase ist im Wesentlichen die gleiche wie für den proprietären Treiber unter Linux. Ebenfalls ist in den letzten 10 Jahren häufig genug darüber berichtet worden wie AMD Anstrengungen unternommen hat, um die Codebase von Windows und Linux so weit als nur möglich zu vereinheitlichen. Effektiv dürfte also auch der Windows-Treiber zu einem großen Teil durch den Linux-Treiber Open Source sein.
 
  • Gefällt mir
Reaktionen: McTheRipper
Zurück
Oben