News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Ich finde das die Cry Engine schon immer hammermäßig aussgesehen hat , ganz gleich ob Cryengine 2 oder 3 , zu ihrer Zeit , auch hier zeigt Crytek was in einer RX56 stecken kann mit der Cryengine 5.5
 
  • Gefällt mir
Reaktionen: hannes130185, danyundsahne, Transistor 22 und 2 andere
nicK-- schrieb:
1. gibt es ein Like! für Hunt hatten sie ja auch DX12 und Vulkan angekündigt, das Spiel ist an vielen stellen zu CPU gebunden, die Frames rasseln in den Keller.
2. hast du All Might als Avatar

WIn WIn !

Go beyond! :D

Ich bin echt auf die fertige Version von Hunt gespannt. Aktuell macht der Titel schon richtig Spaß.
 
  • Gefällt mir
Reaktionen: nicK--
Tomislav2007 schrieb:
Das haben sich die Ingenieure damals bei AGEIA (PhysX) bestimmt auch gedacht.
Zu Recht, wie man anhand der frühen Implementationen auf GPU Ebene sehen konnte. Die Grafikkarten sind leistungstechnisch katastrophal eingebrochen...

Raytracing wird es genau so wie PhysX ergehen, 1-2 Generationen weiter wird Raytracing von den Grafikkarten nebenbei berechnet.
Das wäre vielleicht der Fall, wenn wir nicht an gewissen Grenzen kratzen würden, an denen man die GPUs nicht einfach mit einem "weiter im Protokoll" um 50% beschleunigen kann.

Zu Zeiten der PhysX Karten waren wir noch bei 110nm und ein Ende der Shrink- und Taktmöglichkeiten nicht in Sicht.

Zudem hat das Shader Model 3 erst ermöglicht, die Shader soweit programmieren zu können, dass überhaupt Physikberechnungen auf GPUs möglich wurden.


Das ist doch prima, dann machen die 16+ Kern CPU's endlich Sinn.

Grüße Tomi
Man kann Leistung natürlich auch sinnlos verbrennen....

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und kisser
Hast du auch nur einen Beweis, für deine Anschuldigungen? Denn ja du beschuldigst hier Crytek zu tricksen und gar keine Echtzeitberechnung zu haben.
Ich würde mal vorschlagen, du legst auch mal klare Beweise auf den Tisch.
 
  • Gefällt mir
Reaktionen: Thraker
Ghostshield schrieb:
Klingt nach mimimi eines Nvidia Fanboys... mimimi meine RT kerne sind besser...
Wieso sollten denn auf die für Raytracing typischen Berechnungen spezialisierten Einheiten, die Vorgänge um Faktoren beschleunigen schlechter sein?

Ich sehe anhand vieler Kommentare hier, dass offenbar größtenteils immer noch nicht verstanden wurde, was die RTX Karten machen,
wie sie funktionieren und wie moderne Engines die Effekte (auch durch Raytracing) dem physikalischen Modell annähern.

Deshalb muss man hier wohl immer wieder für Klarheit sorgen, da sonst wieder der Stammtisch übernimmt.
Ergänzung ()

Selanius schrieb:
Hast du auch nur einen Beweis, für deine Anschuldigungen?
Ja- Mal deren eigene technische Referenz zu Ihrer Demo durchgelesen?

Denn ja du beschuldigst hier Crytek zu tricksen und gar keine Echtzeitberechnung zu haben.
Natürlich berechnen die alles in Echtzeit, wie kommst Du drauf, dass das anders wäre?
Das einzige, wo dies aufgrund der eigenen Aussagen anzuzweifeln ist, ist die Generierung des Voxelbaums.
Sonst würden wir bei Szenenwechseln, schnellen Kameraschwenks "Denkpausen" sehen.
Somit gibt es eine hohe Wahrscheinlichkeit, dass der vorberechnet im Speicher liegt.

Ich würde mal vorschlagen, du legst auch mal klare Beweise auf den Tisch.
Siehe oben- Crytek selbst beschreibt in seinen Referenzen und auch der Enginebeschreibung den Einsatz der Techniken und referieren dabei auch ganz offen über deren Einschränkungen.

Kannst ja, wenn Du Kingdom Come Dein Eigen nennst mal ein wenig mit der Engine experimentieren:
e_svoTI_ xxx <-Da kannst Du die GI auf Herz und Nieren prüfen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, Transistor 22 und eine weitere Person
Top AMD und Crytek! Bin doch etwas überrascht. Hätte DXR jetzt (noch) nicht für so effizient gehalten. Die Häme durch NVidia Richtung Radeon VII war wohl zu unbedacht... wenn nun die RT-Cores quasi obsolet werden sollten und selbst mit einer Vega 56 schon sowas in Echtzeit produzierbar ist, dann wird es schwer mit dem Alleinstellungsmerkmal.

Die Szene erinnert mich gerade etwas an das alte Blade Runner Spiel. Düster, Lichtblitze, Polizei, Regen, Reflexionen... Ich hab mal eine Szene herausgesucht, die man mit derjenigen im CB-Artikel mal vergleichen kann, um sich den technologischen Fortschritt der letzten 20 Jahre zu veranschaulichen (Video startet automatisch bei 6:40):



Und bezüglich Voxel-based GI made in Koblenz - für den Studiengang Computervisualistik an der Uni Koblenz möchte ich hiermit explizit werben :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22, onkel-foehn und Dark-Silent
Selanius schrieb:
Und das missionieren geht wieder los. 🤥

missionieren (schwaches Verb)
eine Glaubenslehre, besonders das Christentum, unter Anders- bzw. Nichtgläubigen verbreiten
Dann erzähl doch mal, welcher meiner Aussagen auf "Glauben" basiert.

Eine Diskussion wird halt dann schwierig, wenn jemand z.B. versucht voxelbasiertes GI mit einer GI, wie sie z.B. Metro Exodus zeigt gleichzusetzen.
Das beweist nämlich nur, dass derjenige bis jetzt nicht bereit war, sich mit der Materie zu beschäftigen.

Und wenn viele Leute diskutieren, von denen sich viele nicht mit der Materie beschäftigen (wollen), dann kann das natürlich zu keinem Ergebnis führen, noch zu einer sinnvollen Diskussion (wie der neu hinzugekommene Kommentar unter diesem nur eindrucksvoll bestätigt).

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Miuwa, Lübke82, Grestorn und 3 andere
Ghostshield schrieb:
Klingt nach mimimi eines Nvidia Fanboys... mimimi meine RT kerne sind besser...

Ist ja auch so ! Somit macht die Vega 56 die RTX Karten völlig überflüssig … ;-)

MfG, Föhn.
 
  • Gefällt mir
Reaktionen: Thraker
onkel-foehn schrieb:
Ist ja auch so ! Somit macht die Vega 56 die RTX Karten völlig überflüssig … ;-)

MfG, Föhn.
Dann kannst Du mir sicher erklären, wie Du z.B. eine qualitativ hochwertige volldynamische GI, wie sie in Metro genutzt wird, mit der Vega 56 errechnen willst.

Jetzt wirds spannend...
 
  • Gefällt mir
Reaktionen: Lübke82 und kisser
@ZeroZerp
Wie volldynamisch ist die GI denn wirklich bei Metro? Beim bisherigen (einzigen?) Vorzeigebeispiel Battlefield ist Raytracing ja eher gering bei den Reflexionen im Einsatz. Der Anteil von RT am gesamten gerenderten Bild ist (verständlicherweise) klein. Wenn also mit einer angenäherten RT-Technik wie die Voxel-basierte ein ähnliche starke Bildpracht erzeugt werden kann, wie bisher nur durch die RT-Cores, dann ist doch klar, dass NVidia hiermit ordentlich Wind aus den Segeln genommen wird. Wenn ich das richtig verstehe, wird bei VB-GI das komplette Bild gerendert. Der Kunde wird sich natürlich für die günstigere Variante entscheiden, wenn die Bildqualität dieselbe ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, CMDCake, Smartcom5 und 2 andere
Bierliebhaber schrieb:
Naja, die Kopfhörer passen da aber nicht rein. Kopfhörer gibts schon seit Ewigkeiten für fünfstellige Beträge, siehe z.B. Sennheiser Orpheus. Die "großen Drei" waren auch Ewigkeiten der "Mainstream" für 200-300€. Und dass High-End durchaus mal vierstellig werden kann ist auch schon ewig normal. Wie lange ist der HD800 jetzt schon auf dem Markt?
Kann man denke ich sowieso nicht vergleichen. Gerade die Bügler käufst du einmal und danach nur noch, wenn du Lust auf mehr oder klangliche Alternativen hast. Ein K701 klingt heute so wie vor 10 Jahren...
Bei den Grafikkarten war die perverse Preisexplosion dagegen erst kürzlich, nach Ewigkeiten mit nur wenig Schwankungen.


Beim Raytracing heißt es wohl abwarten, wie es sich entwickelt. Für uns Kunden wäre der Verzicht auf proprietäre Lösungen wohl am besten, aber man kennt nVidia ja. Wird sich wieder schön teilen der Markt, wenn nVidia mit den Scheinen wedelt. Am Ende setzt sich wieder nichts so richtig durch und der Kunde ist der Verlierer.

Ich rede aber nicht von Sennheiser und co sondern vom Mainstream. Das sind Bose quietcomfort 35, Apple Airpods, iPhone XS, Samsung Galaxy S10, Beats Studio, JBL Boxen, .....
Alles keine Nieschenprodukte, sondern Geräte, die man zu 100en, gar 1000en auf den Straßen sieht. Es vergeht keine Minute in der Münchner Innenstadt ohne einen Erwachsenen, Jugendlichen oder Kind mit mindestens einem der Geräte zu sehen (und ich meine nicht vor dem AppleStore, denn dort stehen natürich duzende herum).
Deswegen interessiert hier kein HD800 oder Orpheus oder K701.
 
Ist doch schön das die techdemo mit dieser Umsetzung von rt auch auf Vega hardware läuft.
Da die implementierung laut Entwickler noch auf dx12 (dxr) und vulcan optimiert wird und dezidierte Einheiten sofern vorhanden dann angesprochen werden lässt das nur gutes für die Performance der rtx Karten prognostizieren.
Schön das so langsam die meisten grossen engines rt implementieren und schön für Besitzer von non rtx Karten das es Hoffnung gibt die Technik auch, in vermutlich reduzierter Form, auf dieser Hardware zu nutzen!
 
  • Gefällt mir
Reaktionen: Chismon, Transistor 22, Zitterrochen und 4 andere
An Raytracing in Verbindung mit Voxel arbeitet übrigens auch id Software schon einige Jahre. Gab dazu sogar einen Siggraph Vortrag, glaube sogar vor Doom 2016.

Sprich: das könnte wirklich mehr werden als heiße Luft
 
  • Gefällt mir
Reaktionen: yummycandy und Jan
Wieso laesst man es nicht über die cpu berechnen? Dank amd haben die meisten doch eh mehr threads als ein game aktuell auslasten kann
 
  • Gefällt mir
Reaktionen: fox40phil und onkel-foehn
HardRockDude schrieb:
@ZeroZerp
Wie volldynamisch ist die GI denn wirklich bei Metro?
4A Games spricht auf Ultra von pixelgenauer Abtastung mit einem Bounce.

Und wie gesagt- Lest Euch doch einfach die Beschreibung der Demo und entsprechende Abteile der Cryengine Doku durch.

Dann wird eben offenbar, dass diese Art der Technik natürlich wieder mit einschränkungen Daherkommt, oder denkt hier einer, dass die Geschwindigkeit aus dem Nichts gezaubert wird und die Programmierer einfach Jahrzehnte zu blöd waren, die modernen Ansätze zu verfolgen?

Beim bisherigen (einzigen?) Vorzeigebeispiel Battlefield ist Raytracing ja eher gering bei den Reflexionen im Einsatz. Der Anteil von RT am gesamten gerenderten Bild ist (verständlicherweise) klein.
Auf Ultra werden ja nach Szene mit 40% der Auflösung Bildes abgetastet.
Das Raytracing dort betrifft die gesamte Szene und wird vom Rauheitsfaktor der Oberfläche eines Materials bestimmt.

Es gibt also kein "Flag" , das dem Mesh zugeordnet wird und der Engine sagt "spiegel mich", sondern die Szene wird ganzheitlich erfasst und Anteile, die aufgrund der Beschaffenheit spiegeln (je höher die Qualitätseinstellung umso rauhere Oberflächen werden noch miteinbezogen), werden durch das Raytracing abgetastet.

Wenn also mit einer nicht angenäherten RT-Technik wie die Voxel-basierte aber ein ähnliche starke Bildpracht erzeugt werden kann wie bisher nur durch die RT-Cores, dann ist doch klar, dass NVidia hiermit ordentlich Wind aus den Segeln genommen wird.
Och Mensch- Genau von da kommen wir doch.
Der Spieleentwickler hat erhebliche Einschränkungen durch die Tricksereien.
Bewegte Objekte werden teils nicht erfasst.
Schattenwürfe funktionieren teils nicht richtig. Bildfehler, lightleaks, die an allen Ecken und Enden bekämpft werden müssen.

Dynamischer Tag-/Nachtwechsel wird durch Lightmaps bzw. prebaked lighting unmöglich (obwohl es zeitlich festgenagelt unbestreitbar super aussieht).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, kisser und 2 andere
Justuz schrieb:
Wieso laesst man es nicht über die cpu berechnen? Dank amd haben die meisten doch eh mehr threads als ein game aktuell auslasten kann
Weil es sich bei raytracing um die "Mutter" aller parallelberechnungen handelt.
Eine cpu, mag sie auch 30+ Kerne haben und diverse parallelsierungsoptimierungen, ist und bleibt im Kern ein serieller rechner der niemals die parallelisierungsleistung einer gpu erreicht.
Raytracing auf cpu zu berechnen ist wie crysis auf c64 zu spielen...
 
  • Gefällt mir
Reaktionen: CMDCake, Dark-Silent, onkel-foehn und 3 andere
Falls da dieses Jahr noch Spiele mit kommen sollten, wäre das sehr passabel.
Ob man die GI in Crytek Titel implementieren könnte, welche sich gerade noch in Entwicklung befänden
wäre interessant zu wissen. Stichwort Hunt: Showdown!

Das es dazu noch auf ner Vega 56 läuft einfach top! :daumen:
Und falls die nächste Konsolengeneration aus Ryzen1/Vega56 besteht, sehe ich auch von Sony und Microsoft einen weiteren Grund RT voranzutreiben!
 
  • Gefällt mir
Reaktionen: onkel-foehn
Nureinnickname! schrieb:
... Da hat mich das Erste Farcry mehr begeistert xD

Ultima IX, Mafia, Far Cry - ja das war noch was besonderes
 
  • Gefällt mir
Reaktionen: onkel-foehn
Ja ohne Spiele ziemlich irrelevant.
RTX Karten haben sich vermutlich nicht so gut verkauft und die machen jetzt Werbung für Nvidia.
 
Einhörnchen schrieb:
An Raytracing in Verbindung mit Voxel arbeitet übrigens auch id Software schon einige Jahre. Gab dazu sogar einen Siggraph Vortrag, glaube sogar vor Doom 2016.

Sprich: das könnte wirklich mehr werden als heiße Luft
Ja- Wobei wir hier von einem anderen Verfahren sprechen:
http://www.pcgameshardware.de/Neue-...ng-am-Beispiel-id-Tech-6-erlaeutert-681315/2/

Obwohl beide Techniken ein "Ray" im Namen tragen, gibt es einen entscheidenden Unterschied: Während beim Raytracing ein Strahl von einem getroffenen Objekt abgelenkt werden kann, sucht man beim Raycasting nur das erste Objekt.
Entsprechend sind beim Raycasting die Schatten, Reflexionen, Refraktionen oder ähnliche Effekte nicht Teil des Verfahrens.

Im Gegenzug weiß man jedoch sehr genau, welche Objekte/Voxel von einem Strahl getroffen werden können.

Beim Raytracing dagegen kann theoretisch jedes Objekt der gesamten Spielwelt von einem abgelenkten Strahl getroffen werden.

Entsprechend schwer ist es, Raytracing mit Streaming zu verbinden, während dies beim Raycasting nicht komplizierter ist als beim Rasterisierungsverfahren.
 
  • Gefällt mir
Reaktionen: Lübke82
Zurück
Oben