News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

pipip schrieb:
Ich glaube eher, dass das ne Vorbereitung für kommende Konsolen ist, deshalb auch die erwähnung, Optimierung auf aktuelle Generationen. Bezüglich Konsolen haz man schon öfters was RayTracing gehört.
Genau so sehe ich das auch.
Schon vor Monaten hieß es, Polyphony Digital soll für das nächste Gran Turismo an einer Raytracing Umsetzung arbeiten. Es tauchten in den Wochen danach auch immer wieder mal neue Gerüchte zu einer Raytracing umsetzung auf der PS5 auf.
Wenn ich jemanden etwas unerwartetes oder schwer umzusetzendes zutraue, dann den Sony First Party Studios.
 
  • Gefällt mir
Reaktionen: Mcr-King, Zitterrochen und Smartcom5
Ich wusste gar nicht das die RTX 2060 einer 1080 gleich kommt...
 
Dark-Silent schrieb:
Das erste mal über die Düne und dann der Blick auf den Strand da klappte mir die Kinnlade aber sowas von runter.

Naja so übertrieben fand ich es jetzt nicht ^^ aber die 8800GTS müsste bluten. Das die Kinnlade runterklappt muss schon was extremeres kommen. Ganz ehrlich? Da hat mich das Erste Farcry mehr begeistert xD
 
  • Gefällt mir
Reaktionen: Mcr-King, Ozmog, Thraker und 2 andere
trane87 schrieb:
Ich bin gespannt, ob sie das in ihrem aktuellen Titel Hunt:Showdown implementieren.


Das wär so nice :) Mein meist gespieltes Spiel seit Sommer´18 :)
 
  • Gefällt mir
Reaktionen: danyundsahne und shoKuu
Ok, die 2060 kommt der 1080 ja wirklich gleich.

Das ist dann aber Preislich wirklich gut!
 
Die "Transparenz" der Fenster wirkt sehr künstlich im Video. Und bei dem Chromumweltmapping hat man das Gefühl den Floats beim überlaufen zusehen zu können. Aber an sich ganz hübsch gemacht, wirkt wie ein MaxPayne level.
 
benneque schrieb:
@franzerich Dann musst du wohl langsam umdenken :D Laut deiner Definition bietet Nvidia fast ausschließlich High End Hardware an? 2060, 2070, 2080, 2080 Ti? 350-1000€? Die 2060 kann man schon zur Mittelklasse zählen.

Genau das ist ja die Krux. Früher stand z.B. die 770 im Bereich um die 350€ für das obere Ende der Mittelklasse, drüber folgte dann HighEnd bis ~600€ (780Ti) und nur das Ultra-Highend (Titan) kam überhaupt in die Nähe vierstelliger Preise. Wenn man also die Mittelklasse rein an den Preisen festmacht, gibts da zumindest was die RTX Karten angeht eigentlich nichts, dazu sind von Nvidia dann die 16er Karten da.

Jetzt ist der Preis natürlich nicht der einzige Faktor, aber es ist nicht von der Hand zu weisen, dass Grafikkarten in den letzten Jahren deutlich teurer geworden sind. Die Vega 56 fällt aber trotzdem zumindest mittlerweile nach dieser Definition definitiv in die Mittelklasse, da sie neu sogar unter 200€ ab ~250€ zu haben ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Sturmflut92
silentdragon95 schrieb:
Die Vega 56 fällt aber trotzdem zumindest mittlerweile nach dieser Definition definitiv in die Mittelklasse, da sie neu sogar unter 200€ zu haben ist.
Hab ich was verpasst?
 
  • Gefällt mir
Reaktionen: TechFA, Mcr-King, Buchstabe_A und eine weitere Person
Darkscream schrieb:
Hab ich was verpasst?

Nein, ich hab mich nur verguckt (gebraucht ist eben nicht neu). Mein Argument steht aber trotzdem, denn für etwas über 250€ ist sie auch neu zu haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ist auch nur dank übervollen Lagern durch mining Überschüsse so. Ist aber nicht Gesund weil wahrscheinlich jegliche Marge fehlt.
 
Ich mag die kleinen Paukenschläge Cryteks alle paar Jahre wieder, dieser kommt zum denkbar besten bzw. schlechtesten Zeitpunkt (je nach Standpunkt). Ingenieurskunst aus Deutschland (ob die Gründer Migrationshintergrund haben ist völlig gleich).
 
  • Gefällt mir
Reaktionen: TechFA, Mcr-King, Buchstabe_A und 7 andere
blubberbirne schrieb:
Naja, ist eine Lösung die auf DX12 aufbaut und in erster Linie keine Leistung der AMD Karten.
Naja warten wir es ab da AMD mit DX 12 sowieso meistens mehr kann...
 
  • Gefällt mir
Reaktionen: Mcr-King
Nett aber wie alle CB-Leser ja (besser)wissen ist RT nicht die Zukunft.

Mal sehen wie sie das machen wenn es angeblich auch auf AMD Hardware in Echtzeit läuft.
Insofern wäre auch interessant ob und wie hoch ein Leistungsunterschied zwischen 2080 RTX, 1080Ti und Radeon 7 besteht.
Mal sehen ob wir da in naher Zukunft was erfahren werden.
 
  • Gefällt mir
Reaktionen: Mcr-King und Luzifer71
trane87 schrieb:
Ich bin gespannt, ob sie das in ihrem aktuellen Titel Hunt:Showdown implementieren.

1. gibt es ein Like! für Hunt hatten sie ja auch DX12 und Vulkan angekündigt, das Spiel ist an vielen stellen zu CPU gebunden, die Frames rasseln in den Keller.
2. hast du All Might als Avatar

WIn WIn !
 
  • Gefällt mir
Reaktionen: Smartcom5, fox40phil und shoKuu
RT ist schon die Zukunft, aber eher nicht so, wie es sich nVidia vorgestellt hat. Und wohl schon gar nicht mit Extra Kernen die eben nur die eine Aufgabe haben.

Da es sich bei der Vorführung von Crytek nur um eine Demo handelt und sie ja auch klar sagen was noch Probleme bereitet, wird es sicher noch ein paar Jahre dauern bis alles komplett umgesetzt ist. Aber schon alleine, das es auf allen aktuellen GPUs läuft, das macht wieder mut für zukünftige GPU Generationen. Gut ist jetzt wieder eher negativ für alle Glaubensanhänger der Lehren nVidias. Aber einen Haken gibt es halt immer. 😉
 
  • Gefällt mir
Reaktionen: Mcr-King, Buchstabe_A, Smartcom5 und eine weitere Person
Vollkorn schrieb:
Andere Seiten welche die NDA von Nvidia nicht unterschrieben haben berichteten bereits in der Vergangenheit darüber dass RT-Cores nicht notwendig sind um Raytracing mit der GPU darzustellen.

Ich kenne keine einzige Seite (auch die, die das NDA unterschrieben haben), die behauptet, dass Raytracing- Berechnungen nur auf GPUs mit RT Cores liefen?
SVOGI, SSR, HBAO etc. beweisen ja schon seit Jahren, dass man das auf einer GPU berechnen kann...

Zur Demo selbst...
-Ein Teil der Berechnung wird auf die CPU ausgelagert
-dynamische Objekte werden wieder nicht vollständig in der Beleuchtung berücksichtigt
-indirekte Schatten gibts nur von Statics
-Kamerawechsel mit "sekundenlangen" Verzögerungen, weil erst die Voxelhierachie aufgebaut werden muss (in der Demo wohl precomputed)

Das hat dann doch wieder alles eher mehr mit den herkömmlichen "Tricksereien" einhergehend mit allerlei Einschränkungen zu tun, als mit rein über Strahlen volldynamisch berechnetem Raytracing.

Interessant wäre, wie sehr die Leistung steigt, wenn sie Strahlenbeschuss der Voxel über die RT Cores abwickeln würden.

Grüße
Zero
Ergänzung ()

trane87 schrieb:
Ich bin gespannt, ob sie das in ihrem aktuellen Titel Hunt:Showdown implementieren.
SVOGI, also die voxel based global illumination ist ja bereits implementiert...
 
  • Gefällt mir
Reaktionen: Thane, Lübke82, Grestorn und 5 andere
Raytracing bleibt ein schwieriges Thema, was sich nicht durchsetzen wird und beim jetzigen Kauf keine Rolle spielen sollte.

Denn wenn irgendwann mal was brauchbares kommt, basiert das auf einem Standard, läuft nicht auf Spezialhardware und ist sehr viel weiter als das, was heute für zu viel Geld angeboten wird.
 
  • Gefällt mir
Reaktionen: Zitterrochen und fox40phil
Selanius schrieb:
RT ist schon die Zukunft, aber eher nicht so, wie es sich nVidia vorgestellt hat. Und wohl schon gar nicht mit Extra Kernen die eben nur die eine Aufgabe haben.
Wieso sollte man nicht in Richtung volldynamischen Raytracings ohne x Einschränkungen und Tricks gehen?
Und wieso sollte man nicht dafür spezialisierte Kerne nutzen, die die benötigten Berechnungen bis zu 10x schneller durchführen?
 
  • Gefällt mir
Reaktionen: Lübke82, Buchstabe_A, Luzifer71 und 3 andere
HaZweiOh schrieb:
Raytracing bleibt ein schwieriges Thema, was sich nicht durchsetzen wird und beim jetzigen Kauf keine Rolle spielen sollte.
Raytracing hat sich seit Jahren in den Engines bereits etabliert.
Und es ist ein ganz einfaches Thema.
Es ist ausschliesslich eine Frage des Preises.

Denn wenn irgendwann mal was brauchbares kommt, basiert das auf einem Standard, läuft nicht auf Spezialhardware und ist sehr viel weiter als das, was heute für zu viel Geld angeboten wird.
Wir haben einen Standard (DX12) auf dem Raytracing unabhängig der Hardware läuft, wenn vom Hersteller gewollt.

Zudem wären die Ingenieure bescheuert, bei hochspeziellen Berechnungen nicht dedizierte Einheiten, die alles erheblich effizienter abarbeiten können, zu benutzen.

Du rasterst ja auch nicht auf einer CPU bzw. CISC- System, sondern nimmst die dafür spezialisierte GPU.
Ergänzung ()

Selanius schrieb:
Ich hab mich schon gefragt wann @ZeroZerp seine Expertise von sich gibt. Und ich wurde nicht entäuscht. Und wie erwartet wird es klein geredet was Crytek da als Demo zeigt.

Ich erkläre doch auch warum.
Das, was wir in der Demo sehen, ist nicht neu.
Die offscreen- Reflektionen hat z.B. Battlefront 2 schon auf ähnliche Weise viel früher gezeigt.
Die SVXGI Varianten gibt es auch schon seit Jahren live im Einsatz.
Und die Haupteinschränkungen, warum man diese Tricksereien eben nicht als dynamisches RT bezeichnen kann (ausnahmen bei der Strahlenerfassung, dynamisierungseinschränkungen von Objekten, Einschränkungen in der Schattenberechnung, hoher Fehlerfaktor durch grobes Voxelraster etc.), bleiben nachwievor bestehen.

Somit zeichnen die Demo "nur" die Komposition der Effekte und Offscreen- Reflections aus. Und, dass es beim Wechsel der Kameraperspektive bzw. der Szene zu sekundenlangen Verzögerungen bzw. Berechnungen kommt.
Es ist also (noch) nicht praxistauglich, wenngleich natürlich hübsch anzusehen, wenn man die Technik mit den vorhergehenden Titeln vergleicht.

Wie soll RT auch funktionieren ohne die RT und Tensorkerne der nVidia Karten. Das wäre ja Blasphemie wenn wer was anderes behauptet. ;)
Nein- Ich kenne keinen, der sich mit der Materie nur minimalst beschäftigt, der sowas behauptet. Ich frage mich nur immer, woher dieser Mythos stammt...
RT kannste auch mit Deinem Handy machen oder mit dem C64.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thane, Lübke82, Grestorn und 6 andere
Hallo

ZeroZerp schrieb:
Zudem wären die Ingenieure bescheuert, bei hochspeziellen Berechnungen nicht dedizierte Einheiten, die alles erheblich effizienter abarbeiten können, zu benutzen.
Das haben sich die Ingenieure damals bei AGEIA (PhysX) bestimmt auch gedacht.
Raytracing wird es genau so wie PhysX ergehen, 1-2 Generationen weiter wird Raytracing von den Grafikkarten nebenbei berechnet.

ZeroZerp schrieb:
Zur Demo selbst...
-Ein Teil der Berechnung wird auf die CPU ausgelagert
Das ist doch prima, dann machen die 16+ Kern CPU's endlich Sinn.

Grüße Tomi
 
  • Gefällt mir
Reaktionen: R1ng0, Buchstabe_A, onkel-foehn und 3 andere
Zurück
Oben