Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAuch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine
Ich glaube eher, dass das ne Vorbereitung für kommende Konsolen ist, deshalb auch die erwähnung, Optimierung auf aktuelle Generationen. Bezüglich Konsolen haz man schon öfters was RayTracing gehört.
Genau so sehe ich das auch.
Schon vor Monaten hieß es, Polyphony Digital soll für das nächste Gran Turismo an einer Raytracing Umsetzung arbeiten. Es tauchten in den Wochen danach auch immer wieder mal neue Gerüchte zu einer Raytracing umsetzung auf der PS5 auf.
Wenn ich jemanden etwas unerwartetes oder schwer umzusetzendes zutraue, dann den Sony First Party Studios.
Naja so übertrieben fand ich es jetzt nicht ^^ aber die 8800GTS müsste bluten. Das die Kinnlade runterklappt muss schon was extremeres kommen. Ganz ehrlich? Da hat mich das Erste Farcry mehr begeistert xD
Die "Transparenz" der Fenster wirkt sehr künstlich im Video. Und bei dem Chromumweltmapping hat man das Gefühl den Floats beim überlaufen zusehen zu können. Aber an sich ganz hübsch gemacht, wirkt wie ein MaxPayne level.
@franzerich Dann musst du wohl langsam umdenken Laut deiner Definition bietet Nvidia fast ausschließlich High End Hardware an? 2060, 2070, 2080, 2080 Ti? 350-1000€? Die 2060 kann man schon zur Mittelklasse zählen.
Genau das ist ja die Krux. Früher stand z.B. die 770 im Bereich um die 350€ für das obere Ende der Mittelklasse, drüber folgte dann HighEnd bis ~600€ (780Ti) und nur das Ultra-Highend (Titan) kam überhaupt in die Nähe vierstelliger Preise. Wenn man also die Mittelklasse rein an den Preisen festmacht, gibts da zumindest was die RTX Karten angeht eigentlich nichts, dazu sind von Nvidia dann die 16er Karten da.
Jetzt ist der Preis natürlich nicht der einzige Faktor, aber es ist nicht von der Hand zu weisen, dass Grafikkarten in den letzten Jahren deutlich teurer geworden sind. Die Vega 56 fällt aber trotzdem zumindest mittlerweile nach dieser Definition definitiv in die Mittelklasse, da sie neu sogar unter 200€ ab ~250€ zu haben ist.
Ich mag die kleinen Paukenschläge Cryteks alle paar Jahre wieder, dieser kommt zum denkbar besten bzw. schlechtesten Zeitpunkt (je nach Standpunkt). Ingenieurskunst aus Deutschland (ob die Gründer Migrationshintergrund haben ist völlig gleich).
Nett aber wie alle CB-Leser ja (besser)wissen ist RT nicht die Zukunft.
Mal sehen wie sie das machen wenn es angeblich auch auf AMD Hardware in Echtzeit läuft.
Insofern wäre auch interessant ob und wie hoch ein Leistungsunterschied zwischen 2080 RTX, 1080Ti und Radeon 7 besteht.
Mal sehen ob wir da in naher Zukunft was erfahren werden.
1. gibt es ein Like! für Hunt hatten sie ja auch DX12 und Vulkan angekündigt, das Spiel ist an vielen stellen zu CPU gebunden, die Frames rasseln in den Keller.
2. hast du All Might als Avatar
RT ist schon die Zukunft, aber eher nicht so, wie es sich nVidia vorgestellt hat. Und wohl schon gar nicht mit Extra Kernen die eben nur die eine Aufgabe haben.
Da es sich bei der Vorführung von Crytek nur um eine Demo handelt und sie ja auch klar sagen was noch Probleme bereitet, wird es sicher noch ein paar Jahre dauern bis alles komplett umgesetzt ist. Aber schon alleine, das es auf allen aktuellen GPUs läuft, das macht wieder mut für zukünftige GPU Generationen. Gut ist jetzt wieder eher negativ für alle Glaubensanhänger der Lehren nVidias. Aber einen Haken gibt es halt immer. 😉
Andere Seiten welche die NDA von Nvidia nicht unterschrieben haben berichteten bereits in der Vergangenheit darüber dass RT-Cores nicht notwendig sind um Raytracing mit der GPU darzustellen.
Ich kenne keine einzige Seite (auch die, die das NDA unterschrieben haben), die behauptet, dass Raytracing- Berechnungen nur auf GPUs mit RT Cores liefen?
SVOGI, SSR, HBAO etc. beweisen ja schon seit Jahren, dass man das auf einer GPU berechnen kann...
Zur Demo selbst...
-Ein Teil der Berechnung wird auf die CPU ausgelagert
-dynamische Objekte werden wieder nicht vollständig in der Beleuchtung berücksichtigt
-indirekte Schatten gibts nur von Statics
-Kamerawechsel mit "sekundenlangen" Verzögerungen, weil erst die Voxelhierachie aufgebaut werden muss (in der Demo wohl precomputed)
Das hat dann doch wieder alles eher mehr mit den herkömmlichen "Tricksereien" einhergehend mit allerlei Einschränkungen zu tun, als mit rein über Strahlen volldynamisch berechnetem Raytracing.
Interessant wäre, wie sehr die Leistung steigt, wenn sie Strahlenbeschuss der Voxel über die RT Cores abwickeln würden.
Grüße
Zero
Ergänzung ()
trane87 schrieb:
Ich bin gespannt, ob sie das in ihrem aktuellen Titel Hunt:Showdown implementieren.
Raytracing bleibt ein schwieriges Thema, was sich nicht durchsetzen wird und beim jetzigen Kauf keine Rolle spielen sollte.
Denn wenn irgendwann mal was brauchbares kommt, basiert das auf einem Standard, läuft nicht auf Spezialhardware und ist sehr viel weiter als das, was heute für zu viel Geld angeboten wird.
RT ist schon die Zukunft, aber eher nicht so, wie es sich nVidia vorgestellt hat. Und wohl schon gar nicht mit Extra Kernen die eben nur die eine Aufgabe haben.
Wieso sollte man nicht in Richtung volldynamischen Raytracings ohne x Einschränkungen und Tricks gehen?
Und wieso sollte man nicht dafür spezialisierte Kerne nutzen, die die benötigten Berechnungen bis zu 10x schneller durchführen?
Raytracing hat sich seit Jahren in den Engines bereits etabliert.
Und es ist ein ganz einfaches Thema.
Es ist ausschliesslich eine Frage des Preises.
Denn wenn irgendwann mal was brauchbares kommt, basiert das auf einem Standard, läuft nicht auf Spezialhardware und ist sehr viel weiter als das, was heute für zu viel Geld angeboten wird.
Wir haben einen Standard (DX12) auf dem Raytracing unabhängig der Hardware läuft, wenn vom Hersteller gewollt.
Zudem wären die Ingenieure bescheuert, bei hochspeziellen Berechnungen nicht dedizierte Einheiten, die alles erheblich effizienter abarbeiten können, zu benutzen.
Du rasterst ja auch nicht auf einer CPU bzw. CISC- System, sondern nimmst die dafür spezialisierte GPU.
Ergänzung ()
Selanius schrieb:
Ich hab mich schon gefragt wann @ZeroZerp seine Expertise von sich gibt. Und ich wurde nicht entäuscht. Und wie erwartet wird es klein geredet was Crytek da als Demo zeigt.
Ich erkläre doch auch warum.
Das, was wir in der Demo sehen, ist nicht neu.
Die offscreen- Reflektionen hat z.B. Battlefront 2 schon auf ähnliche Weise viel früher gezeigt.
Die SVXGI Varianten gibt es auch schon seit Jahren live im Einsatz.
Und die Haupteinschränkungen, warum man diese Tricksereien eben nicht als dynamisches RT bezeichnen kann (ausnahmen bei der Strahlenerfassung, dynamisierungseinschränkungen von Objekten, Einschränkungen in der Schattenberechnung, hoher Fehlerfaktor durch grobes Voxelraster etc.), bleiben nachwievor bestehen.
Somit zeichnen die Demo "nur" die Komposition der Effekte und Offscreen- Reflections aus. Und, dass es beim Wechsel der Kameraperspektive bzw. der Szene zu sekundenlangen Verzögerungen bzw. Berechnungen kommt.
Es ist also (noch) nicht praxistauglich, wenngleich natürlich hübsch anzusehen, wenn man die Technik mit den vorhergehenden Titeln vergleicht.
Wie soll RT auch funktionieren ohne die RT und Tensorkerne der nVidia Karten. Das wäre ja Blasphemie wenn wer was anderes behauptet.
Nein- Ich kenne keinen, der sich mit der Materie nur minimalst beschäftigt, der sowas behauptet. Ich frage mich nur immer, woher dieser Mythos stammt...
RT kannste auch mit Deinem Handy machen oder mit dem C64.
Zudem wären die Ingenieure bescheuert, bei hochspeziellen Berechnungen nicht dedizierte Einheiten, die alles erheblich effizienter abarbeiten können, zu benutzen.
Das haben sich die Ingenieure damals bei AGEIA (PhysX) bestimmt auch gedacht.
Raytracing wird es genau so wie PhysX ergehen, 1-2 Generationen weiter wird Raytracing von den Grafikkarten nebenbei berechnet.
ZeroZerp schrieb:
Zur Demo selbst...
-Ein Teil der Berechnung wird auf die CPU ausgelagert