News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Smartcom5 schrieb:
  1. Die entsprechende Techdemo Neon Noir von Crytek läuft laut Aussage selbiger sehr wohl in Echtzeit!
  2. Selbst das, was nVidia derzeit in Spielen zeigt, ist „ganz weit weg von dem“, was RTX in Spielen sein sollte
  3. Und das Ergebnis des fulminanten RTX-Showoffs bringt nicht nur die RTX 2080 Ti ins schwitzen. hust Aktie!
Lektüre:
CryEngine.com • Neon Noir – A Real-Time Ray Tracing Demonstration For CRYENGINE



In diesem Sinne

Smartcom
1. Ok, wegen mir ist es Echtzeit - meine Frage: Wieviel Leistung bleibt für anderes
übrig, wenn komplexes RT nicht von der dedizierten Einheit, sondern auch noch von
der GPU berechnet werden muss? Wie gut wird die Vega 56 in der Praxis performen
bei z.B. Metro oder Battlefield mit gleich vielen Rays ohne dedizierte RT Einheit? Also:
Die Vega kann es grundsätzlich, aber kann sie es so schnell, dass es irl nutzbar wäre?

2. Die von Nvidia gezeigten Demos vor Monaten haben ganz klar gezeigt, was mit
RTX machbar ist. Wie und wie schnell das umgesetzt wird, liegt bei den Entwicklern.
Nvidia hat den ersten Schritt gemacht, AMD springt auf den Zug auf. Der Weg ist da.

Ist ja nicht so, dass alle z.B. 8 Kerne des Ryzen von heute auf morgen in Spielen genutzt
werden. Sowas braucht immer Zeit. Aber bei NV zählt das Argument mit der Zeit ja
nicht, das muss das heute präsentiert und morgen implementiert sein, sonst isses sch

3. Aktien hin oder her (die Verkaufszahlen und Marktanteile sind v.a. bei AMD im Keller):
Wer 7 Mrd. übrig hat für Aquisen, macht mehr richtig als falsch, AMD hingegen musste
jahrelang Geld pumpen. IMO: Wer den Schaden hat, braucht für den Spott nicht zu sorgen.
 
  • Gefällt mir
Reaktionen: Lübke82 und Transistor 22
Faust2011 schrieb:
Oh yes, endlich kann die hier viel kolportierte Rohleistung der AMD-Chips mal zeigen, wozu sie imstande ist. :daumen:

Ich finde es ehrlichgesagt bedenklich dass Mitglieder der Computerbase-Leitung Falschinformationen im eigenen Forum verbreiten. Hier sieht man überhaupt keinen Vergleich der Leistung, da Performance-Werte zwischen AMD und Nvidia Karten gar nicht abrufbar sind, zudem ist der Voxel basierte Ansatz gar nicht mit dem DXR Ansatz von Microsoft vergleichbar, siehe die Ausführungen von ZeroZerp.

Wenn wir den User nicht hätten, dann würden diese Mythen, die hier schon wieder verbreitet werden, als Wahrheit hingestellt.
Faust2011 schrieb:
Die Chips von Nvidia ist eben reine Grafikbeschleuniger, während die AMD-Chips in der Regel regelrechte Compute-Monster sind.

Das widerspricht den eigenen Technik-Artikeln von Computerbase und deren Compute Messungen von Turing.
Turing hat eine sehr hohe Compute-Leistung, da steht die 2080 der Radeon VII in nichts nach.

Smartcom5 schrieb:
Lieben Dank @MichaG!
Naja …
Crytek nutzt hierfür Voxel-based Global Illumination (SVOGI) in einer experimentellen Variante. Die Performance scheint entsprechend hoch, daß es für flüssiges Echtzeit-Raytracing ausreicht.

Diese Methode für Raytracing wirst du nur sehr wahrscheinlich nicht in einem finalen Spiel sehen werden, da diese Umsetzung viel zu anfällig ist und bei Kameraschwenks offenbar enorm viel Leistung kostet.
Und eine Echtzeit-Darstellung ist das denke ich nicht, da wie bei einer Techdemo üblich sehr viel im Voraus berechnet wird, da die Kameraschwenks ja nicht zufällig passieren, sondern vordefiniert sind, ergo kann man da mit sehr viel Tricksereien auch ein flüssiges Bild in sogenannter realtime generieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, borizb und 3 andere
Cool. Das Intro zu Unreal Tournament 99 neu aufgelegt. :)
 
  • Gefällt mir
Reaktionen: HardRockDude und Captain Mumpitz
Im Grunde ist es vollkommen egal wie die RT ähnliche Grafikpracht hergestellt wurde und ob Einschränkungen gegenüber den RT Cores bestehen . Fakt ist : es sieht ziemlich gut aus
Ohne es jetzt überprüft zu haben , man scheint bei der Tech demo kein " entrauschen " a la NV Tensor Cores zu benötigen , was ich als Vorteil betrachte .
"Entsprechend sind beim Raycasting die Schatten, Reflexionen, Refraktionen oder ähnliche Effekte nicht Teil des Verfahrens. "
dafür gibt es bereits andere Möglichkeiten in den Game Engines , die Darstellung der Wasserpfützen sah schon sehr gut aus und die Reflektionen auf der Drohne sahen ähnlich aus wie bei der NV Star Wars Demo


"dies beim Raycasting nicht komplizierter ist als beim Rasterisierungsverfahren. " , wenn das heißt das eine solche Grafikpracht auch bei Mid Stream Karten lauffähig ist , wird sich das " Raycasting " sicherlich eher durchsetzen als NV s RT + Tensor Cores , denn es braucht keine spezielle Hardware

Sollte die Demo selbst mit meiner RX580 laufen .... , leider finde ich das Teil nirgends zum Download , regestrieren wollte ich mich dafür nicht bei Crytek
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkel-foehn und Thraker
Fraggball schrieb:
Weil es sich bei raytracing um die "Mutter" aller parallelberechnungen handelt.
Eine cpu, mag sie auch 30+ Kerne haben und diverse parallelsierungsoptimierungen, ist und bleibt im Kern ein serieller rechner der niemals die parallelisierungsleistung einer gpu erreicht.
Raytracing auf cpu zu berechnen ist wie crysis auf c64 zu spielen...
Du hast natürlich Recht. Dennoch spricht nichts dagegen, brachliegende Cores der CPUs mit zu benutzen. AVX könnte sich dafür anbieten.
 
borizb schrieb:
Ist ja nicht so, dass alle z.B. 8 Kerne des Ryzen von heute auf morgen in Spielen genutzt
werden. Sowas braucht immer Zeit. Aber bei NV zählt das Argument mit der Zeit ja
nicht, das muss das heute präsentiert und morgen implementiert sein, sonst isses sch

Wie immer kannst du halt nicht objektiv eine Sache betrachten.

Eine CPU hat eine deutlich höhere Lebensdauer als es eine GPU je haben wird. Den 8-Kern Ryzen kann der Nutzer auch noch in 5 Jahren mit den nächsten GPU Generationen nutzen.

Bei nVidia kann das Argument der Zeit nicht zählen, da die neuste GPU Generation absolut KEINE Kaufanreize bietet, außer eben das beworbene Feature RTX. Es ist jedoch ein Armutszeugnis das wir mittlerweile erst zwei Spiele damit gesehen haben. Das ist bisher ein einziges Marketing-Desaster, was sich nVidia mit dieser Einführung geleistet hat. Bis es dann mal Spiele gibt, will nVidia den Kunden dann gleich auch eine neue Generation andrehen, jetzt mit Supa-Dupa Rays, statt GigaRays ?
 
  • Gefällt mir
Reaktionen: Transistor 22, Smartcom5, onkel-foehn und eine weitere Person
Aldaric87 schrieb:
Bei nVidia kann das Argument der Zeit nicht zählen, da die neuste GPU Generation absolut KEINE Kaufanreize bietet, außer eben das beworbene Feature RTX.

Du brauchst borizb nicht vorwerfen er ginge nicht objektiv an die Sache heran, wenn du gleichzeitig unterschiedliche Sachverhalte miteinander vermengst und damit ebenso an Glaubwürdigkeit und Objektivität einbüßt, das zeigt ja alleine schon dass das Argument "Zeit" bei Nvidia nicht gelten darf und die Begründung dafür keine Logik enthält.
Dass Turing keine Kaufanreize bietet mag deine Meinung sein, ist aber alleine aufgrund der Mehrleistung ohne die Palette an Features zu nennen, nicht diskutabel.
 
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, kisser und eine weitere Person
whiskascat schrieb:
Ja ohne Spiele ziemlich irrelevant.
RTX Karten haben sich vermutlich nicht so gut verkauft und die machen jetzt Werbung für Nvidia.

Haben hier wenn sie werbung gemacht haben für AMD werbung gemacht.
Wenn man bedenkt das hier RT Material mit einer Radeon RX Vega 56 gezeigt wurde.

Wie sieht es momentan eig. bei Crytec aus?
Haben sie ihre Finanzen wieder halbwegs im Griff?
 
  • Gefällt mir
Reaktionen: .Sentinel. und onkel-foehn
Selanius schrieb:
Ich hab mich schon gefragt wann @ZeroZerp seine Expertise von sich gibt. Und ich wurde nicht entäuscht. Und wie erwartet wird es klein geredet was Crytek da als Demo zeigt.
Wie soll RT auch funktionieren ohne die RT und Tensorkerne der nVidia Karten. Das wäre ja Blasphemie wenn wer was anderes behauptet. ;)
Man braucht GPUComputing Leistung um eben Raytracing schnell genug zu rendern. AMD hat davon einiges Jahre lang (für die Spieler) brach liegen lassen und Nvidia hat jetzt wieder (speziell für RT) die Leistung eingebaut.
Ich muß aber auch sagen, dass RT ohne eine API mit Tricks in der Engine, sich jetzt nicht so toll anhört, wie manche das gerne hören würden. Besser wäre es gewesen, wenn Vulkan auch mit einer RT Erweiterung ankommt und AMD die GPUComputing Leistung bei Vulkan für RT zum Laufen gebracht hätte.
Gerade die Cryengine ist nicht so verbreitet, wie man sich das wünschen würde und wurde auch schon mehrmals als schlecht dokumentiertes Bastel/Flickwerk bezeichnet. Keine Ahnung was da dran ist.
 
also wenn das im video gezeigte in echtzeit auf einer vega56 gerendert wurde,
dann machen alle anderen engine entwickler etwas falsch.
 
  • Gefällt mir
Reaktionen: Seko, TBrandes, Thraker und 2 andere
Diesen Kram gibt es doch schon seit vielen Jahren von Nvidia. Nur nutzt ihn keiner.

VXGI, mittlerweile in Version 2. Der Branch von der Unreal Engine 4 wird immer noch gepflegt und findet sich z.B. hier auf Github: https://github.com/NvPhysX/UnrealEngine/tree/VXGI2-4.21
Funktioniert gut.

Braucht kein RTX, aber eine DX11-kompatible Nvidia GPU. Glaube aber, dass hier künstlich limitiert wird, das müsste prinzipiell auch auf AMD GPUs laufen.

Irgendwie haben das alle Journalisten seit es RTX gibt komplett nicht mehr auf dem Schirm.
Hui, Crytek macht was mit Voxeln, also muss es was Neues sein. Nee, nee, denkste! Wer benutzt heute denn noch die Cryengine für irgendwas, hm? :D
 
KlaraElfer schrieb:
Das widerspricht den eigenen Technik-Artikeln von Computerbase und deren Compute Messungen von Turing.
Turing hat eine sehr hohe Compute-Leistung, da steht die 2080 der Radeon VII in nichts nach.
Sry aber das ist so nicht richtig. Lese am besten mal dazu den aktuellen kompletten R VII Test von PCGH. Dazu mußt du aber leider die aktuelle PCGH Print kaufen. Im reinen Anwendungsindex, hierbei ist die Gamingperformance uninteressant da hier andere Qualitäten ausschlaggebend sind, ist die R VII die absolute Referenz und schlägt selbst die Titan Rex ohne mit der Wimper zu zucken zum Teil um Längen.
 
  • Gefällt mir
Reaktionen: Balikon, CMDCake, Transistor 22 und 2 andere
RaptorTP schrieb:
jaa also ... ja ..

ich finde es ja gut das es für beide Karten kommen soll .. aber ich geb dem ganzen noch etwas Zeit, wenn ich mir die "zylindrische" Messinghülse da so anschaue ...

ja super gerne ... in 2-3 Jahren dann evtl. xD


Was ist damit nicht in Ordnung?
Ergänzung ()

PickNick schrieb:
Was mich noch etwas stört ist das die extrem reflektierenden Flächen wie verspiegelte Glasscheiben "zu geleckt" aussehen, sieht man ganz gut bei dem zerbrochenen Spiegel. Da fehlt mir irgendwie Dreck und dunkle Flecken.

Das wird dem 3d Mark Benchmark geschuldet sein mit dem Spiegelschiff, mussten halt zeigen dass die Spiegelung läuft ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: onkel-foehn
Erinnert mich von den Möglichkeiten und Einschränkungen an das GI System von Unity3d.
https://docs.unity3d.com/Manual/GIIntro.html

Wobei es natürlich angenehmer ist wen man die lightprobes nicht händisch platzieren muss sondern es die Gpu in Form eines voxel trees übernimmt.

Und btw ich glaub RTX nutzt auch einen voxel tree um irrelevante Polygone beim Raycasting zu filtern...
 
KlaraElfer schrieb:
Ich finde es ehrlichgesagt bedenklich dass Mitglieder der Computerbase-Leitung Falschinformationen im eigenen Forum verbreiten.

Sehr schade, dass man angegriffen wird auf Grund von völlig falschen Tatsachen und diese dann hier auch noch als Fakten im Forum rumposaunt werden. Ich bin nicht in der Computerbase-Leitung. Aber ich stell das gerne mal richtig: Es gibt zum einen die Geschäftsleitung und die Redakteure und zum anderen das Forum mit seinen Moderatoren. Zu letzterem gehöre ich.

Die Aufgabe der Moderatoren ist es primär, dass das Forum frei von Werbung, persönlichen Angriffen, Spam, Offtopic, usw bleibt.

Daneben steht es mir als Moderator zu, eine eigene Meinung zu haben. Und genau die vertrete ich hier auch. Ich habe, unabhängig vom Forum und Computerbase, genug PCs selbst zusammengestellt und aufgebaut, Software installiert, Software selbst geschrieben, optimiert, gedebugged, bei Kunden installiert und auch Support geleistet. Und als i-Tüpfelchen sogar OpenGL- und DirectX-Programme geschrieben.

KlaraElfer schrieb:
Das widerspricht den eigenen Technik-Artikeln von Computerbase und deren Compute Messungen von Turing.
Turing hat eine sehr hohe Compute-Leistung, da steht die 2080 der Radeon VII in nichts nach.

Nochmal für Dich: AMDs GCN-Architektur ist sehr, sehr stark auf Compute-Leistung ausgelegt. Nvidias Chips sind demgegenüber inzwischen zweigeleisig aufgestellt: Es gibt die Graphics-Chips und die Compute-Chips (z. B. Volta). Zu beiden hatte ich in der Vergangenheit immer mal wieder hier Kommentare eingestreut, bei denen ich ein bisschen näher darauf eingegangen bin. Die darfst Du gerne nochmals lesen.
 
  • Gefällt mir
Reaktionen: Balikon, Iscaran, Chismon und 6 andere
Manche kommentare hier tuen im kopf schon fast weh...

Dark-Silent schrieb:
Sry aber das ist so nicht richtig. Lese am besten mal dazu den aktuellen kompletten R VII Test von PCGH. Dazu mußt du aber leider die aktuelle PCGH Print kaufen. Im reinen Anwendungsindex, hierbei ist die Gamingperformance uninteressant da hier andere Qualitäten ausschlaggebend sind, ist die R VII die absolute Referenz und schlägt selbst die Titan Rex ohne mit der Wimper zu zucken zum Teil um Längen.

Schwachsinn, nur in anwendungen die rein bandbreiten limitierend sind. Und dann sind die werte mit 1tb/s überhaupt nichts spezieles mehr...

Inxession schrieb:
Ok, .. mein Beitrag wurde also ins Aquarium verschoben.

Dann versuch ich es mal gemäßigt ..

RT Cores sind also nicht nötig für gute RT Leistung. Danke Crytek, das ihr zeigt das nVidia mal wieder gelogen hat.
Sehr schade für die Käufer der bisherigen RTX Karten.
Ein Pascal Refresh hätte es vermutlich getan.
1080 ti + xx % als GTX 2080
Eine GTX 2080 ti noch darüber.
Ohne die Preise in unbezahlbare Regionen vordringen zu lassen.

Naja, der Erfolg gibt Ihnen ja Recht. Ich hab da scheinbar die ein oder andere Lohnerhöhung zu wenig, um diese Preise mitgehen zu können..

Finde es schade wie das umstrittene nVidia NDA die "Kritik" an nVidia quasi verbietet.

Hier ist Raytracing auf allen GPUs verfügbar. Zusätzliche Hardware Einheiten braucht es dazu nicht.

NV hat nie behauptet das man für RT / RT cores benödigt, sondern man diese braucht um genug leistung zu haben! RT kann man auf allem laufen lassen, das ist überhaupt kein problem... ist macht unteranderem intel, nv, amd auch schon seit zig jahren.

Wenn man keine ahnung hat einfach mal still halten, unglaublich die ganzen kidis hier die null ahnung von gar nichts haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, Grestorn, KlaraElfer und eine weitere Person
Dural schrieb:
Schwachsinn, nur in anwendungen die rein bandbreiten limitierend sind. Und dann sind die werte mit 1tb/s überhaupt nichts spezieles mehr...
Erst lesen statt einfach nur was rausblähen. Im Bereich Computeanwendungen z.B. unter Open GL da ist Bandbreite sicherlich kein Nachteil aber auch nicht der alleinige heilige Gral. Erwarte aber bitte nicht das ich dir das Lesen abnehme und auch nicht das ich deinen Text in irgendeiner Form relevant finde. 1Tb/s Transferrate sind nichts spezieles na gut dann zeige mir eine andere Karte ausserhalb von der Profikartensektion die da mithalten kann. Das wäre dann aktuell schon speziell unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: Balikon und Thraker
Die Problematik ist die, dass hier ein Entwickler auf einem anderen Wege wieder mal was auf Kosten der Flexibilität bereitstellt, was "aussieht als ob".
Das ist ja aber die Essenz von RT, dass das dort eben nicht gemacht werden muss.

Die Hauptsache, warum man RT betreibt, ist die Berechnungen volldynamisch und physikalisch richtig ablaufen zu lassen (egal unter welchen Renderszenarien) und das ohne eben den Einschränkungen zu unterliegen, die die Tricksereien mit sich bringen, was hier in den Kommentaren komplett unter den Tisch gekehrt wird.

Ist ja in Ordnung- Dann können wir aber gleich wieder auf das Prebaked lighting, Lightmaps, Lightprobes, Screenspace Reflections etc. zurückgehen, da diese ja auch schon gut und "richtig" aussehen.

Ich begreife den Hintergrund der Euphorie hier nicht, nur weil man Techniken in zugegebener Maßen hübschen Komposition zu sehen bekommt, die schon länger am Markt eingesetzt werden.

Um das in den richtigen Zusammenhang zu setzen bedeuten einige der Aussprüche hier nichts anderes als:
Wir brauchen kein RT, weil man die mit der Technik moderner rasterbasierter Engines unter Einschränkungen der dynamisierung von Szenen annähern kann.
No shit, sherlock?

Und das lässt nur folgende Schlüsse zu:

1.Es herrscht kein Verständnis dafür, was RT ist, was es macht und warum NVIDIA, Microsoft und der eine oder andere Entwickler überhaupt den Real deal, also diesen rechenintensiven Schritt geht.

2.Der übliche NVIDIA vs AMD Flamewar wird hier ausgelebt.

3.Einigen Usern reicht die grafische Qualität und die Flexibilität der Szenengestaltung moderner Titel aus.

4.Die RT- Technik ist kollateralschaden eines Krieges, der gegen NVIDIAS Preisgestaltung geführt wird.

Denn komischer Weise ist die Aussage der "kritischen" User, wenn man sie mal argumentativ etwas in die Enge treibt, dass sie selbst die RT- Technik für gut halten, aber nicht zu dem Preis.
Hier wird also nur aufgrund des Preises, Markenfetisches und der (daraus zu Teilen bestimmt auch ursächlichen) eigenen Mangelinformation (kommt ja hier immer wieder auf, dass DXR proprietär sei und nur von NVIDIA unterstützt werde) einer überlegenen Technik der Tod gewünscht.

Muss jeder für sich selbst bewerten, was das für einen Sinn haben soll.

Zudem wäre es schön, wenn man in diesem Forum sachbezogen Diskutieren könnte. Kaum kommt es zum Thema RT kommen die immergleichen Gestalten aus ihren Löchern gekrochen und lassen die immer gleiche Laier ab und die leider auch oftmals auf niedrigem Niveau.

Ein par Highlights, die in diese Richtung gehen:
Ghostshield schrieb:
Klingt nach mimimi eines Nvidia Fanboys... mimimi meine RT kerne sind besser...

Man wird schon diskreditiert, wenn man überhaupt "wagt" dazwischenzugehen, wenn sich die DXR Technologiegegner wieder die Klinke gegenseitig in die Hand geben:
Selanius schrieb:
Ich hab mich schon gefragt wann @ZeroZerp seine Expertise von sich gibt. Und ich wurde nicht entäuscht. Und wie erwartet wird es klein geredet was Crytek da als Demo zeigt.
Wie soll RT auch funktionieren ohne die RT und Tensorkerne der nVidia Karten. Das wäre ja Blasphemie wenn wer was anderes behauptet. ;)

Sachen werden einfach erfunden:
Selanius schrieb:
Denn ja du beschuldigst hier Crytek zu tricksen und gar keine Echtzeitberechnung zu haben.

Technische Hintergründe herabgewürdigt
Selanius schrieb:
Und das missionieren geht wieder los. 🤥

Muss diese Art miteinander zu Diskutieren hier wirklich sein? Bzw. was soll das?
Hier scheint eine Diskussion von einigen anderen Usern garnicht gewünscht, sondern im Gegenteil wird das Forum dazu misbraucht andere mit der eigenen vorgefertigten und unverrückbaren Anti- Haltung gleichzuschalten.

Bitte fair bleiben und sachbezogen diskutieren.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, Thane, Rage und 10 andere
Danke Crytek (und allen anderen beteiligten Personen), da sieht man mal wieder wie gut sie ihren Job beherschen.
Selbst für eine Demo ist da sehr gutes Material dabei rausgekommen.

Aber was mir am meisten gefällt ist, das es jetzt klar ist das es nicht extremeteure Grafikkarten braucht um ein schönes ergebnis abzuliefern...
Vorallem bei diesen Preislagen.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Zurück
Oben