News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine

Smartcom5 schrieb:
Ach, tut man das tatsächlich, wenn man den Fakt in den Raum stellt, daß selbst die RTX 2080 Ti gerade einmal selbst unter Full-HD für +60 FPS mit RTX-Effekten ausreichend Leistung hat? … zumindest so lange, bis nVidia hinging und die Effekte massiv zurückschrauben ließ?
Wo ist die Quelle dafür das die Effekte zurückgeschraubt wurden?
Es gab Optimierungen, keinerlei downgrades. Das ist absoluter Quatsch...
Informieren dich doch bitte ordentlich bevor du solche Dinge behauptest.
 
  • Gefällt mir
Reaktionen: Grestorn, Lübke82 und .Sentinel.
borizb schrieb:
Dass dir egal ist, wie das dargestellt wird, hat natürlich auch gar nichts damit zu
tun, dass deine AMD Grafikkarte auch gar keine RT Einheit hat, alter Scherzkeks :D

Es hat damit zu tun das die GraKa die genügend RT + Tensor Cores haben mindestens 700 Euro aufwärts kosten derzeit , wenn 80 % der RT Grafikpracht dieser Karten auch auf Karten der 300 Euro Klasse verfügbar werden durch " Tricksereien " wie es Zerozerp es nennt mit gleicher oder höherer Performancs als NV s RT , ist das vollkommen egal , dann bleibt halt RT + Tensor den High End Karten vorbehalten , die nur einen geringen Bruchteil der GraKas darstellen = nur wenige Developer werden sich die Mühe machen , es sei denn sie werden von NV geschmiert ... , wenn ihnen seitens der Game Engine neue " Tricksereien " geliefert werden die überall funktionieren , recht wenig Leistung kosten und möglicherweise auch auf den neuen Konsolen funktionieren werden .
Der High End Graka Markt ist nur ein solch kleiner Nischenmarkt ...

mir ist schon klar das dein Horizont da etwas eingeschränkt ist ....

PS : die 2060 ist zu sehr beschnitten , auch die 2070 sieht bei RT + Tensor Cores recht bescheiden aus , wirklich nutzbar mit RT sind nur 2080 + 2080 TI derzeit und auch da ist die Performance recht bescheiden derzeit , die Karten sind eigentlich auf 4K ausgelegt , funktioniert denn RT unter 4 K mit aureichend FPS ?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thraker
KlaraElfer schrieb:
Also die Demo die du hier so verteidigst benötigt für Szenenwechsel und unvordefinierte Kameraschwenks mehrere Sekunden Denkpause bis sich das Voxelgitter wieder aufgebaut hat.
Verglichen mit den Umsetzungen von Raytracing für global illumination in Metro oder der Spiegelungen in Battlefield 4 genügt die Hardware mittlerweile sehr wohl für eine genügend performante Darstellung auch in Auflösungen wie WQHD/QHD/UWQHD >60 FPS und sogar 4K in Metro mit Zuhilfenahme von DLSS mit 50 FPS.

Auch die kleinste Karte genügt mittlerweile für >60 FPS in Battlefield 4 in Full HD @ ultra oder 60 FPS @ High in Metro, also fehlen dir da Infos.
Die Hardware mag zwar auch für "richtiges" Raytracing "genügen" (mit reduzierter Auflösung bzw. Auflösungstricks wie DLSS), kostet dann aber auch mehr als das Doppelte. Zudem ist ja nicht gesagt, dass die paar Sekunden Denkpause auch so bleiben, oder dass das am Ende besonders stört, z.B. wenn es eh Open World und damit ziemlich zusammenhängend ist (von Schnellreise mal abgesehen). Zudem dann die Frage, wie die "Denkpause" mit den Prozessorkernen skaliert, also verringert, werden kann. Ich würde behaupten, das wird sich noch zeigen wenn man es mal in fertigerer Version in einem tatsächlichen Spiel mit verschiedener Hardware testen kann. RTX ist ja jetzt auch nicht mehr ganz das, was es zur Gamescom oder bei der ersten Einführung in BF V war, da wurde ja auch vieles nachgebessert und optimiert.

Ich würde die Voxellösung auch weniger als Ersatz für "echtes" Raytracing, sondern als eine Art Übergangskompromiss sehen, der für viele Menschen Verbesserungen auf einer 500€-GPU oder gar noch günstiger bringen kann, auch ohne dass man gleich zur 1200€-Karte greifen muss, um die 60fps zu halten.
Einen 8-Kerner für die Voxel erhält man ja schon für weniger Geld als manche 6-Kerner, also für weniger als 300€. Verglichen mit dem GPU-Aufpreis wäre das eher vertretbar und möglicherweise werden bald sogar 12-Kerner im Mainstream kommen. Die hätten dann wohl auch einige Kerne zum "Voxeln" übrig. Da muss man halt abwarten, wie das genau skaliert, etc.

Da wäre dann auch interessant, was dann noch von den "mehrere Sekunden Denkpause" übrig bleibt. Wobei das, soweit ich das verstanden habe, ja auch keine wirkliche Denkpause ist, sondern eine verzögerte Anwendung des Raytracings, während die Voxel sukzessiv im Hintergrund aufgebaut bzw. ergänzt werden.
 
  • Gefällt mir
Reaktionen: Smartcom5, KlaraElfer und .Sentinel.
Mich würde mal interessieren mit welcher CPU die Geschichte gerendert wurde und welche CPU Last dabei anfiel - eins habe ich im Leben gelernt, alles hat seinen Preis und nichts gibt es einfach umsonst.
 
  • Gefällt mir
Reaktionen: Lübke82, FCK-THIS, .Sentinel. und 3 andere
Darkscream schrieb:
Mich würde mal interessieren mit welcher CPU die Geschichte gerendert wurde und welche CPU Last dabei anfiel - eins habe ich im Leben gelernt, alles hat seinen Preis und nichts gibt es einfach umsonst.
steht dabei : RX56
https://www.crytek.com/news/crytek-...-time-ray-tracing-demonstration-for-cryengine

764357
 
Zuletzt bearbeitet:
KarlKarolinger schrieb:
Die Hardware mag zwar auch für "richtiges" Raytracing "genügen" (mit reduzierter Auflösung bzw. Auflösungstricks wie DLSS)

Ohne DLSS, meinte ich.
DLSS brauchst du nur in 4K.
 
Zespire schrieb:
Das du AMD und Vega toll findest ist aus deinen Beiträgen ersichtlich aber eine Gpu als Cpu verkaufen geht etwas zu weit.
sorry habs für nen Typo gehalten denn im Video an 1:51 steht exakt drin womit gerendert wurde ...
 
Ne glaub er will einfach nur wissen welche Cpu die Voxel berechnet hat und welche Last dabei anfiel.
 
Er wollte die CPU wissen die genutzt wurde und die steht imo nirgens. Evtl erfährt man zu GDC mehr.
 
  • Gefällt mir
Reaktionen: Lübke82
Eine gelungene Implementierung von der neusten Version dann noch in "Hunt" das wäre ein Traum.
CryEngine war und ist immer noch ziemlich beeindruckend. Wir erinnern uns zurück an das Jahr 2007 ;-)!
 
  • Gefällt mir
Reaktionen: .Sentinel., pietcux und FCK-THIS
Chismon schrieb:
Sehr loeblich der faire Ansatz von CryTek eben nicht nur einseitig (also RTX GPUs von nVidia unterstuetzend) an RT-Raytracing heran zu gehen; nur schade, dass die CryEngine leider nicht so eine Verbreitung bei Entwicklerstudios geniesst wie etwa die Unity und Unreal Engines.

Ob die anderen Engine-Entwickler da nicht auch bald nachziehen werden, damit CryTek damit kein Alleinstellungsmerkmal hat?

Es bleibt zu hoffen, dass die RT-Raytracing Implementierung in der CryEngine neue Entwickler anziehen wird (und Nutzer anderer Engines zur CryEngine locken wird).

Also wenn es gut mit einer RX Vega GPU laeuft, dann wird hier bewiesenermassen der gesamte RTX-Hype nVidias ad absurdum gefuehrt.

Denn auch wenn die RTX Karten mehr Leistung in dem Bereich bieten als hauseigene GTX GPUs oder die der Konkurrenz, man haette RT-Raytracing auch gesamtheitlich ueber diese CryTek-Loesung (oder etwas aehnliches) ueber alle Leistungsklassen hinweg (wie AMD/RTG das irgendwann vorzuhaben scheint) einfuehren koennen (was sich dann natuerlich aber nicht so reisserisch sensationsgeladen von Huang haette vermarkten lassen koennen wie eben RTX und wo der "RTX only"-Vorteil dann eben nicht mehr so gestochen haette).
Auch dir sei es nochmal gesagt: Nvidia hat sich für eine dedizierte RT Einheit entschieden,
als hier aber auch gar niemand von RT gesprochen hat. Das war die größte Innovation auf
Grafikkarten seit warscheinlich 10 Jahren nur mehr Ghz und mehr RAM -mit Ausnahme
von VR, wo auch Nvidia mehr tut und die Nase vorne hat - und all das kostet einfach Geld!
Für NV in R/D und für den Kunden, der ein Produkt kauft das mehr kann und kostet.

Hier jetzt mit Argumenten von Hype oder Fairness zu kommen und Äpfel mit Birnen zu
vergleichen finde ich ziemlich schäbig. Crytek hätte diese Demo auch auf einer RTX zeigen
können. Aber ich vermute mal, das hätte AMD dann nicht unter der Hand gesponsort.
Wie gesagt, ich vermute es. Es ist nur geraten. Wär ja auch nicht verboten prinzipiell.

Aber du sprichst von Fairness? Wie ist das bitte fair gegenüber Nvidia? Fair wäre gewesen ein
Vergleichsvideo: So läuft es mit AMD / So läuft es mit Nvidia zu zeigen. Einfach nur die Vega
56 zeigen nennst du fair? Auf welchem Planeten ist das fair, dass der, der die Innovation bringt
von Crytek benachteiligt wird? Ohne die RTX Karten wäre diese Demo doch nie entstanden, oder?
 
Smartcom5 schrieb:
Nein, sind sie eben nicht – wie oben hoffentlich ausführlich erläutert.
Ich für meinen Teil habe mir zumindest Mühe gegeben, aufzupassen …

Du willst behaupten du hast aufgepasst? Den Eindruck machst du nicht wirklich.

Dann nochmal für dich:

Welche Hardwarekomponenten stellt Nvidia her und welche AMD?
Schon mitbekommen, dass Ryzen (zu Recht!) sehr erfolgreich ist?

Und schon hast du deine Antwort, weshalb die AMD Aktie nicht so stark betroffen ist wie die Nvidia Aktie und weshalb es absolut sinnfrei ist die Lage in Sachen Grafikkarten anhand des Aktienkurses bestimmen zu wollen. Als nächstes ziehst du uns einen Hasen aus einem leeren Hut ...
Nächstes mal vielleicht etwas besser aufpassen, dann hättest du dir die Zeit für die sinnfreie Erläuterung sparen können ;)

Den Rest deines Beitrags lasse ich mal so stehen, der bestätigt nur meine ursprüngliche Aussage. Mit der Meinung bin ich offensichtlich nicht alleine. Ohne Aktienanteile ist solch eine Einstellung einfach nur peinlich, mich interessiert nur das bessere Produkt, das ist wie ich schon schrieb mal AMD/ATI mal Nvidia bzw. Intel, die Firmengeschichte können Sie für sich behalten. Ich kaufe doch nicht das schlechtere Produkt, nur weil mir das Wettbewerbsverhalten des Anbieters des besseren Produktes nicht passt, für härtere Verstöße haben wir unsere „Hüter von Recht und Ordnung“. Aber jedem das Seine.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und kisser
@ borizb
Ach komm, auch wenn du mit der Innovations Sache Recht hast: NV brachte RT als Argument für mehr Einnahmen, ebenso wie Physx damals. Und genau so wird RT auch enden. Das war spätestens dann klar, als es hieß, dass die neue Konsolen Generation keine RT cores haben wird. Ich bin mir sicher, dass NV zu jedem Zeitpunkt von der jetzt gezeigten RT Alternative wusste.
 
borizb schrieb:
Auch dir sei es nochmal gesagt: Nvidia hat sich für eine dedizierte RT Einheit entschieden,
als hier aber auch gar niemand von RT gesprochen hat. Das war die größte Innovation auf
Grafikkarten seit warscheinlich 10 Jahren nur mehr Ghz und mehr RAM -mit Ausnahme
von VR, wo auch Nvidia mehr tut und die Nase vorne hat - und all das kostet einfach Geld!
Für NV in R/D und für den Kunden, der ein Produkt kauft das mehr kann und kostet.

Hier jetzt mit Argumenten von Hype oder Fairness zu kommen und Äpfel mit Birnen zu
vergleichen finde ich ziemlich schäbig. Crytek hätte diese Demo auch auf einer RTX zeigen
können. Aber ich vermute mal, das hätte AMD dann nicht unter der Hand gesponsort.
Wie gesagt, ich vermute es. Es ist nur geraten. Wär ja auch nicht verboten prinzipiell.

Aber du sprichst von Fairness? Wie ist das bitte fair gegenüber Nvidia? Fair wäre gewesen ein
Vergleichsvideo: So läuft es mit AMD / So läuft es mit Nvidia zu zeigen. Einfach nur die Vega
56 zeigen nennst du fair? Auf welchem Planeten ist das fair, dass der, der die Innovation bringt
von Crytek benachteiligt wird? Ohne die RTX Karten wäre diese Demo doch nie entstanden, oder?
So war Chris Roberts auch nicht fair mit Crytek bezüglich des Engine Wechsels. Letztendlich läuft sein tolles Spiel jetzt immer noch auf einer Cryengine, sie heißt nur nicht mehr so. Warum muß nun ausgerechnet Crytek fair sein?
 
Smartcom5 schrieb:
Man darf trotz allem nicht vergessen, daß nVidia es war, welche es von Anfang an so dargestellt hat, als wenn ohne RTX-Funktionalität ihrer Karten kein Echt·zeit-Raytraycing geben kann – oder zumindest nicht in dem Maße, oder? Das scheint hier immer wieder so schnell vergessen …

Kannst du mal die Quelle nennen wenn du schon falsch zitierst? Klingt eher als hättest du dir das gerade zusammengereimt. Alleine das „- oder zumindest“ sagt einiges darüber aus. Etwas das so nie gesagt wurde kann man nicht vergessen ;)

Nvidia hat lediglich behauptet, dass Raytracing mit speziell darauf abgerichteter Hardware deutlich besser läuft als mit Softwarelösungen ohne spezielle Hardware, was so auch absolut der Realität entspricht. Selbst AMD sieht das ein und möchte zukünftig spezielle Hardware für Raytracing verbauen, wie ich dir in meinem letzten Beitrag zitiert hatte. Stichwort „aufpassen“ :evillol: Nur du bist anderer Meinung.
 
  • Gefällt mir
Reaktionen: Grestorn, kisser, Lübke82 und eine weitere Person
Aus Kundensicht (Tatsache Kunden!sicht, Nicht AMD nicht NVIDIA), wäre es doch wünschenswert RT unabhängig vom Grakahersteller nutzen zu können, damit man in Zukunft nicht auf den ein oder anderen angewiesen ist. Ja sowas solls geben. Wer möchte das verneinen?
 
  • Gefällt mir
Reaktionen: FCK-THIS, Fraggball und .Sentinel.
Dai6oro schrieb:
Aus Kundensicht (Tatsache Kunden!sicht, Nicht AMD nicht NVIDIA), wäre es doch wünschenswert RT unabhängig vom Grakahersteller nutzen zu können, damit man in Zukunft nicht auf den ein oder anderen angewiesen ist. Ja sowas solls geben. Wer möchte das verneinen?
Wobei man nicht vergessen darf, dass NVIDIA AMD keineswegs verbietet DXR oder Vulkan RT kompatible Hardware auf den Markt zu werfen, bzw. ihre derzeitige Palette durch Treiberunterstützung DXR kompatibel zu machen- Sie tun es nur nicht, weil es mangels Leistung sinnlos wäre.

Und ich wiederhole mich zum x-ten Male. RT IST bereits unabhängig vom Grafikkartenhersteller, weil der abstraction- Layer sowohl unter DX als auch Vulkan bereits vorhanden ist! RTX ist NUR DER NAME für das Featureset, was NVIDIA hardwaretechnisch dafür zur Verfügung stellt.
Das ist wie wenn AMD seine Grafikkarten "Vega" nennt.
Vega hat auch sein eigenes Hardwareset mit dem es seine Features zur Verfügung stellt.

https://www.computerbase.de/news/grafikkarten/directx-12-raytracing-dxr.62865/
https://github.com/world8th/vRt

Wieso wird hier immer wieder behauptet, dass hier was proprietär sei??
Nein- NVIDIA ist halt im Augenblick die einzige Firma, die einen Treiber für zwei seiner Grafikkartengattungen zur Verfügung stellt:Volta und Turing.

Volta hat KEINE RT- Kerne. Somit wird auch die "angebliche Aussage", dass realtime- RT RT Cores bräuchte völlig ad Absurdum geführt. Das hat NVIDIA nie behauptet.

Sie haben lediglich gesagt, dass man durch die neuen Techniken geschwindigkeitstechnisch in die Bereiche vorstößt, wo an ein realtime- Raytracing im klassischen Sinne als Hybrid ohne technische Einschränkungen in standard Raster- Engines zu denken ist.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und FCK-THIS
Ich sehe das anders. Klar AMD kann und wird DXR nutzen ist ja ein Standard. Die verbauen also auch zusätzliche Einheiten und ich bin mir sicher, dass dann ein Metro oder BFV mit AMDs DXR (Name steht ja noch aus, Freeray oder so) nicht laufen wird und umgekehrt bei AMD "gesponserten" Spielen wird es auf RTX nicht laufen. Da brauchen wir uns nix vormachen.

Da setze ich lieber auf Softwarelösungen und warte noch 3 Jahre bis die Hardware allgemein schnell genug ist.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Dai6oro schrieb:
Die verbauen also auch zusätzliche Einheiten und ich bin mir sicher, dass dann ein Metro oder BFV mit AMDs DXR (Name steht ja noch aus, Freeray oder so) nicht laufen wird und umgekehrt bei AMD "gesponserten" Spielen wird es auf RTX nicht laufen. Da brauchen wir uns nix vormachen.
Hm?? Wie kommst Du denn darauf?
Das wäre ja, wie wenn eine AMD Karte die DX12 kompatibel ist und eine NVIDIA Karte die DX12 kompatibel sind jedoch beide Karten bei einem DX12 Titel plötzlich nicht oder anders laufen würden?

Der Hauptnutzen eines abstraction- Layers wie DX12 ist es doch genau eben unterschiedliche Hardware über die gleiche Schnittstelle zu trimmen, auf welchen die Treiber der Hersteller andocken können um eben die gleich Funktionalität Herstellerübergreifend herzustellen.

Wenn BV5 und Metro DXR kompatibel sind, dann läuft natürlich auch jede DXR kompatible Karten/Treiberkombination damit.

Du stellst gerade Deiner "Befürchtung" das ganze Prinzip von DX oder Vulkan in Frage...

LG
Zero
 
  • Gefällt mir
Reaktionen: Grestorn, kisser, yummycandy und eine weitere Person
Zurück
Oben