Nutzbar wäre DXR schon heute von AMD keine Frage aber eben nicht performant und ich glaube auch nicht dass AMDs dedizierte RT Einheiten dann gut mit Spielen zusammenarbeiten die für RTX entworfen wurden und umgekehrt. Wer hält Nvidia oder die Entwickler ab es so wie bei Tesselation zu machen? Es wird einfach so programmiert, dass es auf dem ein oder andern nicht mehr gut läuft. Es war in der Vergangenheit so wird auch in Zukunft so sein.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine
- Ersteller MichaG
- Erstellt am
- Zur News: Auch für Radeon: Crytek zeigt Raytracing-Demo für kommende CryEngine
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
borizb schrieb:Aber du sprichst von Fairness? Wie ist das bitte fair gegenüber Nvidia? Fair wäre gewesen ein
Vergleichsvideo: So läuft es mit AMD / So läuft es mit Nvidia zu zeigen. Einfach nur die Vega
56 zeigen nennst du fair? Auf welchem Planeten ist das fair, dass der, der die Innovation bringt
von Crytek benachteiligt wird? Ohne die RTX Karten wäre diese Demo doch nie entstanden, oder?
Es gibt schon seit Jahren Engines die ähnliche Dinge beherrschen. Warum sollte Crytek sich um nVidia kümmern? Es steht extra im Abspann das auf allen üblichen GPU's die Demo läuft, dazu gehören auch die Gegenstücke von AMD.
Wo hat nVidia irgendwelche Innovation gebracht ? RayTracing ist keine Erfindung von nVidia und gibt es schon seit Ewigkeiten.
L
Lübke82
Gast
MK one schrieb:funktioniert denn RT unter 4 K mit aureichend FPS ?
Kann ich bejahen!
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
Die Effekte sind unberührt in der Ursprungsfassung vorhanden. Sie waren sich im klaren darüber, dass sie eine fehlerhafte frühe Version rausgeben und haben mehrfach in Tweets, Foreneinträgen betont, dass sie noch nicht voll nutzbar ist (hat nur niemanden interessiert und die "frühe Version" als Final genommen):Smartcom5 schrieb:Ach, tut man das tatsächlich, wenn man den Fakt in den Raum stellt, daß selbst die RTX 2080 Ti gerade einmal selbst unter Full-HD für +60 FPS mit RTX-Effekten ausreichend Leistung hat? … zumindest so lange, bis nVidia hinging und die Effekte massiv zurückschrauben ließ?
*We recommend in this first release of DXR that “DXR Raytraced Reflections Quality” be set to “Low” due to Battlefield V’s known issues when using “Medium”, “High”, and “Ultra” settings. EA, DICE, and NVIDIA will also continue to optimize this implementation and deliver regular updates.
Unter den known Issues steht unter Anderem
...was für einen großteil der Einbußen der Leistung verantwortlich war, weil Strahlen zu hauf auch gegen Geometrie verschossen wurde, die als "hidden" gekennzeichnet war.Removed inactive geometry from ray traced scenes.
So kann man natürlich Leistung ohne Ende verbrennen...
Daraus wurde dann pressetypisch natürlich, alle vorhergehenden Warnungen und Erklärungen ignorierend, der Untergang von RTX beschworen, weil der Leistungsverlust unverhältnismäßig hoch sei.
Jetzt sind wir mit ner 2080 TI und WQHD OHNE DLSS bei 85FPS auf Stufe Mittel und 62 FPS auf Ultra und das war vor dem letzten Update, wo RTX wieder optimierungen erfahren hat.
LG
Zero
Ergänzung ()
Wie gesagt- Da unterliegst Du einem großen Missverständnis.Dai6oro schrieb:Nutzbar wäre DXR schon heute von AMD keine Frage aber eben nicht performant und ich glaube auch nicht dass AMDs dedizierte RT Einheiten dann gut mit Spielen zusammenarbeiten die für RTX entworfen wurden und umgekehrt.
Die High- Level Schnittstelle DXR stellt nur sicher, dass die Hersteller mit einem festen und einheitlichen Befehlsset rechnen können, welches sie dann über ihre Treiber an die Hardware übersetzen.
Wie performant da was miteinander zusammenarbeitet liegt zu 99% an der Treiber/Hardwarekombi, für die rein der Hersteller zuständig ist.
Tesselation läuft auf moderneren Grafikkarten sowohl auf AMD als auch NIVIDIA Produkten gleich schnell und einwandfrei.Wer hält Nvidia oder die Entwickler ab es so wie bei Tesselation zu machen? Es wird einfach so programmiert, dass es auf dem ein oder andern nicht mehr gut läuft. Es war in der Vergangenheit so wird auch in Zukunft so sein.
AMD hatte damals diesbezüglich einfach einen Leistungsnachteil, den sie relativ schnell aufgeholt haben.
LG
Zero
Zuletzt bearbeitet:
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.866
borizb schrieb:Das hat niemand gesagt. Gesagt wurde, dass Nvidia Echtzeit Raytracing kann mit
einem dedizierten Chip. Raytracing gibts seit Jahrzehnten und kann prinzipiell auf
jeder Hardware ausgeführt werden. Der Unterschied ist in welcher Geschwindigkeit,
Qualität und Komplexität und wie man es implementiert.
Wenn man sieht wie RT in Spielen aktuell selbst die 2080Ti zum schwitzen bringt,
muss jedem klar sein, dass diese Demo auf der Vega 56 ganz weit weg von dem
sein muss, was Nvidia mit RTX gerade macht. Vielleicht war diese Demo einfach
nicht in Echtzeit gerendert. Mal schaun ob dieser Artikel dazu ein Update erhält.
Also mich haut die Demo nicht wirklich vom Stuhl. Man achte nur auf das Blaulicht und in welchen umfang es sich in der Umgebung reflektiert. Da bietet selbst Quake 2 mehr Raytracing(pathtracing). Softwareemulation vs Hardware look....
Das Spiel ist 20 Jahre alt und Pathtracing dropt die FPS von 200 auf 50 Aber dafür das man in diesen olden Knüdel nur ein eiziges neues Grafikfeature implentiert, dafür wiederum sieht es wirklich wieder beeindrukend aus. Auf wen der Hardware hunger extrem ist. Aber wen man das einmal gesehen hat, dann haut einem dieses Softwareemulation dieser Techdemo leider nicht mehr vom hocker. Insbesondere wen man weiß das nicht alles Raytracing ist. Wie schon angemerkt, schaut aufs Blaulicht, es streut sich nicht wie bei Ray üblich mit der Gesamten umgebung. Eigentlich müsste alles ind blau und rot halten.... Bei licht gibts keine grenzen, nur die inensität nimmt ab. Aber hier ist das Blaulicht nur eine Rutierende Textur....
Wen ich mir dann sowas anschaue, dann weiß ich das ich eine Hardwarebeschleunigung möchte und nicht diesens Softwareschrot.
<iframe width="560" height="315" src="
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
Dai6oro schrieb:Aus Kundensicht (Tatsache Kunden!sicht, Nicht AMD nicht NVIDIA), wäre es doch wünschenswert RT unabhängig vom Grakahersteller nutzen zu können,
Dafür gibt es ja die herstellerunabhängige DXR-API.
Es liegt an AMD, hier passende Treiber dafür zu liefern. Werden sie aber nicht tun, weil sie da leistungsmässig kein Land sehen ohne spezielle Hardware-Einheiten.
Das gilt natürlich für Pascal- und Turing-GTX-Karten ebenso, auch da wird es keine DXR-Treiber geben.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.866
Für "echtes" Pathtracing brauchst du eine Hardwarebeschleunigung. Zumindest wen man zu annehmbaren FPS sichtbare Ergebnisse haben möchte. In der Demo sehe ich so gut wie kein Raytracing. Vergleich mal ein Polizeiauto in der Nacht mit Blau licht mit der abgebildeten Szenerie. Das überzeugt einfach nicht. Da geht viel viel mehr. Und das braucht Hardwarbeschleunigung.
<iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
<iframe width="560" height="315" src="
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
wen juckts ? sollten sich RTX ähnliche Effekte wie in der Demo nicht nur bei der Cryengine sonden den anderes Game Engines wiederfinden dann ist Hardware RTX welches ein entrauschen seitens der Tensor Cores voraussetzt , weil es sonst total verpixelt ist , überflüssig ....
Kommt darauf an wieviel Performance diese " Trickserei " kostet ... . sollte sogar ne Polaris Karte = RX 580 in der Lage sein die Demo flüssig zum laufen zu bringen hat NV ein Problem ...
Leider gibt es die Demo noch nicht zum Download . ich würde es ja gerne mal ausprobieren
@ über mir
es handelt sich um Reflexionen, und die sehen schon gut aus , ersetzt ältere Methoden wie pre-baked cube maps und local screen space reflections
https://www.cryengine.com/news/cryt...-time-ray-tracing-demonstration-for-cryengine
The experimental ray tracing tool feature simplifies and automates the rendering and content creation process to ensure that animated objects and changes in lighting are correctly reflected with a high level of detail in real-time. This eliminates the known limitation of pre-baked cube maps and local screen space reflections when creating smooth surfaces like mirrors, and allows developers to create more realistic, consistent scenes. To showcase the benefits of real time ray tracing, screen space reflections were not used in this demo.
Kommt darauf an wieviel Performance diese " Trickserei " kostet ... . sollte sogar ne Polaris Karte = RX 580 in der Lage sein die Demo flüssig zum laufen zu bringen hat NV ein Problem ...
Leider gibt es die Demo noch nicht zum Download . ich würde es ja gerne mal ausprobieren
@ über mir
es handelt sich um Reflexionen, und die sehen schon gut aus , ersetzt ältere Methoden wie pre-baked cube maps und local screen space reflections
https://www.cryengine.com/news/cryt...-time-ray-tracing-demonstration-for-cryengine
The experimental ray tracing tool feature simplifies and automates the rendering and content creation process to ensure that animated objects and changes in lighting are correctly reflected with a high level of detail in real-time. This eliminates the known limitation of pre-baked cube maps and local screen space reflections when creating smooth surfaces like mirrors, and allows developers to create more realistic, consistent scenes. To showcase the benefits of real time ray tracing, screen space reflections were not used in this demo.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.645
@MK one
Wir haben doch schon lange kein Problem mehr damit, dass sich die ganzen Effekte nicht absolut überzeugend "faken" liessen. Lightmass ist z.B. in UE eine ABSOLUTE Wucht:
Das Problem bei diesen vorgefertigten Szenen über Lightmaps bzw. prebaked Lighting, AO etc. ist, dass sich die Szene nicht verändern darf, also statisch bleiben muss.
Was passiert also im Praxisalltag der Spieleprogrammierung: Wenn man Tageszeiten simulieren will, werden X Unterschiedliche Zustände bzw. Lichtszenarien zu verschiedenen Tageszeiten vorberechnet und auf Festplatte gebannt.
Will man die Umgebung z.B. zerstörbar machen, darf es nur immer vorgefertigte "Stufen" geben, die dann auch wiederum auf der Festplatte auf Abruf warten.
Tageszeit in Kombination mit unterschiedlichen Zerstörungsstufen vervielfachen den Speicherbedarf noch einmal.
Habt Ihr Euch noch nie gefragt, warum moderne Spiele plötzlich mit den Gigabyte nur so um sich werfen?
Eine Einfache Schlüsselszene, wie sie in Metro gezeigt wird, ist mit den Techniken, die das Szenario "richtig" vorberechnen nicht möglich (ab Minute zwei):
Bewegliche Objekte, Physikspielereien etc. das ist auch alles Gift für die klassische Art der Berechnung über einen Scanliner, weil dort die Rechenleistung der Vorberechnung plötzlich live vorhanden sein müsste.
Da setzt RT an. RT sieht nicht besser oder richtiger aus, als ein durch Lightmass vorberechnetes Szenario (da wird ja auch geraytraced), jedoch hat man mit "echtem" RT die Möglichkeit die gesamte Szenerie volldynamisch ändern zu können und das bei physikalisch korrekter Beleuchtung.
Schießt man eine Lampe kaputt, so wird nicht einfach eine zweite Lightmap für den Raum benutzt (kostet wieder Speicher) und eine dunkle Textur über die Lampe gelegt, sondern die Lichtquelle wird einfach naturgemäß "ausgeschalten".
Man stelle sich einen Raum vor, der 5 Lichter beinhaltet, ein Schrank steht drin, der Schrank ist progressiv zerstörbar.
Um das ganze mit korrekter Beleuchtung nun auf Ursprünglichem Wege zu realisieren, müsste ich nun zuallererst 5x5 lightmaps "backen". Dann habe ich 25 Stück, die dann schon einmal jeden Fall abdecken, wenn eine Lampe ausgeschossen würde.
Kommt nun noch dazu, dass ich z.B. einen Schrank verrücken oder zerstören kann, so muss ich dessen Zerstörungsstufen mit den 25 möglichen Szenarien der Lichter multiplizieren.
Sagen wir mal der Schrank kann den Status "angekratzt", halb kaputt und zerstört annehmen, so müsste ich schon 25x3 Bleuchtungsszenarien für eine richtige Beleuchtung vorberechnen.
Deshalb sind Spiele mit einer tollen Lichtstimmung ansonsten statisch bzw. alles um die festen Objekte drumrum wird nicht in korrekt in die Lichtberechnung einbezogen.
Damit nimmt man den Designern viele Möglichkeiten, die Umgebungen lebhaft zu gestalten und aktiver ins Spielgeschehen einzubeziehen. Auch da gibt es inzwischen aufwendige Workarounds, die da einiges faken können, jedoch ist das meist signifikant von einem korrekt aussehenden Ergebnis entfernt.
Alle Einschränkungen und Nachteile fallen im RT Betrieb weg. Alles kann jederzeit zerstört, bewegt, überschwemmt, zugeschneit oder was weiss ich auch immer werden und es ist in allen erdenklichen Kombinationen immer perfekt beleuchtet.
Da liegt der Hase im Pfeffer.
LG
Zero
p.S. Ich schätze es übrigens sehr, wie unaufgeregt Du bezüglich diese Themas auftrittst.
Wir haben doch schon lange kein Problem mehr damit, dass sich die ganzen Effekte nicht absolut überzeugend "faken" liessen. Lightmass ist z.B. in UE eine ABSOLUTE Wucht:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Das Problem bei diesen vorgefertigten Szenen über Lightmaps bzw. prebaked Lighting, AO etc. ist, dass sich die Szene nicht verändern darf, also statisch bleiben muss.
Was passiert also im Praxisalltag der Spieleprogrammierung: Wenn man Tageszeiten simulieren will, werden X Unterschiedliche Zustände bzw. Lichtszenarien zu verschiedenen Tageszeiten vorberechnet und auf Festplatte gebannt.
Will man die Umgebung z.B. zerstörbar machen, darf es nur immer vorgefertigte "Stufen" geben, die dann auch wiederum auf der Festplatte auf Abruf warten.
Tageszeit in Kombination mit unterschiedlichen Zerstörungsstufen vervielfachen den Speicherbedarf noch einmal.
Habt Ihr Euch noch nie gefragt, warum moderne Spiele plötzlich mit den Gigabyte nur so um sich werfen?
Eine Einfache Schlüsselszene, wie sie in Metro gezeigt wird, ist mit den Techniken, die das Szenario "richtig" vorberechnen nicht möglich (ab Minute zwei):
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Bewegliche Objekte, Physikspielereien etc. das ist auch alles Gift für die klassische Art der Berechnung über einen Scanliner, weil dort die Rechenleistung der Vorberechnung plötzlich live vorhanden sein müsste.
Da setzt RT an. RT sieht nicht besser oder richtiger aus, als ein durch Lightmass vorberechnetes Szenario (da wird ja auch geraytraced), jedoch hat man mit "echtem" RT die Möglichkeit die gesamte Szenerie volldynamisch ändern zu können und das bei physikalisch korrekter Beleuchtung.
Schießt man eine Lampe kaputt, so wird nicht einfach eine zweite Lightmap für den Raum benutzt (kostet wieder Speicher) und eine dunkle Textur über die Lampe gelegt, sondern die Lichtquelle wird einfach naturgemäß "ausgeschalten".
Man stelle sich einen Raum vor, der 5 Lichter beinhaltet, ein Schrank steht drin, der Schrank ist progressiv zerstörbar.
Um das ganze mit korrekter Beleuchtung nun auf Ursprünglichem Wege zu realisieren, müsste ich nun zuallererst 5x5 lightmaps "backen". Dann habe ich 25 Stück, die dann schon einmal jeden Fall abdecken, wenn eine Lampe ausgeschossen würde.
Kommt nun noch dazu, dass ich z.B. einen Schrank verrücken oder zerstören kann, so muss ich dessen Zerstörungsstufen mit den 25 möglichen Szenarien der Lichter multiplizieren.
Sagen wir mal der Schrank kann den Status "angekratzt", halb kaputt und zerstört annehmen, so müsste ich schon 25x3 Bleuchtungsszenarien für eine richtige Beleuchtung vorberechnen.
Deshalb sind Spiele mit einer tollen Lichtstimmung ansonsten statisch bzw. alles um die festen Objekte drumrum wird nicht in korrekt in die Lichtberechnung einbezogen.
Damit nimmt man den Designern viele Möglichkeiten, die Umgebungen lebhaft zu gestalten und aktiver ins Spielgeschehen einzubeziehen. Auch da gibt es inzwischen aufwendige Workarounds, die da einiges faken können, jedoch ist das meist signifikant von einem korrekt aussehenden Ergebnis entfernt.
Alle Einschränkungen und Nachteile fallen im RT Betrieb weg. Alles kann jederzeit zerstört, bewegt, überschwemmt, zugeschneit oder was weiss ich auch immer werden und es ist in allen erdenklichen Kombinationen immer perfekt beleuchtet.
Da liegt der Hase im Pfeffer.
LG
Zero
p.S. Ich schätze es übrigens sehr, wie unaufgeregt Du bezüglich diese Themas auftrittst.
Zuletzt bearbeitet:
KarlKarolinger
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 729
KlaraElfer schrieb:Ohne DLSS, meinte ich.
DLSS brauchst du nur in 4K.
Ich hab ja 4K.
Ich würde mir DLSS aber nicht antun bis das mal ne wirkliche KI ist, die nicht einfach nur aufskalierte Matschepampe ausgibt, sondern ernsthaft Pixel bzw. Details sinnvoll "hinzudenken" kann, wie sich das für AI-Upscaling gehört.
Und selbst dann auch nur, wenn ich mich dafür nicht bei NVidia registrieren muss und von deren vorberechneten Profilen abhängig bin. Und wenn FreeSync funktioniert (laut GameStar mit meinem Monitor und NVidia nicht).
M
Mickey Cohen
Gast
ich glaube sowieso, diese RT cores sind nur ein marketinggag und unterscheiden sich von normalen streamprozessor-clustern höchstens marginal. die mathematik, die hinter RT steckt ist kein hexenwerk, sondern ebenso lineare algebra wie die mathematik, die für rastergrafikberechnungen zum einsatz kommt.
Wenn Raytracing auf jeder Hardware läuft wieso kann ich dann nur mit RTX Karten dieses Feature in BF5 und Metro nutzen? Angeblich kann doch fast jede Hardware dieses Feature berechnen. Denke eher NVIDIA will nicht das man sieht das ihre Cores nur Marketing sind. Wäre ja auch blöd wenn sich herausstellt das die Cores nur wenig bringen, wobei NVIDIA bringt es zurzeit Geld Was Crytek hier zeigt finde ich super und am Ende ist es mir egal ob mit Tricks gearbeitet wird. Das Ergebnis und die Performance sind wichtig und es ist ja nicht so das NVIDIA noch nie getrickst hat.
Fraggball
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.329
Naja, musste halt mal recherchieren was die tun. Es gibt genügend Quellen abseits des Gaming Mainstreams die dir sehr genau erklären was die rt cores tun.Mickey Cohen schrieb:ich glaube sowieso, diese RT cores sind nur ein marketinggag und unterscheiden sich von normalen streamprozessor-clustern höchstens marginal. die mathematik, die hinter RT steckt ist kein hexenwerk, sondern ebenso lineare algebra wie die mathematik, die für rastergrafikberechnungen zum einsatz kommt.
Hexenwerk sicher nicht, aber eben bestimmte Berechnungen die in der renderpipline mit rtx anfallen massiv beschleunigen.
Gibt gute Artikel und Dokumente darüber wenn es einen interessiert...
Das schöne am RayTracing ist ja, dass es linear mit der Auflösung skaliert und die Komplexität der Szene keine all zu große Rolle spielt. Soll heißen: Wenn erst mal ein Spiel mit 4K RayTracing und 60fps läuft, dann läuft auch in Zukunft so ziemlich jedes Spiel in 4K mit RayTracing.
Mit welcher Auflösung betreiben die RTX Karten denn gerade das Raytracing? Mehr als 320x240 oder so wird es ja kaum sein :?
Wenn das Bild 100% raytraced ist, sollte es relativ egal sein, ob da gerade Quake2 oder Bettelfeld 5 dargestellt wird. Natürlich gibt's da noch diverse Unterschiede in der Komplexität der Models und Texturen, aber das sollte dann nur noch eine ziemlich geringe Auswirkung auf die Performance haben.
In 5-10 Jahren sollten wir dann also genug Rechenleistung haben, um echtes 4K Raytracing zu erhalten
Mit welcher Auflösung betreiben die RTX Karten denn gerade das Raytracing? Mehr als 320x240 oder so wird es ja kaum sein :?
Wenn das Bild 100% raytraced ist, sollte es relativ egal sein, ob da gerade Quake2 oder Bettelfeld 5 dargestellt wird. Natürlich gibt's da noch diverse Unterschiede in der Komplexität der Models und Texturen, aber das sollte dann nur noch eine ziemlich geringe Auswirkung auf die Performance haben.
In 5-10 Jahren sollten wir dann also genug Rechenleistung haben, um echtes 4K Raytracing zu erhalten
yummycandy
Commodore
- Registriert
- März 2005
- Beiträge
- 4.372
Ist eigentlich DLSS auch durch DXR ansprechbar, oder nur durch RTX?
Ergänzung ()
Nein, da gibt es gewaltige Unterschiede, gerade wenn es mehrere Lichtquellen und reflektierende Objekte sind.benneque schrieb:Natürlich gibt's da noch diverse Unterschiede in der Komplexität der Models und Texturen, aber das sollte dann nur noch eine ziemlich geringe Auswirkung auf die Performance haben.
BVZTIII
Lt. Commander
- Registriert
- Dez. 2016
- Beiträge
- 1.878
Faust2011 schrieb:Oh yes, endlich kann die hier viel kolportierte Rohleistung der AMD-Chips mal zeigen, wozu sie imstande ist.
Ruhig Brauner, nirgendwo wird erwähnt, dass das ganze auch in Echtzeit gerendert wurde
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
was verstehst du an dem Wort Realtime = Echtzeit nicht ?BTICronox schrieb:Ruhig Brauner, nirgendwo wird erwähnt, dass das ganze auch in Echtzeit gerendert wurde
https://www.crytek.com/news/crytek-...-time-ray-tracing-demonstration-for-cryengine
Crytek Releases Neon Noir, A Real-Time Ray Tracing Demonstration For CRYENGINE
@ZeroZerp
Die Demo zeigt keine statische Szene sondern eine herumfliegende Drohne , die Reflektionen sind nicht vorberechnet = pre baked
Demonstrating further how ray tracing can deliver a lifelike environment, neon lights are reflected in the puddles below them, street lights flicker on wet surfaces, and windows reflect the scene opposite them accurately.
mich würde interessieren was Crytek unter aktuelle " Mainstream " Graka versteht und ob die RX 56 die unterste Stufe darstellt
Zuletzt bearbeitet:
MK one schrieb:Real-Time
Was man genau darunter versteht ist schon sehr interpretationsbedürftig.
Das kann auch heißen, dass du nicht minutenlang auf einen Frame warten musst wie in CineBench
https://www.computerbase.de/artikel/prozessoren/cinebench-r20-community-benchmarks.66955/
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
kisser schrieb:Was man genau darunter versteht ist schon sehr interpretationsbedürftig.
Das kann auch heißen, dass du nicht minutenlang auf einen Frame warten musst wie in CineBench
https://www.computerbase.de/artikel/prozessoren/cinebench-r20-community-benchmarks.66955/
Dir ist schon aufgefallen das Cinebench ein CPU Benchmark ist ... , der zudem nicht mit Echtzeit wirbt ?
man kann darüber streiten mit wieviel FPS denn wohl die Tech Demo hatte die auf der RX56 gerendert wurde , jedoch bedeutet Echzeit= Realtime hier das eben nichts vorberechnet wurde und das Video auch nicht im Zeitraffer aufgenommen wurde . Da alles flüssig aussieht kann man mit min 24 - 30 FPS rechnen ( oder höher ... )
BVZTIII
Lt. Commander
- Registriert
- Dez. 2016
- Beiträge
- 1.878
MK one schrieb:was verstehst du an dem Wort Realtime = Echtzeit nicht ?
Dass Ich mehr Schlaf brauche?
Wenn in dieser Demo allerdings nicht "gecheatet" wurde frag ich mich ernsthaft, wie schlecht die Entwickler bei Nvidia und DICE sein müssen
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 10.220
- Antworten
- 85
- Aufrufe
- 10.234