Bericht Nvidia GeForce RTX: Battlefield V mit Turing und Raytracing im Video

Der neue AA Modi interessiert mich schon. Nur generell habe ich mit den derzeitigen keine Probleme und auch nicht mit Beleuchtungen.
Für mich ist Raytr. auch nur interessant, wenn es performant auf allen Grakas läuft. Und da wird noch eine Menge Wasser der Wupper runterlaufen, eh das so weit ist.
Weckt mich dann...;):cool_alt:
 
noxon schrieb:
Du gehst davon aus, dass Gamer bei nVidia Priorität hätten. KI-Computing, Automotive und all die anderen professionellen Anwendungen benötigen Tensor Cores. Du als Gamer musst den Chip nehmen, den die anderen auch verwenden. da bekommst du keine Extrawurst.

Solche Statements würd ich entsprechend recherchieren und durchdenken.

Erstens mal, der Gaming-Umsatz übersteigt die professionellen Anwendungen bei weitem. Ich zitiere aus https://www.computerbase.de/2018-02/quartalszahlen-nvidia-q1-2018/:

Gaming $1.739
Professional Visualization $254
Datacenter $606
Automotive $132
OEM and IP $180


Gesamt $2.911


Zweitens hat Nvidia ausreichend gezeigt, dass sie im Chipdesign inzwischen sehr flexibel sind - innerhalb kurzer Zeit vom traditionellen Chip mit Pascal zu Tensor Cores in Volta zu Tensor & RT in Turing.
RTX bzw GTX 2060 wird zudem, wie es aussieht, ein traditioneller Chip ohne Tensor & RT Cores werden.
Es wäre technisch überhaupt kein Problem, weiterhin simultan zu den Quadros etc "traditionelle" GPUs zu produzieren. Wirtschaftlich wahrscheinlich ein gewisser Mehraufwand, der sich aber wahrscheinlich bald via höheren Verkaufszahlen hereinspielen lassen würde.
 
  • Gefällt mir
Reaktionen: swael, noxon und Baal Netbeck

Bischen weiterführende Infos.

Der Performancesprung der jeweiligen 1000er zu 2000er Modelle wird mit 35-50% eingeschätzt. Da vermutlich von den FE-Modellen die Rede ist, klingt das realistisch.

Takt bzw OC Potential wird wohl doch ein bischen höher/grösser ausfallen als bei Pascal. Es wurde als Beispiel genannt, dass eine FE auf einer Pressevorführung auf 2,13 GHz OCd wurde.

NVLink ist SLI/AFR-kompatibel, alle bisherigen Spiele/Profile werden wie gewohnt laufen.

Etc etc yada yada wir sind toll und machen alles richtig und kauft unsere Produkte.
 
  • Gefällt mir
Reaktionen: noxon
Wie dem auch sei. Selbst wenn es möglich ist, dann macht es wie gesagt wenig Sinn auf hardwarebeschleunigte Neuronale Netze im Gaming-Bereich zu verzichten. Die sind praktisch wie dafür gemacht auch wenn man momentan davon wahrscheinlich noch nicht viel davon Gebrauch machen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stoneeh
yurij schrieb:
In dem Battlefield Video sah ich aber keine Mehrfachreflexionen.
ich auch nicht.
das Video war rumgehampel und ängstliches gecampe. haufenweise muni verblasen und 0 Technik check.
wäre viel besser gewesen, wenn man mal die Neuerung getestet hätte - sprich mal vor eine pfütze oder scheibe stellen und die Reflexionen direkt demonstrieren.
vielleicht gabs da ja auch keine ? ^^

ich vermute mal das es noch ein paar jahre dauern wird eh die (spiele)Programmierer wissen wie sie mit der Technik umgehen müssen, ehe nvda mit den treibern klar kommt und ehe die Technik mehr in heimische rechner einzieht. bis dahin gibt's dann auch genug raytracing cores in den gpus
bisher ist es eher eine kleine demo, mehr Hype als alles andere
 
Mracpad schrieb:
Bei den aufgerufen Preisen ist die potentielle Käuferschicht mit relativ hoher Wahrscheinlichkeit auch mit entsprechend hochwertigen und damit meist auch hochauflösenden Bildschirmen ausgestattet.

Exakt. Und haben somit auch gezeigt, dass sie bereit sind, sehr viel Geld für Hardware auszugeben. Mir ist schon klar, dass die jez nicht auf FullHD zurück wechseln wollen, aber die werden am Ende des Tages den Preis auch für die Mehrleistung in 4K zahlen.
 
FU_long schrieb:
Exakt. Und haben somit auch gezeigt, dass sie bereit sind, sehr viel Geld für Hardware auszugeben. Mir ist schon klar, dass die jez nicht auf FullHD zurück wechseln wollen, aber die werden am Ende des Tages den Preis auch für die Mehrleistung in 4K zahlen.

Nö- Ich betreibe die 1080Ti auf Full HD mittels Beamer als primäre Anzeige und mit meiner Vive Pro.
Kenne einige TI- User, die ein ähnliches Setup haben. Die wenigsten aber 4K Monitore.

Zudem- Die ganze 4K Diskussion läuft hier völlig an der Realtität vorbei. Die Spielehersteller bestimmen nämlich, für welche Auflösungen und Bildwiederholraten deren Software gut sein wird.

Es gibt einen Target- Render, den die Programmierer in Sachen Grafikqualität unter den gegebenen technischen Möglichkeiten zu erreichen suchen.
Derzeit werden bei den Herstellern maximal 4K bei 30Hz oder 1080P in 60Hz angepeilt, wenn es sich um AAA Entwicklungen handelt, vereinzelt nun auch 60Hz bei 4K.

Würde also die Hardware in der Entwicklungsphase unausgelastet sein, was diese Ziele anbelangt, wird man durch zusätzliche Effekte, höhere Sichtweiten etc. versuchen dem Target- Render näherzukommen, bevor man die höhere Bildwiederholrate in von 99% der User nicht genutzten FPS Zahlen "verpuffen" lässt.

Zudem - Man stößt schon lange an die Grenzen der Rasterisierung (z.B. bei dynamischen Schatten von vielen Lichtquellen). Da helfen eben auch keine Tricks mehr, weil die extrem schnell die Drawcalllast soweit hochschrauben, dass das Spiel zur Ruckelorgie wird.
So gehts mit vielen Effekten, die nicht eingesetzt werden, weil sie in Sachen Performance mittels Rasterisierung zu viele Rechenzyklen schlucken.
Durch den Raytracing- Ansatz kann man diese Flaschenhälse auf sinnvollem und nachhaltigem, vor allem physikalisch korrektem Wege öffnen, OHNE diese Leistungseinbußen.

Ich habe hier zunehmend das Gefühl, dass hier das Prinzip des Raytracing nicht verstanden wird, dessen Leistung von den zu berechnenden Pixeln abhängt und weniger von der Anzahl der Objekte, an Schatten, dynamischen Lichtern und Reflexionen (eben genau die Punkte, die jede Rasterisierung derzeit schnellstens an die Grenzen treibt und was per Design sich auch durch Tricks nicht ändern lässt).

Sowas ist mit Rasterisierung schlichtweg nicht in annähernd spielbarer Performance möglich:

Grüße
Zero
 
Zuletzt bearbeitet:
Turrican101 schrieb:
Schon komisch. Früher hat man über neue Effekte in Spielen gejubelt, später hat man gemeckert, dass neue Effekte nicht zu 100% perfekt realistisch sind und heute sind neue Effekte total unnötig und was ganz ganz schlimmes... :freak:

Kann passieren nach 10 Jahren DX11, alles andere war ja "müll".:lol:
Mich freut Turing WEIT mehr als Pascal, die Presie waren schon mit GP104 der letzte witz, imho weit mehr als jetzt TU104....
Da ich eh fast nur mit 60FPs spiele (4k auf 27"...zum glück hab ich den kleinen genommen) ist mir das ganze recht.
 
Zuletzt bearbeitet von einem Moderator:
Zum Glück scheint Turing ja besser mit DX12 umgehen zu können und wir können uns hoffentlich drauf freuen dass nun auch die von Nvidia gesponsorte Entwicklersparte sich zu DX12/Vulkan hinabneigt. Die dort brachliegenden Ressourcen könnten ja unterstützend auf die raytracing Effekte wirken. Bis jetzt war es ja nicht nötig.
 
Och Leute, hört doch auf euch gegenseitig die Köpfe einzuschlagen. Jeder hat seine Meinung zum Thema RT&Co. und weder der eine noch der andere hat Recht/Unrecht.
Bei dem Video sieht man, was alles möglich ist und was noch kommt (wer es sieht). Man sieht aber auch, dass das was möglich ist, noch nicht mit den derzeitigen RTX-GPUs so realisierbar ist, wie nVidia/Rest es gerne hätte. Das wird noch etwas dauern, aber das ist normal, Rom wurde auch nicht an einem Tag gebaut.
Für jeden, der nicht bereit ist (mich eingeschlossen), so viel für die RTX-Karten auszugeben gibt es einen, dem die Karte es Wert ist.
Viel bedeutender ist, dass AMD endlich was neues und leistungsstarkes präsentiert und Intel mal den GPU-Markt ordentlich aufmischt. Damit wäre ALLEN ein Gefallen getan.
 
-Spectre- schrieb:
Bei dem Video sieht man, was alles möglich ist und was noch kommt (wer es sieht). Man sieht aber auch, dass das was möglich ist, noch nicht mit den derzeitigen RTX-GPUs so realisierbar ist, wie nVidia/Rest es gerne hätte.
Genau das sieht man eben nur begrenzt. Man sieht schnell zusammengeklöppelte Alpha- Demos und keiner weiss, wie sich eine saubere Implementierung in der Performance niederschlägt.

Somit kann man derzeit diesbezüglich eigentlich noch keine Bewertung bezüglich der Performance in irgendeiner Art und Weise abgeben. Theoretisch sollte sauber implementiertes Raytracing die Rastertechnik in deren Gebieten, bei denen es Schwächen gibt unterstützen und DEUTLICH beschleunigen können. Bei besserer Grafikqualität.

Grüße
Zero
 
ZeroZerp schrieb:
Nö- Ich betreibe die 1080Ti auf Full HD mittels Beamer als primäre Anzeige und mit meiner Vive Pro.
Kenne einige TI- User, die ein ähnliches Setup haben. Die wenigsten aber 4K Monitore.

Zudem- Die ganze 4K Diskussion läuft hier völlig an der Realtität vorbei. Die Spielehersteller bestimmen nämlich, für welche Auflösungen und Bildwiederholraten deren Software gut sein wird.

Es gibt einen Target- Render, den die Programmierer in Sachen Grafikqualität unter den gegebenen technischen Möglichkeiten zu erreichen suchen.
Derzeit werden bei den Herstellern maximal 4K bei 30Hz oder 1080P in 60Hz angepeilt, wenn es sich um AAA Entwicklungen handelt, vereinzelt nun auch 60Hz bei 4K.

Würde also die Hardware in der Entwicklungsphase unausgelastet sein, was diese Ziele anbelangt, wird man durch zusätzliche Effekte, höhere Sichtweiten etc. versuchen dem Target- Render näherzukommen, bevor man die höhere Bildwiederholrate in von 99% der User nicht genutzten FPS Zahlen "verpuffen" lässt.

Zudem - Man stößt schon lange an die Grenzen der Rasterisierung (z.B. bei dynamischen Schatten von vielen Lichtquellen). Da helfen eben auch keine Tricks mehr, weil die extrem schnell die Drawcalllast soweit hochschrauben, dass das Spiel zur Ruckelorgie wird.
So gehts mit vielen Effekten, die nicht eingesetzt werden, weil sie in Sachen Performance mittels Rasterisierung zu viele Rechenzyklen schlucken.
Durch den Raytracing- Ansatz kann man diese Flaschenhälse auf sinnvollem und nachhaltigem, vor allem physikalisch korrektem Wege öffnen, OHNE diese Leistungseinbußen.

Ich habe hier zunehmend das Gefühl, dass hier das Prinzip des Raytracing nicht verstanden wird, dessen Leistung von den zu berechnenden Pixeln abhängt und weniger von der Anzahl der Objekte, an Schatten, dynamischen Lichtern und Reflexionen (eben genau die Punkte, die jede Rasterisierung derzeit schnellstens an die Grenzen treibt und was per Design sich auch durch Tricks nicht ändern lässt).

Sowas ist mit Rasterisierung schlichtweg nicht in annähernd spielbarer Performance möglich:

Grüße
Zero

Da bin ich absolut deiner Meinung! Aber grade deshalb finde ich die RT Leistung der neuen Karten schon mehr als gut! Irgendwann müssen sie den Einstieg machen. Dass der im Verhältnis zur Vorgängergeneration teurer ist, verwundert mich nicht. Zusätzlich hat man ja trotzdem eine signifikante Mehrleistung bei den FPS in 4K (eine Bestätigung fehlt da es noch keine unabhängigen Tests gibt). Dass dies nicht mit einer Leistungssteigerung wie früher bei FullHD gleichzusetzen ist, geht aus deinem Beitrag ja hervor. Und jemand, den Raytracing absolut nicht interessiert und in FullHD oder WQHD spielt wird die Karte ja sowieso nicht kaufen. Auch das wird in die Preisgestaltung eingeflossen sein. Einen Absatz wie bei der GTX1060/70/80 wird Nvidia schlichtweg nicht erwarten.
 
Wolfgang schrieb:
...So lief das Spiel auch auf einer GeForce RTX 2080 Ti, dem Flaggschiff, nicht mit mehr als 60 Bilder in der Sekunde – in 1.920 × 1.080 wohlgemerkt. ..
Raytraycing, die wichtigste und beste Neuerung, damit Spiele spannender werden, weil neuerdings Pützen anders aussehen.

Ich lach mich weg.....
 
  • Gefällt mir
Reaktionen: exuser0815
Rotkaeppchen schrieb:
Raytraycing, die wichtigste und beste Neuerung, damit Spiele spannender werden, weil neuerdings Pützen anders aussehen.

Ich lach mich weg.....

[X] Du weisst nicht wie Rasterengines funktionieren und was deren Grenzen sind
[X] Du weisst nicht, was Raytracing ist und wie die neuen Co- Prozessoren rastergestützte Engines beschleunigen werden

Die neue Technik auf "Pfützen" zu beschränken, wie es hier einige User süffisant vortragen, zeugt von einer tiefen Abneigung gegenüber wegweisender Technik, die sich außerhalb des eigenen Dunstkreises (auch finanziell) entwickelt, mit der großen Befürchtung gepaart, dass die eigen Hardware dadurch abgewertet wird und man "vorne nicht mehr dabei sein kann".

Spätestens dann, wenn sich einer die Mühe macht eine vorhandene Engine (z.B. von Kingdom Come) so umzurüsten, dass die Shader und Rastereinheiten durch die Co- Prozessoren unterstützt werden und dann plötzlich Geschwindigkeitssteigerungen von über 100% entstehen, begreift der eine oder andere vielleicht, wozu die neue Technologie fähig ist.

Vorher braucht man mit der Schwärmerei nicht anfangen, denn 08/15 Meckerfritze ist nicht bereit, sich technisch mit dem Thema auseinanderzusetzen (wird auch eindrucksvoll in einem Technikforum wie diesen bewiesen).

Mit den halbgaren Spieleimplementierungen und der überhasteten Präsentation hat nVidia in meinen Augen marketingtechnisch einen RIESEN Fehler gemacht. Denn nur diese fehlerhaften und nicht performanten Alpha- Demos bleiben zu Recht im Gedächtnis der Technikfeinde hängen.

Wäre man von der oben genannten Seite hergegangen und hätte eine herkömmliche Engine gezeigt, die durch Umlagerung der GI, AO, Verschattung und Antialias plötzlich 250% schneller läuft, wär da ein Schuh draus geworden und man hätte begriffen, was die neuen Rechenwerke zu leisten im Stande sind, ohne die Shaderzahl in unwirtschaftliche und immer ineffizientere Zahlen schrauben zu müssen.

Just my 2 cents
Zero
 
  • Gefällt mir
Reaktionen: ColonelP4nic, t3chn0, kisser und 3 andere
ZeroZerp schrieb:
Ich habe hier zunehmend das Gefühl, dass hier das Prinzip des Raytracing nicht verstanden wird, dessen Leistung von den zu berechnenden Pixeln abhängt und weniger von der Anzahl der Objekte, an Schatten, dynamischen Lichtern und Reflexionen (eben genau die Punkte, die jede Rasterisierung derzeit schnellstens an die Grenzen treibt und was per Design sich auch durch Tricks nicht ändern lässt).
Raytracing hat sicherlich Vorteile, um so komplexer die Szene wird und um so mehr runde Oberflächen verwendet werden.
Und natürlich läuft es linear mit den berechneten Pixeln.
Der große Nachteil, den du ignorierst, sind aber die Sekundärstrahlen.
Richtiges RT, das die Beleuchtugsstärke berechnet, schickt nach dem Auftreffen auf eine Oberfläche Strahlen an alle Lichtquellen und je nachdem ob der Weg zu der Lichtquelle verdeckt ist oder nicht, wird die Oberfläche heller oder eben nicht.

Mit einer globalen Lichquelle wäre das ein Sekundärstrahl...also insgesamt 2 Rays.
Hat die Szene noch 20 dynamische Lichquellen, werden aus den 2 Rays, 22 Rays. .....für jeden Pixel, der mit RT berechnet werden soll.

Mit Rasterisierung, ist es natürlich aufwendig, für jede Lichtquelle ihre Beleuchtungswirkung auf die Umgebung zu berechnen, aber das wird da nur einmal(je Frame) gemacht und kann dann für hunderte/tausende Pixel, die davon betroffen sind genutzt werden. Geschickt programmiert ist hier viel Spielraum für Optimierungen.

Man sieht ja bei Tomb Raider wie sowas im Moment aussieht. Mit RT Schatten lief die spielbare Demo für die Presse auf 1080p zwischen 35-50 FPS...mal mehr mal weniger.
Und da gab es nur eine globale Beleuchtung!
Die von Nvidia gezeigte Szene mit vielen Lichtquellen war sicherlich hübsch, aber da hat ja sogar die Vorführung geruckelt(also eher 20 FPS) und es war auch nur eine handvoll Lichter vorhanden und das in einem kleinen Innenraum ohne Weitsicht.

Und das ist ja nur ein kleiner Teil von RT.
Korrekte Beleuchtung ist das eine. Aber Reflexionen sind das andere.
Da wird mit RT an jeder reflektierenden Oberfläche ein weiterer Ray losgeschickt. An z.B. Glasoberflächen, ergibt sich ein Ray der die Oberfläche trifft, ein Ray der reflektiert wird und ein Ray der gebrochen wird. sind schonmal 3 Rays, und was ist wenn diese Rays auf weitere reflektierende Oberflächen treffen?
Da kann man das Spiel für echtes RT beliebig weit treiben.

Es muss also auch da Grenzen geben und Kompromisse müssen gemacht werden.
Bei Tomb Raider wird mit RT nur die Schatten gemacht, bei BFV nur die Reflexionen.
Und in BFV werden auch nur Einfachreflexionen genutzt...der Ray der die Pfütze trifft nd dann das Fenster, wird keine Reflexion im Fenster sehen.

Der Ray der eine transparente Oberfläche trifft, wird eine Reflexion machen, aber es gibt keine "gebrochenen" Rays, der erste Ray wird einfach noch weiter verfolgt. Genauso bei auftreffen auf Feuer etc.
Sicherlich kleine Kompromisse, die man verschmerzen kann.

Aber Reflexionen haben auch ein Reichweitenlimit. Die Brücke die etwas weiter weg ist, hat deshalb keinerlei Reflexion auf dem Wasser....das sieht echt mies aus.
Die Objekte in den Reflexionen haben ein anderes LOD usw.

Was sich noch zeigen wird, ist der Einfluss von RT auf die CPU und Speicherbelastung.
Denn all die Objekte, die nicht im Sichtbereich des Spielers sind, werden mit Rasterisierung ignoriert. Mit RT müssen die im Speicher liegen und die CPU muss viel mehr Drawcalls abarbeiten(alle Objekte in der Umgebung und nicht nur das was vorne ist).

Was ich sagen möchte.....wir sind noch weit davon entfernt, bis echtes RT in Echtzeit läuft. Das was wir bis jetzt gesehen haben ist alles ganz nett, aber wir werden erstmal nur bestimmte Teilaspekte von RT sehen, und auch da mit vielen Kompromissen.
"it just works" ist eine Lüge.
Rasterisierung macht viele Tricks und "Fehler", aber es sieht trotzdem gut aus. In den von Nvidia vorbereiteten Demos wird der Unterschied natürlich absichtlich extrem gemacht.
Da gibt es dann mit Rasterisierung einfach mal keinerlei Schatten von dynamischen Lichquellen....was aber technisch möglich wäre.

Ich will die Leistung von Nvidia nicht kleinreden....das ist alles ziemlich cool, aber es werden viele Probleme unter Bling Bling und großen Lobeshymnen verborgen.
Bis wir RT mit Reflexionen+Licht/Schatten+Lichtbrechung+alles in mehreren Stufen in Echtzeit sehen können, werden noch viele Jahre ins Land gehen.
Das es jetzt schon irgendwie geht haben wir nur der Kombination mit Rasterisierung zu verdanken.

ZeroZerp schrieb:
Wäre man von der oben genannten Seite hergegangen und hätte eine herkömmliche Engine gezeigt, die durch Umlagerung der GI, AO, Verschattung und Antialias plötzlich 250% schneller läuft, wär da ein Schuh draus geworden und man hätte begriffen, was die neuen Rechenwerke zu leisten im Stande sind, ohne die Shaderzahl in unwirtschaftliche und immer ineffizientere Zahlen schrauben zu müssen.

Du meinst die Zahlen, die sie gezeigt haben, wenn man RT auf einer GTX statt einer RTX laufen lässt?
Hat Nvidia doch gemacht....Juhu, die 2070 ist schneller als eine Titan.

Es hat ja auch niemand bestritten, das mit den RT cores viel Rechenleistung dazu gekommen ist.
Das selbst die 2080 Ti aber nicht genug RT Leistung hat um einen kleinen Teilbereich der RT Effekte in 1080p mit mehr als 60FPS zu rendern ist das, was viele enttäuscht.

Ein fairer Vergleich ist nicht möglich, aber theoretisch denkbar.
Was wäre wenn Nvidia die Chipfläche für shader statt RT cores genutzt hätte und die Reflexionen oder Schatten mit klassische Technik in ähnlicher Qualität realisiert hätte.
Wie wäre dann der Unterschied?
Vermutlich könnte man die Qualität der Refexionen nicht erreichen, aber dafür wären die neuen Karten in allen Spielen besser und nicht nur in den paar RT Titeln, die sie nichmal in brauchbaren FPS schaffen.

Ich sehe da bei RT eben auch kaum Möglichkeiten für Optimierungen. Es ist ja keine neue Technik...RT ist uralt und wenn "mehr Leistung" durch noch schlechtere LOD Objekte, noch weniger Sichtweite und noch weniger RT Auflösung bei mehr Hochscalieren, erreicht wird, kommen wir schnell in Bereiche, wo es gar nicht mehr so geil aussieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: russianinvasion, Rock Lee, Rotkaeppchen und 2 andere
Wäre man von der oben genannten Seite hergegangen und hätte eine herkömmliche Engine gezeigt, die durch Umlagerung der GI, AO, Verschattung und Antialias plötzlich 250% schneller läuft, wär da ein Schuh draus geworden und man hätte begriffen, was die neuen Rechenwerke zu leisten im Stande sind, ohne die Shaderzahl in unwirtschaftliche und immer ineffizientere Zahlen schrauben zu müssen.

Wenn nVidia dies so hätte machen können, hätten sie es gemacht. Aber so funktoniert das Raytracing eben nicht ! Noch nichtmal das Hybrid-RT. Ganz zu schweigen das Hybrid-RT eben manchmal auch gar nicht so viel besser aussieht wie bisherige herkömmlichen Methoden.
Siehe dazu den oben verlinkten Beyond3D-Artikel von vor 10 Jahren.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und stoneeh
ZeroZerp schrieb:
[X] Du weisst nicht wie Rasterengines funktionieren
Wir haben Raytraycing schon 1990 auf 386ern eingesetzt. Da dauerte die Berechnung eines Bildes mit drei spiegelnden Kugel in 640 x 480 einige Minuten. Technisch ist die heutige Leistung interessant.

Das "Die Pfützen" arg sarkastisch gemeint waren, sollte jeder bemerkt habe. Was langfristig aus der Technik wird, werden wir sehen. Es gibt ganz andere Bereiche als schnöde Spiele, in denen sie wichtig wird. Meine Hauptkritik liegt im Fokus auf optischem Firlefanz, der wenig an Spieltiefe und intellektueller Schönheit eines Spieles verändert.

Aber ich lasse mich gerne überraschen. Technikaffin zu sein, ist nicht gleichbedeutend damit, jeden neuen Humbug mitzumachen. Ich entscheide in der Regel Jahre nach der Veröffentlichung, ob eine neue Technik für mich Vorteile bringt, oder nur Zeit und Geld verschwendet.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Baal Netbeck, stoneeh und knoxxi
Nachtrag: Danke Baal_Netbeck für diese Zusammenfassung. Eines unterschlägt man aber auch oft. Gerade bei DIFFUSEM Licht ist Raytracing sehr erheblich aufwendig !
Wenn durch Lichtstreuung eben pro Pixel aus einem Ray nun viele werden MÜSSEN damit das echt wirkt.

Wenn man eben nur genau 1 Ray / Pixel macht dann kann man damit eben auch nur einen "Spiegel" gut darstellen. Genau das was man imho zum Teil bei den Demos sieht - völlig überrealistisch "scharfe" Spiegelungen an ultra sauberen und glatten Oberflächen. Eben WEIL man das Problem mit indirekten und diffusen Lichtquellen mit Raytracing genauso schlecht erschlagen kann wie man rasterizing - außer mit brachialer Raytracing power (und wir reden hier von x100 oder so mehr als das was wir jetzt sehen PRO Pixel)
 
Baal Netbeck schrieb:
Mit einer globalen Lichquelle wäre das ein Sekundärstrahl...also insgesamt 2 Rays.
Hat die Szene noch 20 dynamische Lichquellen, werden aus den 2 Rays, 22 Rays. .....für jeden Pixel, der mit RT berechnet werden soll.

Raytracing funktioniert so, dass quasi über reverse Engineering die Rays rückwärts vom Viewport auf die Szene geschossen werden, bis dieser Lichtstrahl auf eine Oberfläche auftrifft, bzw. der Strahl in der Leuchtkraft unter einen Schwellwert gefallen ist, der für das Bestimmen der Farbe des endgültigen Pixels keinen Einfluss mehr hat.

Da es keine 100% spiegelnden Oberflächen gibt und auch sonst die Materialien im realen Leben eher diffus sind, ist da ganz schnell schluss mit der Hin- und Herspiegelei.

Der Pixel erhält dann die Farbgebung aller Materialien bzw. Oberflächen, die er bis dahin durchdringen konnte.

Der Witz an Raytracing ist, dass es den Ray eben überhaupt nicht interessiert ob 10 oder 1000 Dynamische Lichter im Bild sind, weil er relativ schnell seine endgültige Farbinformation gewonnen hat, die sich zusätzlich noch in der Intensität unterscheiden können.

Schau Dir doch mal die Schatten in Rasterengines an und wie die genereiert werden. Du muss für jede dynamische Lichtquelle eine Shadowmap erstellen bzw. versuchst durch Tricks mit schnellem Falloff der Lichtquelle quasi das ganze in eine deferred Tiling runterzuschummeln um den Anschein zu erwecken, dass vielleicht sagen wir mal 10 Lichtquellen aktiv sind.
Diese können dann aber wiederum nicht miteinander interagieren. Wenn Du Dich mit Deinem Charakter ziwschen zwei dieser Lichter stellst, dann werfen die guten Engines zwei Schatten von Deinem Charakter.
Dann ist aber schon schluss. Da darf nix mehr global dazukommen, geschweige denn eine andere Lichtquelle wie eine Fackel.

Die Schatten sind zudem immer gleich scharf und subtrahieren bzw. addieren sich nicht. Transparente Objekte oder Schattenabstufungen sind schlichtweg sowieso zu aufwendig.

Das Thema ist komplex und spannend. Auch ich weiss nicht, was diese 10 Gigarays letztenendes in der Praxis ausrichten können. Im Zusammenspiel mit den Tensor- Cores geht da aber sicher was.

Grüße
Zero
Ergänzung ()

Baal Netbeck schrieb:
Das selbst die 2080 Ti aber nicht genug RT Leistung hat um einen kleinen Teilbereich der RT Effekte in 1080p mit mehr als 60FPS zu rendern ist das, was viele enttäuscht.
Dice sagt da aber z.B. was anderes. Die gehen hin und sagen, dass sie überrascht waren, dass das mit dieser Mickey- Mouse implementierung in deren Engine überhaupt schon so gut läuft und dass da erheblich Spielraum nach oben ist.

Es gibt schlichtweg derzeit überhaut keine Information, wie leistungsfähig diese Technik ist und was sie, wenn man gelernt hat damit umzugehen an Mehrgewinn bringt bzw. ob es nicht vielleicht sogar der einzige Weg ist, um künftig mehr Leistung aus den Grafikchips zaubern zu können.

Die Effizienz der Shader geht nämlich mit gesteigerter Anzahl auch allmählich zurück. Es funktioniert eben nicht so einfach, ein par Shader, ROPs und TMUs zusammenzuwürfeln, in der Anzahl und dem Takt zu steigern und schon kommen magische Geschwindigkeitschübe dabei raus.

Auch da gelangt man an Grenzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0, kisser und xexex
Zurück
Oben