• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Die Strahlen sind los: Was denkt die Community über Raytracing in Spielen?

Daggy820 schrieb:
Ganz einfach.

RT ist ein nice to have, aber kein Must have.

Ich bevorzuge es lieber andere Sachen zu Maximieren und dafür auf den RT Kram zu verzichten. Wenn es gut implementiert ist und kaum Leistung frisst mach ich es mal an, ansonsten interessiert es mich nicht besonders.
Was kann man denn noch maximieren?

Raster und klassisches Rendern ist doch gelöst, wir diskutieren über 200+ und 300+ HZ Monitore.

Die Top GPUs rennen ins CPU Limit auf einer Uraltauflösungen wie Full HD.
Jede Furz GPU kann Full HD/1080p.
FUll HD ist Technikstand ausgereizt 2010-2012 oder so.

2013 und 2014 begannen bereits 1440p den Weg in den Mainstream.
4K ist seit locker 4 Jahren keine irrelvante 1% Nische mehr sondern Standard in den Tests hier auf Computerbase.

Was ist denn Ende 2022 da noch an anderen Sachen, mit denen man die Grafik aufmotzt?

Die weitere Grafikevolution kommt über Raytracing und Pathtracing. Raster gfx Features sind quasi "durch" und nichts, was die next gen GPUs noch wirklich belastet, wenn man nicht MSAA oder sowas achtfach skaliert.

Schönere Grafik gibts nicht mehr mit den Raster Tools der letzten 20 Jahre. Der nächste Schritt wird bereits gegangen, "Echtzeit"-Berechnungen und Realismus ftw.
 
  • Gefällt mir
Reaktionen: one2know und Daddi89
bad_sign schrieb:
RT ja aber ich schwenke immer weiter zu Indies, Aufbausims (also CPU limitiert) und CSGO :)
Stalker 2 wird es für mich dann entscheiden
Metro ist durch (sehr durchwachsener Shooter) und mehr RT Games habe ich nicht (und auch nicht geplant bis Stalker)

Kann ich nur empfehle, wenn du es nicht schon kennst!
 
  • Gefällt mir
Reaktionen: ich_heisse_Shag
Zuerst ist es logischerweise interessant. Aber mit der Zeit gewöhnt man sich dran und dann fängt man an zu überlegen das lieber auszumachen. Weil man irgendwann dazu neigt das zweckmäßigere zu bevorzugen. Ohne RT hat man einfach mehr Leistung. Und weniger Stromverbrauch, was bei den Preisen zur Zeit von Vorteil ist. Ich stell mir einfach vor, hier könnte jetzt eine RT Spiegelung sein.

Wobei das in Cyberpunk schon was hermacht..
 
Eines Tages wird Raytracing das Rasterising vollständig ablösen.

 
  • Gefällt mir
Reaktionen: one2know
Also das erste mal Raytracing erlebt in Battlefield auf der Series X, da wars schon nice to have, Cyberpunk gefällts mir richtig gut, Metro auch. Leider war WatchDogs echt mMn 'nen richtiger Reinfall...
Ok die Reflektionen an der Häuserfront waren/sind hübsch, aber iwie kam da nicht wirklich mehr, bis auf 'nen paar "Spidey Tunnel Aktionen"... lag aber glaub ich mehr am Spiel als an RT selbst.
Wirklich Interessant finde ich die Screens und Videos von Forza und beim Flight Simulator hats einen im ersten Moment eig voll weg gehauen, wie schön das "Licht" usw ist.
Dazu muss ich sagen, das meine alte Mühle von Rechner kein Raytracing kann und ich nur die Xbox habe um darauf "zu testen" es an oder auszumachen, meistens ja per FPS oder Quality Mode, und da bin ich doch mehr im QM mit RT etc. als bei FPS. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know
yurij schrieb:
Eines Tages wird Raytracing das Rasterising vollständig ablösen.
Scheint nach kurzer Recherche ne nV-Tech-Demo aus 2018 als Turing-Promo, oder? Angeblich gerendert auf ner Quadro RTX 6000, Tu-102. Was daraus geworden und wie der Stand heute ist, wissen wir ja inzwischen. Schönes Beispiel also, wie ernst Marketing zu nehmen ist. Nicht.
 
mae1cum77 schrieb:
Durchaus. Interessant wäre eine spielbare Demo. Tippe daß selbst die 4090 da nichtmal auf 1 FPS kommt :).

Du meinst das Video?

Das Video ist 4 Jahre alt und lief damals auf der in der Videobeschreibung verwendeten Quadro schon in Echtzeit.

Ne aktuelle Nvidia GPU wie die 4090 ist sehr viel schneller…

Was fehlt sind halt die Spiele, die voll auf RT setzen. Diese Gen wird das auch nichts werden, da die Konsolen das nur beschränkt mitmachen…
 
  • Gefällt mir
Reaktionen: MrHeisenberg, DevPandi und s1ave77
Laphonso schrieb:
Keine Ahnung woher Du Dein Märchen hast. Ist unklug, anderen "Quatsch" vorzuwerfen, wenn man selbst nicht informiert ist ;)
Naja der Bericht auf den Du dich hier beziehst gibt ja keine harten Fakten wieder sondern Kommentare von Lisa Su und David Wang. Ich weiß ich habe damals hier in einer News oder in den Kommentaren einer News einen Link gesehen der zeigte kurz nach dem Nvidia angekündigt hatte RT zu bringen das auch AMD da schon daran arbeitet. Leider finde ich den gerade nicht.
Und wir wissen beide das die Firmen selten erzählen seit wann sie an etwas Arbeiten/Forschen.
Nur weil Nvidia zwei Jahre vorher schon RT gelauncht hat heißt das ja nicht das AMD vorher nicht daran gearbeitet hat.
Das war ja auch noch die Zeit als bei AMD RTG noch vieles schief lief: GCN Fury, HBM mit VEGA, Raja Koduri.
Wer weiß ob man nicht zu Gunsten der Irrfahrt mit HBM/VEGA RT hinten angestellt hat.
Es ist ja auch nicht immer wichtig First to Market zu sein. Die ersten zwei Jahre gab es nur wenig RT Spiele und dann auch noch oft in Shootern statt in Singleplayer Games.
Jetzt ist AMD mit der zweiten Generation dabei. Wenn auch nicht so gut wie Nvidia. Aber ich hoffe das sie mit RDNA4 dann die Architektur soweit umbauen das man gleich auf ist.
Aber mal sehen wie RDNA3 wirklich abschneiden wird. Die richtung ist grob klar aber es fehlen mir noch die Tests bei CB um wirklich einen Vergleich zu haben statt sich selber was zurecht zu schätzen.
 
Illithide schrieb:
Macht den Eindruck, als sähest Du den Wald vor lauter Bäumen nicht mehr oder willst ihn vielleicht auch nicht sehen. Z.Bsp.: Seit UT3 also aus Deiner Sicht keine grafische Entwicklung mehr? - kann man eigentlich nicht mehr diskutieren, das kauft jetzt wirklich niemand.
Ach, wie ich es liebe, wenn man die Diskussion statt mit einem sachlichen Angriff, direkt mit einem persönlichen Angriff eröffnet und man damit allen zeigt, dass man keine wirklich inhaltlichen Argumente hat. Verstärkt wird es, wenn man dann mit "Fakt ist" kommt, ohne dass man wirklich Fakten liefert, sondern nur billige Polemik.

Ich habe nicht geschrieben, dass es keine grafische Entwicklung mehr gab, sondern dass die grafische Entwicklung seit dem quasi stagniert und sich die Verbesserungen darauf beschränken, dass die damals eingeführten Effekte heute akkurater berechnet werden und/oder dass die Anzahl an dynamischen Lichtquellen sich erhöhte und diese besser miteinander interagieren. Man kann auch noch SSAO anführen, dass mit HBAO und Co auch besser aussieht, sowie das die dynamischen Schatten heute vielfältiger berechnet werden können usw.

Natürlich sieht ein Cyberpunk 2077 heute besser aus als ein Crysis, genauso sah vor knapp etwas mehr 10 Jahren ein Battlefield 3 und später 4 auch besser aus. Das liegt aber daran, dass sich in der Zeit evolutionäre Schritte bei den verschiedenen Effekten ergeben haben und diese akkurater wurden und auch mehr dynamische Lichtquellen und Co sich auf die Bilder auswirkten. Die Texturen haben sich in den Jahren von x < 1K auf heute bis zu 8K verbessert. Dazu hat Polygon-Count pro Modell massiv zu genommen. Heutige Engines können teilweise deutlich mehr dynamische Lichtquellen berechnen zur gleichen Zeit, SSAO hat sich seit dem weiter verbessert. Polygone haben in bestimmten Bereichen Einzug gehalten, die zu Crysis-Zeiten teilweise noch über Texturen gelöst wurden. Auch haben sich die Animationen - Pflanzen, Umwelt, Tiere, Protagonisten - seit damals weiter entwickelt.

Das ändert aber eben nichts daran, dass die Wurzeln der heutigen Beleuchtung- und Schattenberechnung sich in der UnrealEngine 3.0 sowie eben CryEngine 2.0 finden und damit in den Spielen Crysis und UnrealTournament 3. Es hatte einen Grund, warum Crysis sehr lange als der Maßstab für Grafik galt, Spiele bis in die Mitte des letzten Jahrzehnts immer wieder mit Crysis verglichen wurden.

Und warum das ganze so ist: https://en.wikipedia.org/wiki/High-Level_Shader_Language#Pixel_shader_comparison

ShaderModel 3.0 (DirectX9.0c) war es, die viele Limitierungen der Shader damals gelöst hat und die bestehenden Limits massiv erweiterte sowie wichtige Funktionen mitbrachten, die man für viele moderne Effekte gebraucht hat. Alle nachfolgenden ShaderModels haben damit verglichen sehr wenig gebracht und haben primär nur bei 3.0 noch bestehende Limits erweitert oder abgeschafft.

Stark vereinfacht gab es in den letzten 20 Jahren bei der 3d-Grafik drei wirklich große Schritte, die die Grafik wirklich revolutionär voranbrachten:

DirectX8.0 und damit verbunden die Shader und Normalmaps, was starke Auswirkung auf die Geometrie und Wasser/Feuchtigkeitseffekte hatte, und etwas weniger starke Auswirkungen auf die Beleuchtung.

DirextX9.0c und dem Lösen der Limits bei den Shadern, dass dann die Beleuchtung stark voranbrachte, etwas weniger stark sich aber auf die Geometrie und Wassereffekte auswirkte.

Und als letzter Sprung DirectX11, dass dann auf Wasser/Feuchtigkeitseffekte sowie auf die Beleuchtung nicht denselben Einfluss hatte, wie davor DirectX8 und 9.0c, aber die Geometrie mit Tesselation und Co stark voranbrachte.
 
  • Gefällt mir
Reaktionen: MadCat[me] und Daddi89
spezialprodukt schrieb:
inzwischen schalte ich rt ein, ohne zu vergleichen oder mir vergleiche anzusehen. nicht das beste verhalten, aber ich bilde mir dann ein, dass die games besser aussehen :D
daher danke an alle, die das kritischer beäugen.
Ich wünschte ich könnte das :( Aber dann kommt in CP2077 eine Szene, wo die FPS stark fallen, dann schalte ich RT aus, sehe keinen Unterschied und frage mich, wofür ich das angehabt hatte. Dann spiele ich weiter, bis ich zu einer Szene, wo ich denke, dass sich RT lohnen könnte, schalte es an, werde nicht enttäuscht und lasse es an. Und dann beginnt der Zyklus erneut 😵‍💫
 
  • Gefällt mir
Reaktionen: edenjung und daknoll
W0dan schrieb:
Das Video ist 4 Jahre alt und lief damals auf der in der Videobeschreibung verwendeten Quadro schon in Echtzeit.
Alles klar, der Kontext war nicht ersichtlich. Also Raster mit RT-Aufsatz wie gehabt.
 
  • Gefällt mir
Reaktionen: Illithide
Bereits heute stellt ein 500€-Gerät weitgehend ohne (Hardware-)RT das hier dar:

Soviel zu "beschränkte" Konsolen und was die so alles (nicht) mitmachen. 🤣
 
Naja, ich denke zwar auch, dass es für so eine Umfrage eigentlich noch zu früh ist, da zum einen sicher nicht alle RT in vollem Umfang (bei entsprechender Leistung) nutzen können und es somit schnell mal als unwichtig abgetan wird.. zum anderen RT halt auch noch nicht überall eingesetzt wird bzw. entsprechend abhängig von Spiel und Situation wirken kann.

Richtig eingesetzt, würde ich es aber sicherlich nicht als "Kleinigkeit" abtun, denn ich denke gerade am Beispiel von CP2077 kann es schon einiges an zusätzlicher Atmosphäre ausmachen, siehe z.B. die folgenden guten Beispiele:
 
an sich eine tolle sache um in echtzeit gerendertes bild zu sehen. im moment verzichte ich jedoch noch dadrauf weil es noch viel leistung kostet. für micht spielt es beim spielen keine grosse rolle. finde den spassmodus und die athmospäre bei den spielen wichtiger als die realistischen effekte. schalte auch als erstes RT und den tesselations modus aus.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Natürlich sieht ein Cyberpunk 2077 heute besser aus als ein Crysis, genauso sah vor knapp etwas mehr 10 Jahren ein Battlefield 3 und später 4 auch besser aus. Das liegt aber daran, dass sich in der Zeit evolutionäre Schritte bei den verschiedenen Effekten ergeben haben und diese akkurater wurden und auch mehr dynamische Lichtquellen und Co sich auf die Bilder auswirkten. Die Texturen haben sich in den Jahren von x < 1K auf heute bis zu 8K verbessert. Dazu hat Polygon-Count pro Modell massiv zu genommen. Heutige Engines können teilweise deutlich mehr dynamische Lichtquellen berechnen zur gleichen Zeit, SSAO hat sich seit dem weiter verbessert. Polygone haben in bestimmten Bereichen Einzug gehalten, die zu Crysis-Zeiten teilweise noch über Texturen gelöst wurden. Auch haben sich die Animationen - Pflanzen, Umwelt, Tiere, Protagonisten - seit damals weiter entwickelt.
Ich verstehe, Du erkennst doch gewisse grafische Verbesserungen seit 2007... :streicheln:

Und das auch ohne RT. Was Du unter #252 ja im Grunde auch alles selbst bestätigst: Kurzfassung: Geht auch so, aber einfacher mit RT-Hardware. Sorry, aber das ist mir als User völlig egal, wie einfach oder schwer es der Entwickler hat. Ich bezahle lieber Playstation-Preise für ein gutes Spiel -sagen wir mal an Optimierungsgötter wie Naughty Dog-, als 2,5k für Hardware, die ich eigentlich kaum benötige, wenn der Entwickler seinen Job macht. Denke, das ist auch das, was @Nemesis200SX meinte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
dragonor schrieb:
Richtig eingesetzt, würde ich es aber sicherlich nicht als "Kleinigkeit" abtun, denn ich denke gerade am Beispiel von CP2077 kann es schon einiges an zusätzlicher Atmosphäre ausmachen
Definitiv. In Cyberpunk 2077 ist es schon extrem, was das der Grafik nochmal für ein optischen Boost nach oben gibt, hätte ich auch nicht gedacht, bis ich es selbst am eigenen Bildschirm gesehen hab. Licht/Schatten/Spiegelung. Ist schon stark. Die haben da selbst an Augen Raytracing eingebaut oder Brillengläser.
Hoffentlich setzt Rockstar Games es ähnlich ein, Raytracing mit GTA 6 wie CDPR mit Cyberpunk 2077.
 
Laphonso schrieb:
2013 und 2014 begannen bereits 1440p den Weg in den Mainstream.
4K ist seit locker 4 Jahren keine irrelvante 1% Nische mehr sondern Standard in den Tests hier auf Computerbase.

Das Stichwort heißt hier: Computerbase. Guck dir mal Steamsurveys an. Da ist Full HD mit fast 2/3 immer noch auf dem ersten Platz. Danach kommt WQHD und 4K dümpelt irgendwo bei 2 % herum. Von daher ist gerade einmal WQHD auf dem Weg in den Mainstream.
 
  • Gefällt mir
Reaktionen: manfredham, Bandyto85, F1database und 2 andere
Zurück
Oben