• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Die Strahlen sind los: Was denkt die Community über Raytracing in Spielen?

Ich hab früher in Cinema 4D am Amiga 1200 fast eine Dreiviertelstunde gewartet, um ein Bild in 800x600 bei ca. 262.000 Farben zu bekommen, von daher bin ich schon beeindruckt, wie weit die Technik seither ist. Aber unbedingt haben muss ich das in Spielen jetzt auch nicht. Dann lieber so ein paar Frames mehr.
 
  • Gefällt mir
Reaktionen: PHuV
@Gamefaq

Ich kann deine Argumentation verstehen aber ich kann dir nicht zustimmen. Die Erfahrung die ich damit gemacht habe und auch die Fachpresse widersprechen dir.

1. Ich denke du weißt, dass bei nativer Auflösung auch schon vieles geschummelt und gar nicht so berechnet wird wie man es sich vielleicht denkt. Viele Effekte werde gar nicht in der hohen Auflösung berechnet und liegen nicht "nativ" vor. Was in einem nativen Bild alles durch Post Processing verfälscht wird oder hinzugefügt wird hat dich schon lange nichts mehr mit dem nativen Bild von früher zu tun.

2. DLSS und FSR werden hin und wieder für die bessere Bildqualität im Vergleich zur nativen Auflösung empfohlen. Alleine da löst sich schon dein Widerspruch auf. Man kann das nicht so pauschalisieren.
DLSS plus Raytracing ist für mich ein Mehrgewinn im Vergleich zu Nativ ohne Raytracing.

Übrigens bei manchen Spielen muss man auch kein DLSS anwerfen, damit sie flüssig laufen.

Grüße
Evil
 
  • Gefällt mir
Reaktionen: MortyMcFly, .Sentinel., RogueSix und eine weitere Person
Papabär schrieb:
RT intressiert mich überhaupt nicht ! Alleine schon die aktuelle Umsetzung sinnloses Verbrennen von Silizium auf der GPU , für ein paar schöne Effekte, Nein Danke.
Hast du damals bei Antialiasing bestimmt auch gesagt was? Die Abstimmung bestätigt im großen und ganzen was ich über die Community denke.

IntoTheRed schrieb:
Raytracing ist für mich Abfall.
Q.E.D. Reine AMD Blase.

sOuLjA4eVeR schrieb:
Würde RT nur einsetzen wenn es mich gar keine Leistung kostet.
Aber dann bitte auch keine diversen Regler aufs Maximum schieben. Kostet alles überproportional viel Leistung.

Mit der Einstellung wären wir immer noch bei Direct X9...weil sieht man eh nicht...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Daddi89
ThePlayer schrieb:
Du erzählst hier gerade Quatsch. Auch AMD hat schon länger an RT gearbeitet, AMD war da auch bewusst das ist der nächste Schritt.
Schön, wenn Leute Märchen posten, die man in Sekunden widerlegen kann.

https://www.digitaltrends.com/computing/what-amd-plans-ray-tracing/

Erst nachdem Nvidia den Turing Launch hatte und fast ein Jahr nach Nvidias Positionierung im Verlauf des Jahres 2018 zu Raytracing, hat AMD Anfang 2019 dann erklärt, dass man" tief in der Entwicklung sei". Während sie im Herbst 2018 RT für nicht reif hielten. Also Marketing blabla bzw damage control.

Daher dieser Abschnitt:

When the desktop PC Navi RX 5700 XT and 5700 graphics cards were released in July 2019, many people assumed that ray tracing hardware from AMD was right around the corner. Unfortunately, this was not so, as ray tracing was not a feature that AMD had planned for these new cards — they didn’t have any dedicated hardware or additional headroom to handle it.

An nichts hatten sie da " länger gearbeitet".
Wenn man sieht, dass Intels erste RT Iteration auf einer 300-400 Euro GPU schon besser läuft als die von AMD, ist das mit dem "länger daran gearbeitet" halt Marketing bla bla, weil Nvidia hier den ersten Wurf gelandet hat und AMD letztlich gezwungen war, zu kontern.

Keine Ahnung woher Du Dein Märchen hast. Ist unklug, anderen "Quatsch" vorzuwerfen, wenn man selbst nicht informiert ist ;)
 
  • Gefällt mir
Reaktionen: slamaa, one2know, MortyMcFly und 5 andere
DevPandi schrieb:
Diese Aussage ist weder richtig noch falsch. Natürlich stimmt es, dass auch ein aktueller Path-Tracer natürlich durch die Hardware limitiert wird und damit auch die Anzahl an möglichen Primär- und Sekundärstrahlen.

Gleichzeitig erfolgt die Berechnung der Effekte aber wesentlich akkurater und nach physikalischen Maßstäben, während es bei einem Rasterizer immer ein grobes Schätzen war, was man an allen Ecken und Enden sieht.
Deswegen besteht der bisherige Ansatz für möglichst natürliche Darstellung von Umgebungslicht, indirektes Licht und farblich durchscheinenden Objekten eben darin besteht, vorgerenderte Lightmaps zu nutzen. Das ist auch technisch auch Pathtracing, nur eben mit deutlich mehr Strahlen, weil das Erstellen der Lightmaps nicht in Echtzeit erfolgen muss, sondern auch Stunden dauern darf. Zur Laufzeit werden dann die vorberechneten Lightmaps nur noch mit der tatsächlichen Textur der Polygone verrechnet. Dynamische lokale Lichtquellen kannst du dann zwar immer noch zu Laufzeit zusätzlich simulieren, aber ohne Auswirkungen auf die indirekte Beleuchtung.

Der größte Nachteil an dem Verfahren mit Lightmaps ist eben, dass die vorberechnete Beleuchtung statisch ist, also zur Laufzeit keine Änderungen des Sonnenstandes oder Änderungen an der Levelgeometrie berücksichtigen kann oder maximal noch mit Näherungsverfahren, die es vortäuschen.

Mit Echtzeit-RT eliminiert man jetzt zwar auf der einen Seite die Nachteile vom Verfahren mit Lightmaps, hast dafür aber eine deutlich geringere Genauigkeit und Strahltiefe gegenüber Lightmaps.
 
Ganz einfach..
Ne tolle Erfindung der Spieleindustrie 💰

Sonst könnte man ja sagen meine teure Graka reicht jetzt dicke für 4k mit allem auf ultra und ich brauch lange keine neu mehr 😉
Müssen doch bisschen Zeit überbrücken bis 8k salonfähig wird..
 
  • Gefällt mir
Reaktionen: Papabär
Spannendes Thema und bestimmt wird RT nicht aufzuhalten sein. Was ich besonders spannend finde, ist die Tatsache, dass man hier nicht einfach eine neue Grafikverbesserung hat, sondern wirklich eine Änderung der Hardware braucht, die diese Funktionen berechnet. Wie sieht da eigentlich der Trend aus? Wird es irgendwann komplett neue GPU Cores geben oder geht der Trend hin zu dedizierten RT-Cores, die parallel arbeiten?
 
Für mich ist RT nicht relevant, da ich Spiele spiel die das nicht unterstützen
 
  • Gefällt mir
Reaktionen: Papabär
Amiga500 schrieb:
Ich stehe voll auf Raytracing. Wovon ich aber enttäuscht bin das nicht viel mehr Klassiker Raytracing bekommen haben..so wie bei Quake 2
Stell dir mal vor es würde aus Mangel am Interesse bei den neuen Spielen eingestellt. Das würde dich härter treffen :daumen:
 
Mich Interessiert rt nicht im geringsten, hatte ne zeitlang ne 2070s und aktuell noch ne rtx3060. Hatte es probiert und der mehrwert war für mich nicht da. Obendrein sieht das in den meisten spielen gefühlt nicht mal real aus. Als ob alles aus spiegeln besteht.
Nice 2 have aber nicht im geringsten nen Kriterium für mich.
Darum plane ich auch schon ne 7900xtx ein, die gibt mir wohl das was ich brauch wie auch schon die 6900xt
 
  • Gefällt mir
Reaktionen: Papabär
Ripcord schrieb:
Interessant zu sehen, wie sich das bisherige Ergebnis der Umfrage doch von dem unterscheidet was meistens hier im Forum zu lesen ist.
Es unterscheidet sich absolut gar nicht zur fortschrittsfeindlichen Grundhaltung.
Allerdings wäre es, wenn AMD in RT führend wäre sicher statt ~11 40% die das Feature nicht mehr missen wollen.

Erst wenn der Underdog in RT etwas konkurrenzfähiges bieten kann, wird sich die Meinung ändern.
Bei Tesselation war die Meinung der Enduser ähnlich, obwohl sie wussten, dass es alternativlos ist.

Eine Idee wäre zu erfahren wie Nutzer mit Nvidia und AMD GPU abgestimmt haben.
Ergänzung ()

Gaspedal schrieb:
bleibt bei mir immer aus. 2% optisch an Gewinn aber dafür 30% weniger Leistung ist inakzeptabel.
Das letzte bisschen an Qualität kostet immer überproportional viel Leistung.
Mit klassischen Rastermethoden würde es noch viel mehr Leistung kosten, ergo zieht das Argument nicht.
 
  • Gefällt mir
Reaktionen: RogueSix und Laphonso
mixxel schrieb:
Ganz einfach..
Ne tolle Erfindung der Spieleindustrie 💰
Das kommt NICHT und kam nie aus der "Spieleindustrie".
🤦‍♂️

https://brlcad.org/wiki/Early_Raytracing_History
Nur für den Quote:
"Generalized ray-tracing computer programs, which simulate the propagation of light through three-dimensional models of optical systems, have their origin in the 1960s."

https://inst.eecs.berkeley.edu/~cs283/fa10/lectures/283-lecture2.pdf
https://www.wired.com/story/what-is-ray-tracing/

Manchmal braucht dieses Forum echt einen Faktencheck Bot oder Mods als Bildungsbeauftragte gegen Fakenews, sorry.
Ergänzung ()

Ragnarök88 schrieb:
Allerdings wäre es, wenn AMD in RT führend wäre sicher statt ~11 40% die das Feature nicht mehr missen wollen.
Könnte etwas dran sein ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know, Daddi89, MortyMcFly und 3 andere
mixxel schrieb:
Ne tolle Erfindung der Spieleindustrie 💰
Keine Erfindung der Spieleindustrie, sondern Kind der erste realistischen Bildgererierungen zu den Anfängen der Computerzeit. Lange vor den Spielen wurde es für CGI verwendet.
Ergänzung ()

Petoschka schrieb:
Ich hab früher in Cinema 4D am Amiga 1200 fast eine Dreiviertelstunde gewartet, um ein Bild in 800x600 bei ca. 262.000 Farben zu bekommen, von daher bin ich schon beeindruckt, wie weit die Technik seither ist. Aber unbedingt haben muss ich das in Spielen jetzt auch nicht. Dann lieber so ein paar Frames mehr.
Bei mir waren es mehrere Wochen mit nem Amiga 1000 und Sculpt 3D ab 1987.
 
  • Gefällt mir
Reaktionen: one2know, MortyMcFly, guillome und 3 andere
Ich fand Raytracing schon spannend als ich erste Berichte darüber gelesen habe. Noch in eher winzigen Auflösungen auf Multisockelsystemen oder gar Clustern und nicht unbedingt in realtime. Leztlich löst man damit viele Probleme die man im Laufe der zeit zwar ganz gut beim Rendern umschifft oder näherungsweise gelöst hat.

Insofern sehe ich das als logischen nächsten Schritt fürs Rendering sobald man die Leistung dafür hat. Dazu dürfte es auch viele weitere angenehme Effekte mitbringen was Spiele und Simulationsgüte angeht.
Aber derzeit? Ist es für mich nicht unbedingt relevanter als Ende der 90er. Meine Hardware kanns noch nicht, die aktuelle highend Hardware ist zu teuer und dann ist es ohnehin erstmal nur mehr oder minder geringfügiger Support der klassischen Rasterpipeline. Manche Beispielscreenshots sehen schon cool aus, aber nichts was mir 2k € wert wäre.
 
  • Gefällt mir
Reaktionen: Laphonso
DevPandi schrieb:
Wall off text…Crysis und Unreal Tournament 3 - und alle Effekte, die man heute verwendet, die Bühne betreten haben und seit dem die grafische Entwicklung bei Spielen quasi stagniert….Wall off text.
Macht den Eindruck, als sähest Du den Wald vor lauter Bäumen nicht mehr oder willst ihn vielleicht auch nicht sehen. Z.Bsp.: Seit UT3 also aus Deiner Sicht keine grafische Entwicklung mehr? - kann man eigentlich nicht mehr diskutieren, das kauft jetzt wirklich niemand.

Die Theorie von Effekten ist das eine, auf dem Platz ist das andere. Fakt ist, dass bis auf Reflections kaum jemand zuverlässig RT heute überhaupt erkennt und die meisten User (siehe Umfrage im Artikel) RT auch 5 (in Worten: fünf!) Jahre nach Markteinführung von Turing und ständigem extremem Marketing in diese Richtung keinen wesentlichen Wert drauf zu legen scheinen. Fakt ist auch, dass nV nach besagten fünf Jahren immer noch gezwungen ist, selbst für RT-Showcases zu sorgen, weil es sonst niemand/kaum jemand tut. Deine Aussagen zur Entwicklerszene passen dazu genau gar nicht, UE5 vielleicht mal etwas außen vor.

Fakt bleibt weiterhin, dass selbst mit dem letzten brandneuen, satte 2,5k teuren TopDog keine wirklich Spielbaren Frameraten unter heavyRT gehen, ohne artefaktbehaftete, bildqualitätsmindernde Hilfstechniken zu strapazieren, die die minimalen BQ-Gewinne gleich wieder egalisieren. Theoretisieren über Denoising und „physikalisch korrekte Vereinfachungen“ (klingt schon nach Knoten im Gehirn bzw. Oxymoron) passt nicht zu diesen Fakten. Dass nV jetzt auch noch auf mehr oder weniger geschätzte Zwischenbilder setzt auch nicht.

Wenn Echtzeit-RT so derart geil ist, könnte es das doch nun langsam praktisch mal zeigen, oder? Neues ist für die Meisten halt kein Selbstzweck und muss seinen praktischen Nutzen beweisen. Echtzeit-RT macht das imho auch nach nem halben Jahrzehnt eher sehr mäßig bis gar nicht. Statt dessen landet eine Matrix-Demo auf der PS5. Oder ein LoU2. Oder ein Horizon fortbidden West. Oder ein GoW2. Kein Fortschritt ohne Raytracing? WTF?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung, Papabär und s1ave77
OdinHades schrieb:
Langweiliges Gameplay wird auch mit Raytracing nicht besser.
Langweiliges Gameplay hat auch wenig mit Grafikqualität an sich zu tun.
Zwei relativ unterschiedliche Dinge.

OdinHades schrieb:
Nicht mal bei Metro Irgendwas, was seinerzeit als das große Paradebeispiel für RT galt.
Dann hast du einfach Tomaten auf den Augen.

OdinHades schrieb:
Die Grafik sieht aus wie Kotze, aber das Gameplay lässt mich nicht mehr los.
Das Gameplay alter Tombraider Titel ist viel simpler im Vergleich zu heute. Da kickt eher der Nostalgie Faktor.
Grundsätzlich nicht zu verstehen und eine Menge Falschaussagen.
 
  • Gefällt mir
Reaktionen: MortyMcFly, Laphonso und RogueSix
Es glänzt schön und frißt unheimlich viel Leistung für das bißchen Effekt.
Oft sehen die Bilder unnatürlich und überkontrastiert aus.

Ich brauche es nicht, da ich nur alte Schinken spiele.
Aber man weiß ja nie:

Das kann man aus einer 320x200er Auflösung rausholen mit etwas Vulcan-Voodoo:

hexen03.jpg

.

Womit wir wieder beim Thema wären ... .
 
  • Gefällt mir
Reaktionen: edenjung und s1ave77
Illithide schrieb:
Wenn Echtzeit-RT so derart geil ist, könnte es das doch nun langsam praktisch mal zeigen, oder? Neues ist für die Meisten halt kein Selbstzweck und muss seinen praktischen Nutzen beweisen.
Spannend, das hat man damals auch über Wing Commander und Comanche gesagt Ende der 90er.

Schau mal die tests der ASM und Powerplay. Heute haben wir den Luxus, dass Du alles weiterhin ohne Raytracing spielen kannst.
Damals konnten ehemalige 2500 DM Spiele PCs aus Anfang der 90er gewisse Games gar nicht erst starten lol.

In der Amiga Games Anfang 1993 wurde festgehalten:

1668977362635.png

1668977378473.png


Ist das nicht witzig? Einer der technischen Meilensteine der Spielegeschichte war UNSPIELBAR.
Ein "FLOP" für 95% der AMiga User :D

Ich konnte gewisse Games ohne 1 MB Speicher mit dem Amiga bereits 1992 nicht oder nur eingeschränkt spielen.
Ich konnte viele Games mit einem, 386er SX nicht spielen und musste einen neuen PC kaufen.

Und hier weinen die Leute rum, was Raytracing für eine doofe technik sei, kostet mich 50% fps. 🤣

Vor 30 Jahren hätte ich mir die Haare gerauft, wenn ich geahnt hätte, über was man hier rumjammert.
Verwöhnte Gaming Gören :D ;)

/mid 40er Jahre alter 8Bit Knacker Nölen off
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MadCat[me], one2know, Daddi89 und 4 andere
Ganz einfach.

RT ist ein nice to have, aber kein Must have.

Ich bevorzuge es lieber andere Sachen zu Maximieren und dafür auf den RT Kram zu verzichten. Wenn es gut implementiert ist und kaum Leistung frisst mach ich es mal an, ansonsten interessiert es mich nicht besonders.
 
Es gibt schon bald nichts anderes mehr die ue5 nutzt für alles raytracing einheiten von Texture streaming bis Audio
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben