News Fünf Jahre GeForce RTX: Teilt ihr Nvidias Gaming-Vision mit Raytracing und Upscaling?

Zusammenfassung meiner Antworten: Ich bin vollkommen von (echtem) Raytracing als Ablösung bekannter Rastererisierungs-Verfahren überzeugt. Raytracing ist die Zukunft, keine Frage. Aktuell reicht es aber in der Regel nur zu partiellem, in Teilen vorberechneten Raytracing, das mal gut aussehen kann, mal arg daneben liegt, und oft noch keinen Unterschied macht. Bis (echtes) Raytracing ganz selbstverständlich in Spielen zur Verfügung steht und auch von der Mittelklasse berechnet werden kann, werden aber noch einige Hardware-Generationen ins Land gehen. Bis dahin bleibt Raytracing für mich eine Spielerei, die ich gerne mal mitnehme, die aber meine Kaufentscheidungen noch nicht beeinflusst.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Redundanz
eax1990 schrieb:
Was mich an Raytracing am meisten stört ist der fehlende Gameplay Einsatz.

Das ist eh die größte Kunst. Technisch wird was neues möglich. Aber es dann Spieltechnisch entsprechend relevant zu machen - das ist die große Kunst.
Ich träume noch immer von einer sauber zerstörbaren Spielwelt in der das spieltechnisch relevant ist...
 
Danke tolle Umfrage, man sieht aktuell das 53,7 Prozent eine RTX Karte nutzen und deren Techniken sehr gerne verwendet werden.

Interessant auch die Verteilung der 40er Karten, gegenüber "allen" Radeons..
Mich wundert es persönlich nicht, weltweit sieht auch die Steam Survy ähnlich aus.
 
Nutze in jedem Spiel wo es möglich ist DLDSR+DLSS. Bessere Bildqualität als nativ und mehr FPS. Was will man mehr?

Raytracing ist sehr von der Umsetzung abhängig. In Metro oder Cyberpunk ist es halt sehr gut.
Wobei einige Features viel mehr Einfluss haben als andere.

Global Illumination oder Reflektionen finde ich persönlich am wichtigsten. Auf den Rest kann man leichter verzichten.
 
Irgendwie fehlt mir zu einer Frage eine für mich bessere Antwortmöglichkeit,
wie man die dann gut und allgemein reinschreiben könnte, weiß ich gerade nicht.

Ich hätte das wahrscheinlich zwischen Raytracing und DLSS getrennt.
Hat sich deine Meinung zu RTX in den letzten fünf Jahren geändert?
DLSS bis 2 - ja - deutlicher positiver Effekt.
DLSS mit Framegeneration - nein danke (competitive Shooter - andere Genres wäre mir egal)
Raytracing - zu wenig Mehrwert mit zu hohem Performanceverlust, nette Spielerei für ältere Titel, aber sobald was modernes unter 100fps geht ists für mich nicht brauchbar spielbar.

Aber immerhin tut sich mal etwas zu großteils komplett unoptimierten AAA-Mist kann man mit DLSS, FSR und XeSs teilweise gut ausgleichen. Auch wenn die Preise weiterhin viel zu hoch sind.
 
Timesless schrieb:
Von RTX bin ich nicht so überzeugt, nur CP2077 war bisher ein Highlight.
3080 kommt höchstens fhd mit rtx 2023/24 die neuen Games haue rein klar ältere games gehen noch ganz gut in WQHD haha
 
Novasun schrieb:
Ich träume noch immer von einer sauber zerstörbaren Spielwelt in der das spieltechnisch relevant ist...

Das Problem dabei ist, dass das Fallen der Trümmer in der Regel lokal als Physikberechnungen auf der Grafikkarte läuft und sie deshalb jedes mal und bei jedem Spieler etwas anders landen können. Für ein Multiplayer-Spiel scheidet das deshalb weitgehend aus.

Bei RT sollte das kein Problem sein, aber vielleicht wollen die Spieleentwickler noch Rücksicht auf Spieler nehmen, die keine RT-fähige Grafikkarte haben.
 
BrollyLSSJ schrieb:
Also ich habe noch eine GTX 660 im Linux PC und eine GT 1030 im Haupt-PC und eine HD 7950. Daher habe ich bei DLSS, FSR und XESS mal für Enthaltung gestimmt. Auf RT kann ich soweit auch verzichten, aber DLSS finde ich spannend für zukünftige GPUs, wenn denn mal ein aktueller GT 1030 "Nachfolger" kommt, wenn meine GT 1030 abraucht.
Sollte hier dann nicht eine aktuelle igpu von den CPU´s ausreichen, vorallem da diese ja alle aktuellen codecs unterstützen bzw. wenns mehr Grafikleistung braucht wäre auch noch sowas wie ein 5700g oder 5600g möglich bzw. die kommenden 6xxx APU`s. Oder sowas wie eine GTX 1650 ;) .
Ansonsten dürften aktuelle Generation in Zukunft unter 300€ wohl kaum mehr kommen, befürchte ich.
 
ElectricStream schrieb:
Interessant auch die Verteilung der 40er Karten, gegenüber "allen" Radeons..
Hier im Forum gibt es einen viel höheren Anteil an AMD Karten, als es in der "freien Wildbahn" der Fall wäre.
1693823423564.png


Würde man da noch alle iGPU Lösungen rausrechnen, bliebe nicht viel für AMD/Intel über. Hier liegt der AMD Anteil bei 30%, was nicht im Ansatz der tatsächlichen Marktverteilung entspricht.
 
MF-KW35.png


MF in KW35
 
Schon erstaunlich wie viele Technikpessimisten (um nicht zu sagen Feinde) sich in Techforum wie diesem hier wiederfinden.

Die allermeisten werden, wie ich, mit der Lupe suchen müssen, um bei DLSS Q auf 4k einen Unterschied zum nativen Bild zu erkennen. Und auch wenn noch nicht alle bei 4k angekommen sind, so ist das nur ein Frage der Zeit. Oder spielt hier noch jemand in SVGA?
Warum sich also nicht darauf freuen was da kommt. Mag ja sein das die upscaler in FHD nicht das Optimum sind, aber das ist nun mal irgendwann eine Auflösung die für die Retro Ecke relevant ist.

Nicht anders RT. Es ist die Zukunft was Spieleentwicklung angeht. Bald wird jede Indie-Bude, nicht nur mit der UE5, RT implementieren, weil es quasi Standard wird und in jeder Engine vorhanden ist.

Ich freue mich jedenfalls auf alles was da noch neues kommt. Und ja, auch dann heißt es wieder:

Shut up and take my money.
 
GerryB schrieb:
Dann die Zahlen von Mindfactory ebenfalls nicht einmal im Ansatz der tatsächlichen Marktverteilung entsprechen, wissen wir nicht erst seit heute. Gutes Beispiel hierfür sind die aktuellen CPU Absatzzahlen.
 
xexex schrieb:
Dann die Zahlen von Mindfactory ebenfalls nicht einmal im Ansatz der tatsächlichen Marktverteilung entsprechen, ...
Die Zahlen passen aber gut zu den interessierten CB-Lesern. (P/L rules)

Was irgendwelche Leute im Mediamarkt kaufen ist net so die echte Gamercharge.
dito
Office-PC´s und Notebooks
(ob sich Da mal Was mit den Phönix-APU´s ändert, ... abwarten)
 
Zuletzt bearbeitet:
GerryB schrieb:
Die Zahlen passen aber gut zu den interessierten CB-Lesern.
Das mag sein, habe ich auch nicht bestritten. Der Anteil von AMD Produkten, sowohl CPU als auch GPU ist bei CB extrem hoch, entspricht aber nicht dem Markt. Selbst ohne die iGPUs herauszurechnen, kommen AMD GPUs bei Steam HW Survey nur bei 15% der Befragten zum Einsatz, hier sind es über 30%, der Marktanteil liegt derzeit bei 10%.

Bei den CPUs sieht es noch verquerer aus, Umfrage hier:
1693825332165.png


Umfrage Steam:
1693825349921.png
 
GerryB schrieb:
Die Zahlen passen aber gut zu den interessierten CB-Lesern. (P/L rules)

Das stimmt allerdings. Sogar die Einstellung "Ich kaufe lieber die alte Technologie als die neue Technologie" passt bei den MF AMD Zahlen, während bei nVidia mittlerweile hauptsächlich die neue Tech gekauft wird.

Ich denke die Zahlen spiegeln wirklich gut die derzeitige DIY-PC Builder Trends.
 
  • Gefällt mir
Reaktionen: Grundgütiger
wtfNow schrieb:
Vollständiges Raytracing wie in Cyberpunk sieht zum Niederknien aus
Gut sieht es auf jeden Fall aus. Mir selbst hat aber auch schon Quake 2 RTX und Minecraft RTX gefallen und selbst Portal RTX sieht toll aus.
Wintermute schrieb:
Raytracing braucht noch ein bissel... Die 4090 ist die erste Karte, die mich da überzeugt
Wobei man hier auch die 4080 und ein wenig die 4070 Ti auch noch mitzählen kann. Je nach Auflösung schaffen die Karten Cyberpunk "Overdrive" selbst ohne FG in spielbaren Frameraten. Gut, alle Karten wandern quasi bei der Auflösung nach unten und die 4070 Ti und 4080 reichen für FullHD, während die 4090 dann WQHD schafft, aber wir kommen so langsam in die Richtung, dass vollständige PathTracer auch in modernen Engines funktionieren und das relativ gut.
mcbloch schrieb:
Raytracing war und ist eigentlich eine Totgeburt gewesen.
Warum ist Raytracing "eigentlich" eine Totgeburt? Quake 2 RTX hat bereits zu Turing gezeigt, dass ein PathTracer auch in "schnell" möglich ist. Minecraft RTX dann quasi für Ampere und Cyberpunk OverDrive sowie Portal RTX nun bei Ada.

Ja, es braucht für Cyberpunk und Portal RTX aktuelle Grafikkarten und eine 4090 ist gerade mal in WQHD wirklich fähig auch 60+ fps zu schaffen, aber von einer Totgeburt zu schreiben. Gewagt.

Sowohl bei NVIDIA und auch bei AMD und Intel sind Software- und Hardwareingenieure daran, dass die Hardware immer besser und effizienter mit RT umgehen können.
mcbloch schrieb:
Aber leider werden die Games immer Hardware hungriger oder aber immer schlechter optimiert.
Sowohl als auch. @.Sentinel. du kannst ja gerne mal dazu nicken.

Das Problem ist nicht nur, dass die Entwickler immer schlechter optimieren, sondern dass moderne Effekte im klassischen Rastizer-Verfahren immer schlechter sich optimieren lassen. NVIDIA hat 2018 die Transformation zu RT nicht eingeleitet, weil sie einfach eine neue Kuh durchs Dorf treiben wollen. Sondern weil wir bei der Entwicklung der Rastizer an einem Punkt angelangt sind, an dem all die "Optimierungen", die einen Rasterizer schnell machen, ersetzt werden durch "optimierte" Verfahren aus dem Bereich der RayTracer, die dann zur Näherung verwendet werden und dann darauf aufbauend wieder "Annahmen" getroffen werden.

Ließt man sich seit 2013 die "Logs" für neue Effekte durch und verfolgt die Vorträge auf den Konferenzen, dann fällt seit dem oft bei den klassichen Rasterizer, dass man sich an "RT"-Effekten orientiert und einzele Strahlen zur groben Bestimmung verwendet und daraus dann wieder ableitet. Warum? Weil man selbst bei der Rasterization ab gewissen Punkten weitere Informationen braucht und diese müssen beschafft werden.

Wir befinden uns aktuell in einem Übergang. Die Hardware ist noch nicht vollständig so weit, frühestens mit der nächsten Konsolengeneration können wir auf die ersten vollständigen Pathtracer hoffen - und die Entwickler versuchen immer noch grafische Fortschritte auch mit Rasterizer zu machen, nur alles was die Rasterizer schnell macht, behindern heute die Effekte und da das voran kommen.

Heutige Shader zum Thema "globale Beleuchtung" "physikalisches Rendern" und Co sind teilweise so komplex, dass man teilweise schon von Engines in der Engine sprechen kann.

Dazu kommt, dass auch auf seiten der Geometrie immer mehr möglich wird. Was man mit modernen Mesh-Shadern und Co anstellen kann, ist erstaunlich. Das trifft heute alles auf einander.

sverebom schrieb:
Bis (echtes) Raytracing ganz selbstverständlich in Spielen zur Verfügung steht und auch von der Mittelklasse berechnet werden kann, werden aber noch einige Hardware-Generationen ins Land gehen
Auf dem PC werden wir das vielleicht in der nächsten Generation schon erleben, mit den Konsolen im Gepäck: Mit PS6 und der neuen XBox danach.

Ich hab jetzt zwei Wechsel mit gemacht und im Endeffekt sind die Argumente heute fast genau so wie damals von 2D zu "echtem" 3D.

xexex schrieb:
Dann die Zahlen von Mindfactory ebenfalls nicht einmal im Ansatz der tatsächlichen Marktverteilung entsprechen, wissen wir nicht erst seit heute. Gutes Beispiel hierfür sind die aktuellen CPU Absatzzahlen.
Man darf den DIY-Markt am Ende (Mindfactory, viele "Tech-Foren") nicht mit dem ganzen Markt verwechseln. Das wird aber oft gemacht.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Millennial_24K, .Sentinel. und eine weitere Person
DerFahnder schrieb:
Ich finde DLSS mittlerweile sehr gut und RTX Voice ist auch ein nettes Feature.
Raytracing stehe ich immer noch skeptisch gegenüber, da es so viel Performance frisst und der Zugewinn an optischer Qualität zu gering dafür ist.
RTXVoice geht auch auf GTX.
 
  • Gefällt mir
Reaktionen: DerFahnder
Vitec schrieb:
Sollte hier dann nicht eine aktuelle igpu von den CPU´s ausreichen, vorallem da diese ja alle aktuellen codecs unterstützen bzw. wenns mehr Grafikleistung braucht wäre auch noch sowas wie ein 5700g oder 5600g möglich bzw. die kommenden 6xxx APU`s. Oder sowas wie eine GTX 1650 ;) .
Naja, ich habe noch ein i5-2400 und einen i5-3570. Also Asbach-Uralt. Wenn die iGPU gut gewesen wäre, hätte ich keine GT 1030 gebraucht. :)

Vitec schrieb:
Ansonsten dürften aktuelle Generation in Zukunft unter 300€ wohl kaum mehr kommen, befürchte ich.
Unter Umständen doch, aber im Profi Segment. Eine T400, T600 und T1000 gab es ja. Und die RTX 4000 zumindest hat auch eine TDP von bis zu 75W, ist aber preislich mir zu teuer. Aber mal abwarten und beobachten. Ich bin ja leider auf 25W beschränkt, weil DELL hier Mist gebaut hat. Der Nachfolger hatte schon 75W, aber dann andere Einschränkungen wie nur Single Slot (meiner kann Dual Slot). HP kann anscheinend generell 75W und mehr als Single Slot, was ich so gefunden habe, würde ich dann aber eh noch mal genau mich informieren.
 
DevPandi schrieb:
Man darf den DIY-Markt am Ende (Mindfactory, viele "Tech-Foren") nicht mit dem ganzen Markt verwechseln. Das wird aber oft gemacht.
Ich denke man darf hier schlichtweg MF, nicht auf "Deutschland" oder gar "Welt" beziehen. Schon alleine die Abstinenz von ASUS Produkten, die nun mal zumindest bei den Mainboards selbst hier im Forum die meistgekaufte Marke ist, zeigt dass sich mit diesen Zahlen wenig belegen lässt.
1693825890334.png


MF bedient gezielt ein P/L orientiertes Publikum, die Zahlen bilden also im besten Fall das Kaufverhalten eines solchen ab.
 
DLSS bzw. generell Upscaling hat sich mMn echt gemacht, als FPS-Boost gerne verwendet.
Raytracing hingegen kostet meistens zu viel Leistung, wenn man nicht grade eine sehr teure Karte verbaut hat. Habs bisher in BFV und Guardians of the Galaxy ausprobiert, aber ehrlich gesagt außer bei Standbildern und genauem Hinsehen wärs mir nicht aufgefallen.
 
  • Gefällt mir
Reaktionen: DerFahnder
Zurück
Oben