Wird die Raytracing-Performance in Spielen auf Grund fehlender Settings im Grafikmenü künstlich von Nvidia ausgebremst?

II n II d II schrieb:
So eine Art Slider im Spielmenü, mit dem man einstellen kann wieviele Strahlen verschossen werden, wäre nicht schlecht.

So ähnlich wie die Auswahl der maximalen Tesselationsstufe im AMD Treiber.

Das liegt aber am Spielentwickler.
Ein WatchDogs Legion hat z.B. die Möglichkeit, einzustellen wie 'extrem' man Raytracing gern hätte.
CDPR kriegt das offenbar nicht hin.
 
  • Gefällt mir
Reaktionen: Millennial_24K
hamju63 schrieb:
Das liegt aber am Spielentwickler.
Ein WatchDogs Legion hat z.B. die Möglichkeit, einzustellen wie 'extrem' man Raytracing gern hätte.
CDPR kriegt das offenbar nicht hin.
" wie 'extrem' "...
Sehr extrem oder Mittel extrem? :) War nur Spaß, ich weiß du meinst. Wobei ich Watchdogs Legion noch nicht gespielt habe, weil es mich nicht interessiert.
Ergänzung ()

nebukadnezar.ll schrieb:
Stelle doch RT einfach ab. Wenn das Spiel Müll ist, dann bringt Dir RT auch nichts. Ist wie bei Schrott-Movies und 3D. Da wird der Film auch nicht besser
Genau das tue ich auch, falls RT zu viel Leistung schluckt. Ich habe damit überhaupt kein Problem, sofern die herkömmliche Beleuchtung gut ausschaut.
 
Zuletzt bearbeitet:
Natürlich hat nvidia Einfluss auf die Spieleentwickler bei RTX Games und fördert höhere RT Belastungen eher. Aber am Ende ist es der Entwickler, der die Möglichkeit hat verschiedene Optionen anzubieten und genug machen das ja auch. Allerdings muss man sehen, dass unter einer bestimmten Strahlengrenze RT einfach nicht mehr gut aussieht und nicht lohnt. Da werden bei Global Illumination zb die Bereiche zu dunkel. Man ist da selbst mit Nvidia und Ultra oft an der unteren Grenze. RT braucht einfach unglaublich viel Leistung.

Ich hab auch lieber Optionen in Games, aber das gilt ebenso für AMD die bei ihren RT gesponserten Spielen bewusst höhere RT Einstellungen blockieren. Far Cry und Resident Evil sind da die besten Beispiele, den es wäre überhaupt kein Aufwand höhere Auflösungen für bessere RT Effekte anzubieten, aber das will man anscheinend von AMDs Seite nicht. Daher ist das für mich von beiden die gleiche Taktik und AMD und Nvidia nehmen sich da mal wieder gar nix. Jeder passt die Spiele an seine Hardware an.

AMD muss am Ende sehen, dass man irgendwann seine RT Schwäche behebt. Nicht nur nvidia, auch Intel ist deutlich stärker als AMD bei RT und mit mehr Karten die RT können wird es für AMD nicht einfacher werden. Ich hatte mir da mit RDNA3 mehr erhofft.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Celticon schrieb:
Finde nicht das da etwas brisant ist,
Ich habe meine Einleitung nachträglich noch etwas angepasst.
Celticon schrieb:
Und jetzt soll man irgendwelche magischen Schalter gefunden haben die auf AMD Karten eine Explosion in Sachen RT Performance erzeugen. Klingt nicht wirklich glaubwürdig.
Ja, ganz recht. Um genau zu sein handelt es sich nur um einen einzigen Schalter bzw. Regler - jener, der die RT-Qualität im Spiel bestimmt. Mein Wunsch ist es, dass man die RT-Qualität in den Grafikoptionen von "Niedrig" bis "Ultra" einstellen kann.
Ergänzung ()

AffenJack schrieb:
Natürlich hat nvidia Einfluss auf die Spieleentwickler bei RTX Games und fördert höhere RT Belastungen eher. Aber am Ende ist es der Entwickler, der die Möglichkeit hat verschiedene Optionen anzubieten und genug machen das ja auch.
Ich habe bei CD Project Red den Eindruck, als ob man sehr nach Nvidias Pfeife tanzt. Die RT-Performance von RDNA2 ist in CP2077 eine Katastrophe. Hinzu kommt das lange lange Warten auf FSR 2 bis es endlich ins Spiel integriert worden ist. In Witcher 3 pflegt man offensichtlich den selben Umgang.
AffenJack schrieb:
Allerdings muss man sehen, dass unter einer bestimmten Strahlengrenze RT einfach nicht mehr gut aussieht und nicht lohnt. Da werden bei Global Illumination zb die Bereiche zu dunkel.
Ich weiß genau was du meinst. Jedoch hat man in MEEE soweit ich weiß dieses Problem auf der Qualitätsstufe "Normal" noch nicht, und RDNA2 performt damit ziemlich gut.
AffenJack schrieb:
Man ist da selbst mit Nvidia und Ultra oft an der unteren Grenze. RT braucht einfach unglaublich viel Leistung.
Genau das sind für mich die interessanten Fragen. Wieviel "Strahlenbelastung" kann von einer GPU in einem Spiel minimal abverlangt werden, damit die Beleuchtungsqualität nicht zu stark leidet.
AffenJack schrieb:
[...] nehmen sich da mal wieder gar nix. Jeder passt die Spiele an seine Hardware an.
Da stimme ich dir absolut zu.
AffenJack schrieb:
AMD muss am Ende sehen, dass man irgendwann seine RT Schwäche behebt. Nicht nur nvidia, auch Intel ist deutlich stärker als AMD bei RT und mit mehr Karten die RT können wird es für AMD nicht einfacher werden. Ich hatte mir da mit RDNA3 mehr erhofft.
Nvidia schläft nicht, vor allem beim Thema Raytracing. AMD hat mit RDNA3 einen ordentlichen Sprung bei der RT-Performance hingelegt. Zu erwarten, dass sie mit einem riesigen Schritt auf Nvidia aufholen, ist zu viel verlangt. Nichtsdestotrotz sollte die RX 7900 XTX mit der ungefähren RT-Performance einer RTX 3090 Ti doch ziemlich solide für die Zukunft aufgestellt sein. Oder würdest du das Ampere-Flaggschiff als "RT-Krücke" bezeichnen. Das denke ich nicht. Man darf vielmehr in kommenden RT-Spielen nicht sinnloser Weise die Anforderungen an die GPU in neue Sphären hiefen, sondern sollte eher eine vernünftige Basis für alle Gamer schaffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
Kurz nebenher, möchte daran erinnern, als das Tesslation Thema neu war, konnte NVIDIA mit niedrigen Faktoren (4x, 8x, 12x) langsamer umgehen als AMD. Umgekehrt war NVIDIA bei 64x absurd viel schneller als AMD.
Tesslation Faktor Vergleich PCGH

Ihr könnt euch vorstellen was dann "the way its meant to be played" war...

Oder ihr sucht nach alten "Witcher Hair Mods" oder wieso AMD mit dem Treiber schließlich selber Eingriff weil es einfach komplett bescheuert wurde.

Ob das hier bei Raytracing auch der Fall ist, das weiß ich nicht. Das müsste jemand vom Fach mal untersuchen.
Mehr Einstellungen für PC Spieler wären aber durchaus zu begrüßen und sicher auch nicht aufwendig.
Man würde ja damit die Zielgruppe für RT erhöhen es auch alten oder schwachen Karten hilft.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Draco Nobilis schrieb:
Oder ihr sucht nach alten "Witcher Hair Mods" oder wieso AMD mit dem Treiber schließlich selber Eingriff weil es einfach komplett bescheuert wurde.
Und wo du gerade das Thema "Witcher" ansprichst: beim neusten Next-Gen Update soll es recht wenige Einstellmöglichkeiten für Raytracing geben. Wie gesagt: RDNA2 hat erst Probleme bei einer hohen RT-Qualität. Und da kommt CD Project Red ins Spiel. Denn mittlerweile ist für mich offensichtlich, dass sie ausgesprochen eng mit Nvidia zusammenarbeiten. Und die Entwickler lassen meiner Meinung nach AMD bewusst schlecht aussehen. So traurig das auch ist.
 
Zurück
Oben