News Fünf Jahre GeForce RTX: Teilt ihr Nvidias Gaming-Vision mit Raytracing und Upscaling?

BloodGod schrieb:
Ihr wollt Spiele völlig ohne Raytracing genießen?
Easy: Dann benutzt ganz geschmeidig den Off Button im Spiel.

Ihr wollt hingegen immer wieder gegen Raytracing haten?
Wo hate ich denn gegen Raytracing oder wo habe ich geschrieben, dass ich kein Raytracing nutzen will?

Mir ist es einfach total egal.
Wenn's nicht stört, lass ich es an. Ansonsten hat Raytracing keinen Einfluss auf Konsum von Hardware oder Software.

Bei Spielen steht für mich der Inhalt im Vordergrund, nicht möglichst realitätsgetreue oder übertriebene Spiegelungen / sonstige visuellen Lichtspielchen

Unnötiges Schwarz-weiß denken, dass du hier an den Tag legst.
 
  • Gefällt mir
Reaktionen: 1331
Fegr8 schrieb:
Upscaling ist schön und gut...hat aber auch eine Kehrtseite: Immer mehr Spiele kommen so schlecht optimiert raus das Upscaling zum Zwang wird! Man hofft jetzt irgendwie das durch Upscaling in diesem Teil kosten sparen kann.
Das ist eine relativ haltlose Behauptung - ein Trugschluss ist es auch. Denn es ist mit Nichten belegt, dass das Game ohne Upscaling besser optimiert sein würde.
Entwickler, die da nix drauf geben, geben mit wie ohne Upscaling nix drauf. Und dort, wo man es macht, macht man es auch unabhängig der Technik.

Die Kirche sollte man dabei aber im Dorf lassen. Es ist sehr einfach von extern zu sagen, schieht für die Anforderungen nicht gut genug aus. Die Frage ist aber, ohne Hintergrunddeteils zu kennen - was hätten die Entwickler machen müssen damit das besser wäre? Manchmal sind es nur kleine Details, die hohen Impact haben.
Programmierung ist am Ende eine Frage von Aufwand/Nutzen. Für paar Prozent hohe Aufwände zu betreiben ist in aller Regel eben nicht das was man tätigen wird. Weil der Nutzen nicht gegeben ist. Zudem Games auch in aller Regel in die Zukunft hin entwickelt werden. Das heißt, es wird anfangs basierend auf einer Spekulation in gewisses Leistungstarget hin bestimmt, wo man nach Monaten und Jahren raus kommen möchte. Liefert der Markt nicht, muss man Kompromisse eingehen. Liefert der Markt mehr, kann man (meist dann relativ teure) winzige Mehrdetails einbauen und die Mehrleistung verbraten.
 
  • Gefällt mir
Reaktionen: flynn9
Gerade dieses Jahr von meiner alten GTX 1080 auf die RTX 4090 gewechselt, da ich nun endlich das Gefühl hatte das damit bei meiner Auflösung (3440x1440) genug Leistung für flüssiges Raytracing vorhanden ist.

Bisher hab ich das nicht bereut! Schaut toll aus und kann auch sehr effizient laufen. Ich denke das Nvidia - bei all der aus unternehmerischer Sicht sehr verständlichen Profitgier - ein paar tolle Technologien vorangetrieben hat, in den letzten paar Jahren...
 
Habe eine Asrock RX 6900 XT OC Formula und Raytracing schalte ich da ein, wo ich kein Leistungsverlust habe.
Es sieht schön aus manchmal, aber ich brauche so was nicht. Vor ein paar Wochen habe ich intensive überlegt, ob ich mir die Asus Rog Strix 4090 holen soll und ich bin zu den Entschluss gekommen, das die einfach zu viel Geld ist, für das was es leisten kann.

Ich Spiele auf dem Odyssey G7 32 Zoll Curved von Samsung der Maximal WQHD schafft. Meine Asrock RX 6900 XT OC Formula schaff das locker und eine RTX 4090 wäre da total überdimensioniert. Aber das muss jeder natürlich für sich selbst entscheiden. Ich persönlich würde mir lieber ein RX 7900 XTX holen und ein 21:9 Monitor anstatt eine RTX 4090..... (das ist wie mit dem TV beim Zocken, die einen Brauchen einen Monitor, mir reicht ein 12 Zoll Tablet....

Auch bin ich mir sicher, das diese "RTX Hardware" (Video Super Resolution etc.) auch bei AMD irgendwann einziehen wird, natürlich unter ein anderen Namen.

Aktuell betreibe ich auch undervolting. Sprich ich die stelle werte so ein, das sie gerade etwas über die Empfohlene Spiele Einstellungen sind. Die Bildwiederholrate auf 144 HZ begrenzt, -10% Leistungsgrenze und es Lohnt sich und nein, ich Spiele mit Maximalen Details. Bei mir müssen aber auch nicht alle Schalter rechts liegen.....
 
Laphonso schrieb:
Meine These: Ab der GPU Generation: 2028 wird Raster nur noch "Nebenfeature" werden und es wird eine Option, default aktiviertes Raytracing in allen neuen Games manuell auszustellen bei Bedarf.
Das sind gerade einmal zwei kommende GPU Generationen. Angesichts der "Performance" der UE5 Engine frage ich Dich, wo soll die Leistung denn herkommen und wer soll die entsprechenden GPUs bezahlen (können)?

Wir eiern doch schon fünf Jahre um diese Features herum, und wenn ich mir die BQ heutiger Spiele anschaue und vergleiche, sehr zu unserem Nachteil..

In fünf Jahren wissen wir dann mehr :-)
 
  • Gefällt mir
Reaktionen: Laphonso
yamiimax schrieb:
Nun würde er sogar 600 ausgeben! So hat sich das Verhalten geändert.

Passt doch, bei so manchem steht auch 50% mehr auf dem Gehaltszettel als vor 2 Jahren. Die Inflation hat halt wirklich kräftig zugeschlagen.
Und wenn dein Freund stattdessen weniger Kaufkraft als jemals zuvor hat, dann braucht er erst recht jetzt ein günstiges Hobby wie Gaming, weil ja alles so teuer geworden ist. ;-)

Nvidia war schon clever bei ihren Preiserhöhungen.
 
DLSS bringt einfach 4k und Raytracing in den Mainstream!

DLSS/FSR ist einfach die Zukunft, ich glaube das sieht mittlerweile jeder so und bei der Qualität von DLSS spricht auch nichts mehr dagegen. Besseres Bild und doppelte Leistung quasi für umsonst. Das sind einfach mal 2 Grafikgenerationen Unterschied. Heißt die heutige Leistung würde wir ohne DLSS erst in 4 Jahren sehen. Außerdem profitiert jede weitere Generation doppelt davon. Wenn eine neue Generation 50% mehr Leistung bringt, bringt DLSS eben auch noch mal 50% oben drauf.

Das bringt mich auch zum zweiten Punkt, Raytracing/Pathtracing. Ohne DLSS2/3 wäre Raytracing immer noch nicht eine Option in den Spielen, weil einfach nicht genug Power da wäre. Erst DLSS hat ermöglicht Raytracing ordentlich zu nutzen.

-> Nur deswegen können wir jetzt 4k + Ultra Details + Raytracing + 100Frames und mehr bei gerade mal 250 Watt genießen (RTX4080 + TDP Limit auf 250 Watt). Wäre vor kurzer Zeit und ohne DLSS3 noch undenkbar gewesen.
 
Ferran schrieb:
Das sind gerade einmal zwei kommende GPU Generationen. Angesichts der "Performance" der UE5 Engine frage ich Dich, wo soll die Leistung denn herkommen und wer soll die entsprechenden GPUs bezahlen (können)?

Wir eiern doch schon fünf Jahre um diese Features herum, und wenn ich mir die BQ heutiger Spiele anschaue und vergleiche, sehr zu unserem Nachteil..

In fünf Jahren wissen wir dann mehr :-)
Ist sicher sehr optimistisch, aber ich rechne mit DREI kommende GPU Generationen:
1.) Ende 2024/Anfang 2025
2.) Ende 2026
3.) Ende 2028.

Wenn die dritte erst 2029 kommt, dann mache ich 2029 daraus.

Die Generation 2028/2029 wird m.E. mindestens die 4090 Grafikpower (plus das obendrauf, was meine These zum Thema RT Fokus mitbringt) als Einstiegs GPU bringen als RTX 7060 oder so, sofern Nvidia da nicht wieder rumwurstet.

Aber ja, hast recht, ich hätte das an den RDNA und RTX Gens abzählen sollen, macht mehr Sinn als Jahre, weil wir nicht wissen, ob die Releasezyklen alle ~24 Monate so bleiben.
RTX5000 scheint ja bereits davon abzuweichen
 
  • Gefällt mir
Reaktionen: Ferran
Was mich an Raytracing am meisten stört ist der fehlende Gameplay Einsatz.
Es kam in all den Jahren noch kein Spiel aufn Markt was die Reflektionen ordentlich ins Gameplay integriert hat.
Alles bezieht sich nur auf voluminöse Grafik, ein geschickt platzierter Spiegel der einen mal um eine Ecke spähen lässt, den sucht man noch immer vergebens.
In 5 Jahren hab ich sagenhafte 3 Spiele mit Raytracing gespielt, BF5 war nicht lauffähig auf der gesamten Dx12 API, Cyberpunk (Performance zu niedrig) und Mw2019 Kampagne.
Sprich nur wenige Stunden eingesetzt und die meiste Zeit ist es aus.
DLSS kommt nur in Frage wenn ein Spiel garnicht anders lauffähig ist oder aber TAA ins native Bild erzwingt.

So wirklich einen Gebrauch finde ich also nicht.
Mir fehlen die optisch abgespeckten Shooter wo Raytracing sinnvoll und performant eingesetzt wird.
Mal einen rumlungernden Camper im Eck sitzen sehen bevor man ins Verderben rennt wäre mal spannend oder richtige Taktikshooter.
Ob überhaupt noch Entwicklerstudios existieren, die damit mal was Besseres anfangen als nur Grafik, daran hab ich langsam wirklich Zweifel.
 
  • Gefällt mir
Reaktionen: Syrian, Apocalypse und KitKat::new()
Teile ich Nvidias Vision.

Im Kern ja. In der Umsetzung nein. Es ist ja auch an sich schon eine Bankrotterklärung wenn hier viele nur auf CP2077 verweisen. 5 Jahre hat es gedauert um ein Spiel zu bringen wo hier mal eine gewisse Masse sagt - da muss es sein...

Und genau das beschreibt auch das Problem. Proprietäre Lösung die zu wenige Nutzer hat. Irgendwie kommen da PhysiksX Vibes hoch...

Das selbe beim Upscaling. Wobei hier AMD und NV nicht die Hauptschuld tragen. Die Vermutung liegt nahe das einige Studios intern Games schon nur noch so machen das 30-40 FPS nativ bei rum kommen und der Rest soll dann das Upscaling machen...

Sorry, für mich als Spieler ist das aber eine Tendenz die ich wirklich nicht begrüßen kann. Sie ist sogar so schlimm das sie dem PC Gaming massiv schaden könnte.
 
  • Gefällt mir
Reaktionen: Apocalypse und Verak Drezzt
Fegr8 schrieb:
Upscaling ist schön und gut...hat aber auch eine Kehrtseite: Immer mehr Spiele kommen so schlecht optimiert raus das Upscaling zum Zwang wird! Man hofft jetzt irgendwie das durch Upscaling in diesem Teil kosten sparen kann.
No Nvidia verkauft doch trotzdem teure Karten haha
 
Nicht mal beim Joggen bleib ich stehen und schau mir den Schattenwurf meiner Umgebung (Bäume, Gras, Pflanzen usw.) an 😉
 
  • Gefällt mir
Reaktionen: Halema und KitKat::new()
Volles Pathtracing wie in Portal RTX war bis vor wenigen Jahren noch undenkbar. Wer es gespielt hat weiß, wie beeindruckend das optisch ist. Die optischen Effekte können auch nicht durch anderen Techniken simuliert werden. Und das läuft heute auf einer High-End GPU bereits mit über 60 FPS in UHD, wenn man DLSS und Frame Generation dazu schaltet. Optische Probleme gibt es zwar, die werden aber demnächst mit Ray Reconstruction angegangen, was die Bildqualität noch einmal deutlich erhöht. In der nächsten Generation könnte man 60 FPS ohne DLSS und Frame Generation erreichen, wenn man wieder so einen Sprung in der RTX-Performance wie von 3xxx auf 4xxx erwartet. Spätestens noch eine Generation danach wird man Pathtracing in viel mehr Spielen sehen.

 
  • Gefällt mir
Reaktionen: MrHeisenberg
Chesterfield schrieb:
Wer den Unterschied im Spielen erkennt zw upscalling und nativ auf Anhieb erkennt, wird wohl eine Ausnahme sein, für alle anderen reicht upscaling.
Das ist leider einfach, wenn die Umsetzung bescheiden bewerkstelligt wurde. Wenn ich DLSS Performance zusätzlich benötige - sieht man es in "schnellen" Shootern (COD, BF, etc.) sofort.

Wenn ich jetzt upscale und mich dabei im ~5-10% Bereich befinde, kann ich das Upscaling auch weglassen. Wenn ich 25-40% mehr Leistung benötige, werde ich das auch immer bei der Qualität sichtbar einbüssen.

Ob ich in einem Singleplayer nun von 57 auf 61fps springe mag möglich sein, ohne einen Unterschied sofort erkennen zu können, aber es ist einfach nicht relevant.

Meiner Meinung nach sind all diese Techniken Blendwerk.

Hätten Spieleschmieden damit angefangen, so etwas zu implementieren, wäre der Aufschrei groß á la schlecht Portierung etc.pp. - kommt es vom hippen Nvidia schreien alle nach Mehr! :D

Man stelle sich vor, Spiele würden stärker gestauchte Texturen mitliefern, die einem 60fps sichern, aber halt hier und da schlechter aussehen...

"Früher" war alles besser: "Can it run Crisis w/o cheating?"
 
  • Gefällt mir
Reaktionen: Novasun und Chesterfield
Nein, denn ich war schon vor fünf Jahren optimistisch und davon überzeugt, dass in Raytracing und Upscaling die Videospiel-Zukunft liegt. Das sehe ich auch heute noch so.

Sehr fragwürdige Anwortmöglichkeiten.
Ich persönlich halte von Upscaling gar nichts, bin aber davon überzeugt das in Raytracing die Zukunft liegt. Und nun?
 
_roman_ schrieb:
Es fehlt mir der Punkt.

Nein, habe NVIDIA GEFORCE verkauft, da die Treiber und Hardware als Paket unbrauchbar sind
bzw. habe zu AMD gewechselt ... irgend so etwas.
(Ende April 2023)

Wozu, dabei geht es in der Umfrage gar nicht. Btw. bin ich schon zwei mal aus selbigem Punkt von AMD zurück zu NV gewechselt. Da hat wohl jeder seine eigene Meinung/Erfahrung dazu.
 
Die 2000er habe ich ausgelassen. Der Mehrwert zu meiner 1080 Ti war mir, zu den aufgerufenen Preisen, zu gering und die RT-Leistung nicht der Rede wert. Die RTX 3080 war meine erste RT Grafikkarte und hat, trotz ihrer auch so schlechten 10 GB VRAM, die ja angeblich viel zu wenig waren, ihre zwei Jahre locker und ohne Probleme überstanden. Im Gegensatz zur 3000er Serie kam für mich danach nur die 4090 in Frage, da die 4080 deutlich langsamer ist, was bei der 3080 nicht der Fall war.

mcbloch schrieb:
Raytracing war und ist eigentlich eine Totgeburt gewesen.
Sehe ich nicht so. Erst seit es Raytracing gibt, hat man in Spielen tatsächlich funktionierende Spiegel und andere spiegelnde Oberflächen wie z. B. in Spider-Man oder Hogwarts Legacy. Vorher durfte man sowas mit der Lupe suchen. Ich will nicht mehr darauf verzichten.
 
  • Gefällt mir
Reaktionen: Gsonz
met schrieb:
Sehr fragwürdige Anwortmöglichkeiten.
Ich persönlich halte von Upscaling gar nichts, bin aber davon überzeugt das in Raytracing die Zukunft liegt. Und nun?
Einfach kombinieren haha
 
Exklusive Features setzen sich in der Regel nie durch.
Das hat uns die Geschichte mehrmals deutlich vor Augen geführt.
Es siegen immer die Features, die es möglichst kostenkünstig für alle gibt.
Deshalb sind Dinge wie Physix (vor allem diese Beschleunigerkarten vor dem Aufkauf durch NVidia hatten keine ernsthafte Zukunft) und G-Sync (bis zu 200 Euro für die Platine in einem Monitor) tot, oder fristen ein Nischendasein.
Mit den VR-Headsets geht es ja auch schon wieder den Berg runter.
Ein Kollege war so gehypt, hat sich alles gekauft - und nach ein paar Games dann wieder verkauft.
Man spricht damit nur Enthusiasten und die anspruchsvollen Gamer an.
An den einfachen Gamer und vor allem die ganz breite Masse geht so etwas letztendlich immer vorbei.
Weil die Unterstützung der gespielten Spiele durchgehend nicht vorhanden ist, und auch nicht die Bereitschaft für höhere Kosten akzeptiert wird.
Vor allem, weil die Nutzbarkeit oft auch entsprechende gehobene, spezielle Hardware verlangt, was ja eh schon grundlegend ein Widerspruch in sich ist.
Da braucht man kein studierter Analytiker sein, um das erkennen zu können.
Deswegen hat RTX auch keine goldene Zukunft zu erwarten.
AMD und Intel werden mit dem offenen System auf jeden Fall siegen.
Ich kaufe mir auf jeden Fall keine NVidia Karte mehr.
Das ist die einzig richtige Entscheidung, die jeder treffen sollte.
Bei Software ist das ähnlich.
Bevor ich Microsoft viel Geld für Office bezahle und meine Daten bei denen in der Cloud speichere und ich mich von denen abhängig mache, nutze ich auch lieber Open-Source wie LibreOffice.
Und wenn Windows 12 auf die Cloud geht und sonstige Dinge veranstaltet, bin ich da auch weg und lande bei Linux.
 
Ich bin Besitzer einer AMD RX 6900XT. Soweit ich weiss kann die ein bisschen RT in Hardware. Diese Karte ist es nur geworden, weil das, beim Kauf direkt bei AMD, damals als ich meinen Rechner zusammengestellt habe, die guenstigste Spielekarte war die ich bekommen konnte.
Die Karte davor war eine GTX 1080.

Grafik hat fuer mich schon vor einigen Jahren einen Punkt erreicht wo ich sage: Das reicht, das ist gut genug. Eine Grafik die zu realistisch ist gefaellt mir paradoxerweise oft weniger gut als stilisierte, aber schlechtere Grafik. Raytracing habe ich zwar tatsaechlich noch nicht live gesehen, aber auf vielen Screenshots wirkt die resultierende Beleuchtung einfach "falsch". Und wenn es dann darin resultiert das man im Spiel weniger sieht, waere es etwas was ich nicht aktivieren wuerde.

Nein, ich war schon vor fünf Jahren nicht von Raytracing und Upscaling in Spielen überzeugt und bin es heute immer noch nicht. Das wird sich nicht durchsetzen.
Bei dieser Antwort haette ich mir eine andere Formulierung gewuenscht.
Ich halte aktuell von Raytracing und Upscaling nichts, meine RX 6900XT kommt bei WQHD ohne RT und ohne AA mit allem klar ohne Upscaling zu brauchen. Aber ich denke dennoch das diese Technik sich durchsetzen wird, bzw. wenn man aktuelle Diskussionen bei den neuen Releases anschaut, sich schon laengst durchgesetzt hat.
 
Zurück
Oben