Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen
Man könnte einfach mal die Realität aktzeptieren und verstehen das das klassische rasterizing spätestens mit dem Einsatz von Raytracing veraltet ist und was neues her muss.
Akzeptieren? Wow. Ansprüche echt niedrig bei dir. Ich will Nativ zocken und keine KI die das alles Hochrechnet etc. Raytracing braucht echt fast niemand. Ist einfach nur Spielerrei aktuell.
Darf man fragen, wieso? Die "Nativkeule" zieht eigentlich schon länger nicht mehr, sprich du hast sehr häufig ein schlechteres Bild und auch noch weniger fps. Würde mich tatsächlich ganz nüchtern interessieren, warum man das bevorzugt.
Es ist überhaupt nicht die Rede, die Leistung zu verbessern. Das ist nur ein positiver Nebeneffekt. In erster Linie soll die Bildqualität gerade bei Full Pathtraced Spielen besser werden.
Da bin ich mal auf die FPS der 4060 / TI bei Full Pathraced spielen gespannt.
Ich sage ja auch nichts gegen die Technologie an sich, aber einige reduzieren echt alles nur noch darauf. Vielleicht bin ich deshalb etwas dünnhäutig bei dem Thema.
Also ich spiele Portal RTX und Portal RTX Prelude mit meiner RTX 2080. Da kann ich schon spürbar von dem verbesserten Denoiser profitieren. Gerade bei niedrigen Raycounts.
Freue mich schon auf Half-Life 2 RTX das bald mit RTX Remix mit Pathtracing kommt.
Wie man auf den Beispiel Fotos von Nvidia wieder mal eindeutig erkennen kann, ist das DLSS 3.5 Ergebnis deutlich unschärfer verglichen zu nativ, wie auch vorher schon bei DLSS 3.0. Jetzt brauchen auch nicht wieder alle möglichen Leute daher kommen, die das Gegenteil behaupten, dass DLSS deutlich besser aussehn mag als nativ, was einfach völliger Unfug ist. Wenn ich die mehr FPS nicht brauche und mit 4k@60 zufrieden bin, werde ich ganz sicher nicht DLSS aktivieren, nativ sieht einfach besser aus.
Alles gut. Ich hab es schon verstanden wie es gemeint ist.
Frame Generation erhöht die Latenz und den Inputlag. Das mag bei Singleplayerspielen ok sein aber nicht im Multiplayer.
Zwar ist bei Einsatz von Frame Generation, Nvidia Reflex aktiv und senkt die Latenz wieder, in manchen Titel klappt das gut, in anderen Games weniger.
Und hier ist der Punkt spielt man ein Multiplayer Game wo Reflex beim Einsatz von FG nicht so gut funktioniert hat man zum Beispiel in schnellen Multiplayer PVP Shootern bereits einen Nachteil. Zwar senken höhere FPS auch Latenz etc. aber eben nur echte FPS und keine generierten Frames.
Bei Upscaling ist es das Gleiche, ist es gut implementiert okay, ist es schlecht umgesetzt im Game erkennt man eventuell Gegner schlechter und damit zu spät.
Zudem erhöht DLSS Upscaling die CPU Last durch die niedriger gerenderte Auflösung.
Gerade in CPU lastigen Games wie Escape from Tarkov, Warzone, Battlefield usw. wird die CPU stärker belastet und man verliert einen Teil der FPS die man durch die Entlastung der GPU vielleicht gewonnen hat.
Ergänzung ()
Convert schrieb:
Hmm, braucht AMD nun wirklich so lange für FSR3 auf RX7000, oder hat man jetzt nur so lange gebraucht, weil man noch die RX6000 unbedingt noch aufwendig unterstützen wollte? Oder hat man so lange einfach gewartet, um den Abverkauf der RX6000-Serie nicht zu gefährden?
wie gut, das meine Zeiten mit "schnellen" Shootern schon lange vorbei sind. Mit dem Alter lässt die Reaktionszeit deutlich nach und Multiplayer war noch nie wirklich so mein Ding 🙂
Das mit dem Framegenerator ist echt eine interessante Sache. Bin mal gespannt wann ich diese Option frühstens einsetzen muss um die optimale FPS für Vsync zu bekommen.
Ok, nachdem ich das Video dazu gesehen habe und auch nochmal auf das Bild geschaut habe, macht es ein wenig mehr Sinn.
Wenn das Bild auf hoher Geschwindigkeit aufgenommen wurde, macht es ein wenig mehr Sinn, weil dann durch das Überlappen von vorherigen Frames evtl so Effekte enstehen könnten. Das ist mir so noch nie aufgefallen, deshalb hatte ich daran gar nicht gedacht.
Ich spiele zu 90% nur kompetitive Shooter. Da brauch man die ganzen Spielereien nicht.
Alles auf Low.. Vielleicht ab und an mal die Texturen bissi höher das wars
Nichtmal FreeSync/G-Sync wird da genutzt.
Singleplayer Story Games sind BORING... und wahrscheinlich die einzigen Games in denen man das alles nutzt.
(wer will schon NPC's und langweilige KI Gegner besiegen/killen)
Nachdem jeweils immer der Termin, der oftmals ohne Nachweis propagiert wurde, verstrichen war und es entsprechend Nachfragen gab, wurde darauf nicht weiter eingegangen. Dürfte auch hier nicht geschehen.
Atnam schrieb:
Aber dieses konsequente AMD Fanboy'n in jedem Thread in dem er posted ist nur noch anstrengend.
Ich selbst finde: er schädigt damit AMD in meinen Augen mehr als dass es nützt. AMD hat gemeinhin den Ruf, zeitlich immer etwas "hinterher" zu sein und sich Zeit zu lassen/zu verschieben. Dabei stetig propagieren, dass AMD XYZ zum Zeitpunkt ABC bringen wolle (ohne Nachweis), und das dann doch nicht klappt, zementiert am Ende ungewollt diesen Ruf weiter.
Da sind am Ende alle frustriert.
MMIX schrieb:
Diskussion eigentlich unnötig und dennoch ein ernst gemeintes Lob an AMD das man als Nvidia User die volle Auswahl hat.
Ja, eines der "Probleme" bei AMDs offenen Ansatz, das mit den anderen "Problemen"
(hinsichtlich Leistung und Preis nehmen sich AMD und NVidia nicht viel (mit ein paar Ausnahmen), siehe auch der schöne FPS/€ bzw. P/L Graph bei den Grafikkartentests hier auf CB)
es schwierig macht, eine AMD Karte zu empfehlen oder zu kaufen.
Man hat mit einer NVidia Karte in der Hinsicht momentan die größere Auswahl, sofern FSR bzw. DLSS für Performance/weiteres Stromsparen etc. benötigt werden.
Taurus104 schrieb:
Ich bin heute schon auf die großen Augen selbst der größten Fans von Nvidia gespannt wenn sie 2025 dann die Preise von Blackwell erblicken.
Nun, AMD könnte da momentan eine preisliche Alternative sein (worüber ich wieder sehr froh wäre), was sie leider aber nicht sind. Gegen dieses Argument hast du in anderen Beiträgen geäußert, dass AMD die Margen Schiene fährt, was schlicht gleich zu NVidia ist.
Die Frage, die sich mir da stellt ist schlicht, warum dich die preisliche Entwicklung bei NVidia stört und du es mehrfach anprangerst (auch die Kunden mit einbeziehst), bei AMD jedoch relativierst?
Ähm, du bist mit ner 4090 für 1,6K in 1440p aktuell mit ca 30FPS dabei komplett ohne DLSS
Ergänzung ()
dernettehans schrieb:
Wie man auf den Beispiel Fotos von Nvidia wieder mal eindeutig erkennen kann, ist das DLSS 3.5 Ergebnis deutlich unschärfer verglichen zu nativ, wie auch vorher schon bei DLSS 3.0.
Zeig mir bitte die Stelle in meinem Posting, wo ich geschrieben habe, dass das "beim mir gerade ständig" passiert.
Zeig sie mir, ich warte.
Außerdem muss man gar nicht erst 1-2 Jahre in die Zukunft schauen. Gibt ja bereits jetzt genügend Beispiele für Games in denen selbst in FullHD 8GB schon nicht mehr reichen. Ganz ohne DLSS.
Schaltet man dann auch noch DLSS hinzu, gibts direkt deutliche Speicherprobleme.
Da bleibt einem dann nichts weiter übrig, als die Spieleinstellungen zu reduzieren.
Das ist vielleicht bei 0,5 Prozent der Spiele der Fall. Und das sich der Speicherbedarf vor der nächsten Konsolengeneration drastisch erhöhen wird ist auch Schwachsinn.
Ergänzung ()
GeleeBlau schrieb:
Hatte letztens Red Dead Redemption 2 in 1440p gespielt und 57fps gehabt auf ultra. Habe dann DLSS quality eingestellt und hatte 58fps.
Habe mir da irgendwie mehr erhofft.
Man könnte einfach mal die Realität aktzeptieren und verstehen das das klassische rasterizing spätestens mit dem Einsatz von Raytracing veraltet ist und was neues her muss.
Der war gut. Fakt ist - solange eine 1.6k teure GPU nicht mal in der Lage ist die Technik sauber umzusetzen (mit entsprechenden Frames) - solange muss sich niemand ernsthafte sorgen im Raster Lager machen.... Wir werden noch lange damit leben.
Und einen viel größeren Impact wird haben was AMD für Sonys neue PS liefern wird. Die UE5 wirft ja auch bereits ihre Schatten voraus..
Das soll nicht bedeuten das RT bedeutungslos ist. Sondern wir sind erst am Anfang und haben noch einen weiten Weg zu gehen bevor das überhaupt was ersetzt.
Ergänzung ()
Convert schrieb:
Oder hat man so lange einfach gewartet, um den Abverkauf der RX6000-Serie nicht zu gefährden?
Wo bitte würde FSR3 den Abverkauf gefährden. Das wäre ja nur der Fall, wenn man es wie NV machen würde und sagen würde FSR3 ist 7xxx exklusiv..
Ansonsten wies FSR3 eher den Verkauf fördern... Denn es wird ne 6950 weiter aufwerten...