- Registriert
- Aug. 2024
- Beiträge
- 70
Ich hoffe das sie aber trotzdem FSR 3 weiterentwickeln. Das sollten erstmal Probleme wie sehr Starkes flimmern und übertriebenes Ghosting behoben werden, bevor sie ein neues FSR entwickeln.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Also ich gehe schon mal nicht davon aus, dass wir bei der 5090 wieder 60-70% auf die 4090 sehen werden und wenn sich das Lineup so verhalten würde wie Ada, müsste eine 5060Ti dann langsamer als eine 4060Ti sein, von daher gehe ich davon aus, dass es etwas gleichmäßiger wird.Rickmer schrieb:Ich frag mich, ob das bei der 5000er Serie so weiter gehen wird, oder es wieder über die gesamte Produktpalette brauchbare Mehrleistung gibt.
Komisch, AMD hat es hinbekommen, aber Nvidia würde es nicht hinkriegen. Klar...gartenriese schrieb:Hast du Raytracing auf einer GTX 1xxx ausprobiert? Das hat Nvidia auf drängen der Spieler aktiviert und was war das Ergebnis? Es lief ultra schlecht. Genauso wäre es mit DLSS FG auf einer RTX 3xxx gewesen. Es fehlt einfach die passende Hardware dafür.
Vielleicht gibt es eine abgespeckte Variante wie bei XeSSTaxxor schrieb:Unwahrscheinlich, da man dafür die AI Einheiten brauchen wird. Ich wäre sehr erstaunt, wenn es auf Karten unterhalb von RDNA3 laufen würde.
ex2j schrieb:(...) Finde es frech von NVIDIA, dass sie die 3 stufe exclusive für die 4000 Reihe anbieten, weil die gpu gen sonst nur maue Steigerungen erbracht hätte
Ampere war die Schrottgeneration kombiniert den dreisten BestGenEver-Versprechungen, die nur durch die Lieferengpässe gerettet werden konnte; Ada ist ordentlich, aber nichts bewegendes. Unterm Strich bringen beide gemeinsam das, was eine anständige Generation sonst gebracht hätte bzw. früher gebracht hat. In beiden Generationen wurde enormes Schindluder mit SKU-Benennungs-Zuordnungen zu einzelnen Chips und mit dem Wählen von OutOfTheBox-Powertargets getrieben.Taxxor schrieb:Gilt aber auch nur für den unteren Bereich.
Die 4090 ist 70-80% schneller als die 3090
Die 4080 ist 50-60% stärker als die 3080,
Die 4070Ti ist 50% stärker als die 3070Ti,
Die 4070 ist 25-30% stärker als die 3070
Dann muss aber DLSS FG extrem schlecht optimiert sein, denn gemoddetes FSR FG läuft auf alten Karten ohne Probleme mit der gleichen Qualität wie DLSS FG. Und wenn man dann DLSS Upscaling + FSR FG nutzt hat man auf den 3000er Karten das gleiche ergebnis wie bei Nvidia. Also ist entweder DLSS FG richtig schlecht umgesetzt oder einfach eine schlechte ausrede von NV für mehr Geld.gartenriese schrieb:Hast du Raytracing auf einer GTX 1xxx ausprobiert? Das hat Nvidia auf drängen der Spieler aktiviert und was war das Ergebnis? Es lief ultra schlecht. Genauso wäre es mit DLSS FG auf einer RTX 3xxx gewesen. Es fehlt einfach die passende Hardware dafür.
Ja, weil Nvidias Ansatz bewusst ein anderer ist. Nvidias Ansatz ist der Wegbereiter für DLSS4 um zukünftige Frames bereits vorzuberechnen und je nach Bewegungsvektoren ein Bild zwischen zukünftiges, aktuelles und altes einzufügen.DrFreaK666 schrieb:Komisch, AMD hat es hinbekommen, aber Nvidia würde es nicht hinkriegen. Klar...
Nunja, die 3080 war schon deutlich schneller als die 2080, weil man auch zum größeren Chip gegriffen hat.CDLABSRadonP... schrieb:Ampere war die Schrottgeneration kombiniert den dreisten BestGenEver-Versprechungen, die nur durch die Lieferengpässe gerettet werden konnte;
Früher (2005-2020) war eine Generation mit ~70% mehr Performance in der Spitze nicht häufig, sondern die Ausnahme. Selbst die 4080 überflügelte die 3080 um 50%, bei Pathtracing noch mehr.CDLABSRadonP... schrieb:Ada ist ordentlich, aber nichts bewegendes. Unterm Strich bringen beide gemeinsam das, was eine anständige Generation sonst gebracht hätte bzw. früher gebracht hat.
AMD kam ja nicht hinterher. Ergo verkaufte man die 4060 als 4060Ti und die 4060Ti als 4070.CDLABSRadonP... schrieb:In beiden Generationen wurde enormes Schindluder mit SKU-Benennungs-Zuordnungen zu einzelnen Chips und mit dem Wählen von OutOfTheBox-Powertargets getrieben.
FSR kam ein Jahr nach DLSS2.0, ergo ist nicht die erste Iteration von DLSS der Gegner.CDLABSRadonP... schrieb:FSR 1 schlägt klar DLSS 1, was echt blamabel für Nvidia ist.
Wenn du Vergleiche anstellst, dann sollten die schon vergleichbar sein, sprich zur gleichen Zeit.CDLABSRadonP... schrieb:FSR2 kann mit den frühen, nicht aber mit den späten Iterationen von DLSS Super Resolution mithalten.
Von "besser" sehe ich nicht viel und über ein Jahr danach, gestartet mit schweren Problemen, die zum Teil immer noch bestehen, willst du nichts wissen. Der Berechnungsansatz ist zwischen AMD und Nvidia schlicht ein anderer. Nvidia setzt auf die Tensor Cores, AMD nicht. Beides ist etwa gleichwertig.CDLABSRadonP... schrieb:FSR3 Frame Generation ist schlicht und ergreifend beeindruckend und stellt Nvidia abermals bloß, denn AMD realisiert etwas, wofür Nvidia Extra-Hardware braucht, einfach so und besser.
Korrekt und daher hilft AMD auch das Frame Generation wenig, auch wenn es bei manchen Spielen etwas mehr Performance bringt.CDLABSRadonP... schrieb:Aber das Killerfeature ist nun einmal genau der Bereich, indem FSR bislang schlecht ist.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
In dem Fall war der Ansatz von AMD besser. Im Gegensatz zum Upscaling merkt man bei Frame Generation nicht, dass keine extra Hardware eingesetzt wird. Auf dem Papier mag FSR FG nur 80% so gut sein wie DLSS FG, aber in der Praxis fällt es fast keinem auf.Raidr schrieb:Dann muss aber DLSS FG extrem schlecht optimiert sein, denn gemoddetes FSR FG läuft auf alten Karten ohne Probleme mit der gleichen Qualität wie DLSS FG. Und wenn man dann DLSS Upscaling + FSR FG nutzt hat man auf den 3000er Karten das gleiche ergebnis wie bei Nvidia. Also ist entweder DLSS FG richtig schlecht umgesetzt oder einfach eine schlechte ausrede von NV für mehr Geld.
Klar würde Nvidia auch eine alternative FG-Variante hinbekommen, die dann nur 80% so gut ist, aber das wäre PR-technisch ziemlich schlecht 😅DrFreaK666 schrieb:Komisch, AMD hat es hinbekommen, aber Nvidia würde es nicht hinkriegen. Klar...
Also im gespräch wurde wohl einsatz in Handhelds angesprochen bezüglich FSR4. Da aber Die APu‘s nur Rdna3 haben und die neuen Rdna3.5 glaube ich nicht das es Rdna4 benötigt.Philste schrieb:Ich denke aber nicht, dass das schon mit RDNA4 kommen wird. Dafür bräucht AMD erstmal KI/Tensor Einheiten. Wenn die Gerüchte zu den Die Größen von RDNA4 stimmen
Die neuen APUs besitzen aber eine NPUNorthstar2710 schrieb:Da aber Die APu‘s nur Rdna3 haben und die neuen Rdna3.5 glaube ich nicht das es Rdna4 benötigt.
Gibts dafür auch einen Titel/Preis? Intel wär da ein starker Konkurrent!Tornavida schrieb:AMD, die Meister der grossen Ankündigungen.
Hä wie soll das gehen? DLSS 4 soll dann verschiedene Frames für verschiedene Vektoren vorher berechnen. Da geht doch Leistung verloren. Und dann will man 40-50% rausholen? Da bin ich ja mal sehr gespannt?Quidproquo77 schrieb:Ja, weil Nvidias Ansatz bewusst ein anderer ist. Nvidias Ansatz ist der Wegbereiter für DLSS4 um zukünftige Frames bereits vorzuberechnen und je nach Bewegungsvektoren ein Bild zwischen zukünftiges, aktuelles und altes einzufügen.
Das soll mit Blackwell kommen und nochmal rund 40-50% mehr Leistung bringen um dann volles Pathtracing selbst auf Mittelklassekarten flüssig anbieten zu können. AMD wird daran wieder 1-2 Jahre zu knabbern haben, wenn nicht länger.
Genau, habe auf 120FPS limitiertTaxxor schrieb:Permanente ruckler, also wirklich konstante, deuten auf das vorhandensein externer FPS Limiter hin, die mit FG meist nicht funktionieren. War das bei dir zufällig der Fall?