Test FSR 3.1 vs. FSR 2/3 vs. DLSS im Test: Vergleich zeigt Licht und nach wie vor viel Schatten

MaverickM schrieb:
@B3rry
Was redest Du da für einen groben Unfug?
Wie wäre es, wenn man in meine Beiträge nicht Sachen hineininterpretieren würde, die gar nicht drin stehen?

Und lass das Plenken!
Na dann bring doch mal deine Zahlen. Konntest du beim letzten mal auch schon nicht weil sie nur in deiner Träumerei existieren. Kannst du denn mal liefern ? Nein oder ?
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
lynx007 schrieb:
Aber sowohl ATI wie auch AMD, hatten richtig gute GPUs! Und das dann nicht "jeder" trotzdem zu NV gegriffen hat, lässt sich halt auch feststellen.

Und was habe ich nun anderes gesagt!?
Zu der Zeit hätte AMD deutlich an Marktanteil gewinnen müssen. Haben sie aber nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
@MaverickM Doch, eine Flipchart richtig zu interpretieren, x, y, Achse, so schwer ist es nicht! Bitte!
Und da sieht man ganz deutlich, wen AMD gute, besserer GPUs herausbringt, kauft nicht auch jeder weiter NV. Sobst würde sich der Balken von AMD, nicht nach oben bewegen. Und das Zähle ich grob 9 mal in den letzen 23 Jahren. Also über 9 mal in den letzten 14 Jahren, gab es gute Quartale, wo sich mehr Leute für AMD, nicht NV entschieden haben.
1721393385113.png
 
  • Gefällt mir
Reaktionen: Jagdwurst, raPid-81 und ElliotAlderson
lynx007 schrieb:
besserer Prozessoren

Nochmal: Es geht um die GPU Sparte, nicht CPUs.

Und es wäre schön, wenn Du für solche Daten auch eine Quelle angeben könntest. Nicht, dass die gar nicht relevant ist für den Kontext, weil es offensichtlich der gesamte GPU Markt zu sein scheint. Man muss da natürlich speziell den dGPU Markt betrachten.
 
  • Gefällt mir
Reaktionen: SweetOhm
MaverickM schrieb:
Es geht ausschließlich um die GPU Sparte.
Ah, nur in der GPU Sparte gibt es Fanboys, die immer Nvidia kaufen werden, ganz gleich wie gut AMD ist.
In der CPU Sparte dann nicht mehr :freak:

Mach mal Fenster auf kipp.
 
  • Gefällt mir
Reaktionen: H6-Mobs, raPid-81, Quidproquo77 und 2 andere
ElliotAlderson schrieb:
In der CPU Sparte dann nicht mehr :freak:

Was redest Du für Unfug? Das habe ich nie geschrieben. Dass es Intel Fanboys gibt hat genau was mit der Diskussion im Bereich dedizierte Grafikkarten nVidia versus AMD zu tun? Richtig. Genau gar nichts.
 
  • Gefällt mir
Reaktionen: SweetOhm
MaverickM schrieb:
Nochmal: Es geht um die GPU Sparte, nicht CPUs.

Und es wäre schön, wenn Du für solche Daten auch eine Quelle angeben könntest. Nicht, dass die gar nicht relevant ist für den Kontext, weil es offensichtlich der gesamte GPU Markt zu sein scheint. Man muss da natürlich speziell den dGPU Markt betrachten.
Liefer doch selbst erstmal Daten und Quellen zu deinen Zahlen ?
 
lynx007 schrieb:
FLipchat zeigt ja auch GPU!

Jo, wie ich schon schrieb. Durch die Dominanz von integrierten Grafikeinheiten für die Diskussion aber maximal uninteressant. Man muss schon dedizierte Grafikkarten betrachten.

B3rry schrieb:
Quellen zu deinen Zahlen ?

Halluzinierst Du? Wo habe ich Zahlen genannt?
 
MaverickM schrieb:
Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.


Diese pauschale Aussage ist halt Käse und lässt sich halt widerlegen. Hat AMD schon bei Zen, aber auch NV damals mit 3dfx!

Und passt halt auch überhaupt nicht zu der von mir geposteten Graphen, wo man regelmäßig sehen konnte, dass mehr Leute zu AMD gegriffen haben, als die Quartale davor!

Und würde NV, endlich mal wieder hinterherhinken, dann würde man das auch bei den Abverkäufen merken. Jetzt gerade würde AMD nur wegen des Preises kaufen. Aber nicht, weil sie schneller oder effizienter sind.
 
  • Gefällt mir
Reaktionen: Grestorn und ElliotAlderson
MaverickM schrieb:
Wo habe ich Zahlen genannt?
Nirgends, das ist ja das Problem,
MaverickM schrieb:
Zahlen lügen nicht.
Also auf irgendwelche Zahlen beziehst du dich hier ja anscheinend.

Und die bekannten Zahlen zeigen eben, dass AMDs Marktenteile zwischendurch immer mal wieder gestiegen und dann wieder gefallen sind.
Nach deinen Aussagen wäre das nie passiert, weil alle weiter Nvidia bzw. "nicht das bessere Produkt" gekauft haben.

1721394584559.png

Man sieht ziemlich gut, dass in Zeiten wo AMD gute GPUs hatte, auch der Marktanteil entsprechend höher war. Und wo war er in diesem Zeitraum am Tiefpunkt? Mit den schlechtesten GPUs aus dieser Zeit, den RX300ern und RX Fury.


1721394705207.png



Das Problem bei AMD aktuell ist: Um langfristig wieder mit den Marktanteilen nach oben zu kommen, reicht eine gute Generation nicht aus, da müssen schon 2-3 hintereinander mindestens gleichauf bis besser sein.
Und das war seit es die R GPUs gibt, also seit 10 Jahren, noch nicht der Fall.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn, raPid-81, Quidproquo77 und 2 andere
Also ist man von DLSS-performance wieder eher in Richtung DLSS-Balanced gerückt..
Kann aber DLSS-Quality.. geschweige denn DLAA immer noch nicht das Wasser reichen.

Dafür hat man zwar mittlerweile gutes framegen.. was ordentlich FPS rausholen kann Gegensatz zu DLSS-FG.. macht sich das ganze aber mit den Latenzen zunichte
 
Blackfirehawk schrieb:
Dafür hat man zwar mittlerweile gutes framegen.. was ordentlich FPS rausholen kann Gegensatz zu DLSS-FG.. macht sich das ganze aber mit den Latenzen zunichte
Gilt aber nur wenn man es auf ner Nvidia GPU nutzt.
FSR FG auf ner AMD GPU hat keine schlechteren Latenzen als DLSS FG auf ner Nvidia GPU
 
  • Gefällt mir
Reaktionen: SweetOhm
Wer in Ultra HD auf einer Radeon RX 7800 XT FSR „Quality“ hinzuschaltet
Wieso der Autor die ganze Zeit Perfomance Qualität benutzt um dann bei dem Geschwindigkeitstest auf Quality zu wechseln muss man wohl nicht verstehen und macht auch absolut keinen Sinn, zumal Quality in 4K overkill ist und man eher Balanced oder Performance benutzen sollte. Totaler nonsense also.

Ansonsten muss ich sagen ist es schade FSR mal wieder stellenweise scheitern zu sehen, auch wenn der Nachteil mit Balanced oder Quality weniger stark sein wird. 4K Performance ist nicht mal das worst case scenario, also geht das setting schon klar zum testen hier.

Eine Vermutung habe ich jedoch, dass die Implementierung von FSR 3.1 nicht richtig gemacht wurde, entweder das, oder 3.1 ist schlichtweg fehlerhaft was zb Ghosting betrifft. Wenn es aber in einem Spiel weniger ghosting hat als in einem anderen ist das schon beachtlich. Hier kommt wahrscheinlich zum tragen das Nvidia einfach das viel größere driver/dev-Team hat, und somit Dinge schneller bearbeiten oder fixen kann, daher ist DLSS konsistenter als FSR. Beachtlich ist aber eben das wenn FSR ordentlich implementiert ist, der Unterschied zu DLSS minimal wird, oder ignorierbar ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
"Upsampling ist in modernen Spielen nicht mehr wegzudenken und wird das klassische Rendern in „nativer“ Auflösung bald vollständig ablösen."

aha sagt wer? warum? hat CB schon aufgegeben? hoffentlich nicht!

immer dieses verallgemeinern! gibt genug die auf solche Spielereien verzichten bzw. die eh nix davon wissen. da wird das spiel gestartet und gut ist.
alles Technologien wo versprochen wurde, so bekommt man auch mit wenig Geld spielbare fps. jetzt braucht man den Mist für den schnellsten Prozessor und beste Grafikkarte! ja ned ist klar.
irgendwelche fake künstliche Bilder eingeschoben um die FPS Anzeige zu schönen und die Leute fressen es! wtf
Latenzen steigen und dann wird probiert mit anderen Tricksereien wieder die Kuh vom Eis zu bekommen.
nativ, ordentlich eingestellt ist immer noch das beste Gefühl! Die Quatscher hier spielen ja sowieso nicht! Stieren auf die FPS Anzeige und vergleichen die Grafik... WAYNE verdammt!

erinnere mich noch an aussagen wie, spiel ist so schlecht optimiert. jetzt soll es damit gerichtet werden.
Gibt genug bsp. die Top Optimiert sind. Nativ sauber laufen. Top spielgefühl! Wo der ganze quatsch unnötig ist.

Wäre schön wenn die Presse NV mal lieber in den Allerwertesten tritt, das die VRAM der Karten eine Zeitgemäße größe aufweisen. Nicht nur auf irgendwelche proprietären Gimmicks geschaut und über den grünen Klee gelobt wird.

wer jetzt auf einen 4k Monitor gesetzt hat, der kommt wohl bei dem ein oder anderen Spiel nicht drum rum... erst recht wenn keine absolute Highend Hardware gekauft wurde. Aber so war das auch mal bei FHD!

sind für mich unterm Strich alles nur halbgare Krücken. was da investiert wurde... wäre wo anders besser aufgehoben gewesen! ECHTE bessere Grafik kann man nicht ertricksen!

MfG
 
  • Gefällt mir
Reaktionen: Jagdwurst und SweetOhm
Eigenartig. Bei mir ist Got viel besser mit FG. (7900xt) 120 fps fest und super geschmeidig.

Übrigens funktioniert chill mit FG. (Jetzt?)
Wenn z.b. kein Limiter im Spiel ist, ist das super.

Ratchet und Clank kann ich auch 50-55 einstellen und habe dann ein sehr geschmeidiges Spielgefühl so.
 
  • Gefällt mir
Reaktionen: SweetOhm, Creekground und metoer
ElliotAlderson schrieb:
In den meisten Spielen läuft TAA und das ist häufig wesentlich schlechter als die Upscaler.
Das finde ich so extrem befremdlich
In Division 1 war TAA das ultimative Mittel ein glattes Bild zu bekommen, quasi kostenlos. Nix unschärfe, nix schlieren, nix verwaschen.
Danach, als häufiger TAA eingesetzt wurde, oh Gott, was fabrizieren die Entwickler für ein Schrott...................

Ich glaube The First Desencend war es, wo so starkes nachziehen hatte mit TAA, wo ich sofort Kopfschmerzen bekam.
 
  • Gefällt mir
Reaktionen: SweetOhm
Czk666 schrieb:
Eigenartig. Bei mir ist Got viel besser mit FG. (7900xt) 120 fps fest und super geschmeidig.
Wundert mich nicht, habe schon öfter gehört das es manchmal funktioniert und manchmal nicht, ist wahrscheinlich ein bug. Interessant ist auch das AMD FG recht gut ist im Vergleich zu DLSS FG, sogar eher besser overall, da die Qualität mithalten kann und die Performance eigentlich immer besser ist.
 
  • Gefällt mir
Reaktionen: SweetOhm und Czk666
Taxxor schrieb:
Wenn ich die Wahl zwischen 2 Produkten habe, dann ist "B ist zwar nicht so gut wie A, aber auch nicht unbenutzbar" aber auch kein Kaufargument
Upscaling ist aber kein Produkt, es ist ein Feature/Funktion eines Produktes.

Nicht für jeden Käufer ist ein bestimmtes Feature, hier im Thema Upscaling, ein ausschlaggebendes Kaufargument.

Auch wenn das in der Entusiasten Bubble, Viele nicht wahrhaben wollen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben