Na dann bring doch mal deine Zahlen. Konntest du beim letzten mal auch schon nicht weil sie nur in deiner Träumerei existieren. Kannst du denn mal liefern ? Nein oder ?MaverickM schrieb:@B3rry
Was redest Du da für einen groben Unfug?
Wie wäre es, wenn man in meine Beiträge nicht Sachen hineininterpretieren würde, die gar nicht drin stehen?
Und lass das Plenken!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test FSR 3.1 vs. FSR 2/3 vs. DLSS im Test: Vergleich zeigt Licht und nach wie vor viel Schatten
lynx007 schrieb:Aber sowohl ATI wie auch AMD, hatten richtig gute GPUs! Und das dann nicht "jeder" trotzdem zu NV gegriffen hat, lässt sich halt auch feststellen.
Und was habe ich nun anderes gesagt!?
Zu der Zeit hätte AMD deutlich an Marktanteil gewinnen müssen. Haben sie aber nicht.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.827
@MaverickM Doch, eine Flipchart richtig zu interpretieren, x, y, Achse, so schwer ist es nicht! Bitte!
Und da sieht man ganz deutlich, wen AMD gute, besserer GPUs herausbringt, kauft nicht auch jeder weiter NV. Sobst würde sich der Balken von AMD, nicht nach oben bewegen. Und das Zähle ich grob 9 mal in den letzen 23 Jahren. Also über 9 mal in den letzten 14 Jahren, gab es gute Quartale, wo sich mehr Leute für AMD, nicht NV entschieden haben.
Und da sieht man ganz deutlich, wen AMD gute, besserer GPUs herausbringt, kauft nicht auch jeder weiter NV. Sobst würde sich der Balken von AMD, nicht nach oben bewegen. Und das Zähle ich grob 9 mal in den letzen 23 Jahren. Also über 9 mal in den letzten 14 Jahren, gab es gute Quartale, wo sich mehr Leute für AMD, nicht NV entschieden haben.
lynx007 schrieb:besserer Prozessoren
Nochmal: Es geht um die GPU Sparte, nicht CPUs.
Und es wäre schön, wenn Du für solche Daten auch eine Quelle angeben könntest. Nicht, dass die gar nicht relevant ist für den Kontext, weil es offensichtlich der gesamte GPU Markt zu sein scheint. Man muss da natürlich speziell den dGPU Markt betrachten.
ElliotAlderson
Lieutenant
- Registriert
- Juni 2024
- Beiträge
- 879
Ah, nur in der GPU Sparte gibt es Fanboys, die immer Nvidia kaufen werden, ganz gleich wie gut AMD ist.MaverickM schrieb:Es geht ausschließlich um die GPU Sparte.
In der CPU Sparte dann nicht mehr
Mach mal Fenster auf kipp.
ElliotAlderson schrieb:In der CPU Sparte dann nicht mehr
Was redest Du für Unfug? Das habe ich nie geschrieben. Dass es Intel Fanboys gibt hat genau was mit der Diskussion im Bereich dedizierte Grafikkarten nVidia versus AMD zu tun? Richtig. Genau gar nichts.
Liefer doch selbst erstmal Daten und Quellen zu deinen Zahlen ?MaverickM schrieb:Nochmal: Es geht um die GPU Sparte, nicht CPUs.
Und es wäre schön, wenn Du für solche Daten auch eine Quelle angeben könntest. Nicht, dass die gar nicht relevant ist für den Kontext, weil es offensichtlich der gesamte GPU Markt zu sein scheint. Man muss da natürlich speziell den dGPU Markt betrachten.
lynx007 schrieb:FLipchat zeigt ja auch GPU!
Jo, wie ich schon schrieb. Durch die Dominanz von integrierten Grafikeinheiten für die Diskussion aber maximal uninteressant. Man muss schon dedizierte Grafikkarten betrachten.
B3rry schrieb:Quellen zu deinen Zahlen ?
Halluzinierst Du? Wo habe ich Zahlen genannt?
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.827
MaverickM schrieb:Das würde AMD auch, wenn nVidia hinterher hinken würde. Die breite Käuferschicht ist Beratungsresistent und kauft trotzdem immer nur nVidia.
Diese pauschale Aussage ist halt Käse und lässt sich halt widerlegen. Hat AMD schon bei Zen, aber auch NV damals mit 3dfx!
Und passt halt auch überhaupt nicht zu der von mir geposteten Graphen, wo man regelmäßig sehen konnte, dass mehr Leute zu AMD gegriffen haben, als die Quartale davor!
Und würde NV, endlich mal wieder hinterherhinken, dann würde man das auch bei den Abverkäufen merken. Jetzt gerade würde AMD nur wegen des Preises kaufen. Aber nicht, weil sie schneller oder effizienter sind.
- Registriert
- Mai 2011
- Beiträge
- 21.096
Nirgends, das ist ja das Problem,MaverickM schrieb:Wo habe ich Zahlen genannt?
Also auf irgendwelche Zahlen beziehst du dich hier ja anscheinend.MaverickM schrieb:Zahlen lügen nicht.
Und die bekannten Zahlen zeigen eben, dass AMDs Marktenteile zwischendurch immer mal wieder gestiegen und dann wieder gefallen sind.
Nach deinen Aussagen wäre das nie passiert, weil alle weiter Nvidia bzw. "nicht das bessere Produkt" gekauft haben.
Man sieht ziemlich gut, dass in Zeiten wo AMD gute GPUs hatte, auch der Marktanteil entsprechend höher war. Und wo war er in diesem Zeitraum am Tiefpunkt? Mit den schlechtesten GPUs aus dieser Zeit, den RX300ern und RX Fury.
Das Problem bei AMD aktuell ist: Um langfristig wieder mit den Marktanteilen nach oben zu kommen, reicht eine gute Generation nicht aus, da müssen schon 2-3 hintereinander mindestens gleichauf bis besser sein.
Und das war seit es die R GPUs gibt, also seit 10 Jahren, noch nicht der Fall.
Zuletzt bearbeitet:
Diese Zahlen.MaverickM schrieb:Nein tun sie nicht. Zahlen lügen nicht.
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.373
Also ist man von DLSS-performance wieder eher in Richtung DLSS-Balanced gerückt..
Kann aber DLSS-Quality.. geschweige denn DLAA immer noch nicht das Wasser reichen.
Dafür hat man zwar mittlerweile gutes framegen.. was ordentlich FPS rausholen kann Gegensatz zu DLSS-FG.. macht sich das ganze aber mit den Latenzen zunichte
Kann aber DLSS-Quality.. geschweige denn DLAA immer noch nicht das Wasser reichen.
Dafür hat man zwar mittlerweile gutes framegen.. was ordentlich FPS rausholen kann Gegensatz zu DLSS-FG.. macht sich das ganze aber mit den Latenzen zunichte
- Registriert
- Mai 2011
- Beiträge
- 21.096
Gilt aber nur wenn man es auf ner Nvidia GPU nutzt.Blackfirehawk schrieb:Dafür hat man zwar mittlerweile gutes framegen.. was ordentlich FPS rausholen kann Gegensatz zu DLSS-FG.. macht sich das ganze aber mit den Latenzen zunichte
FSR FG auf ner AMD GPU hat keine schlechteren Latenzen als DLSS FG auf ner Nvidia GPU
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Wieso der Autor die ganze Zeit Perfomance Qualität benutzt um dann bei dem Geschwindigkeitstest auf Quality zu wechseln muss man wohl nicht verstehen und macht auch absolut keinen Sinn, zumal Quality in 4K overkill ist und man eher Balanced oder Performance benutzen sollte. Totaler nonsense also.Wer in Ultra HD auf einer Radeon RX 7800 XT FSR „Quality“ hinzuschaltet
Ansonsten muss ich sagen ist es schade FSR mal wieder stellenweise scheitern zu sehen, auch wenn der Nachteil mit Balanced oder Quality weniger stark sein wird. 4K Performance ist nicht mal das worst case scenario, also geht das setting schon klar zum testen hier.
Eine Vermutung habe ich jedoch, dass die Implementierung von FSR 3.1 nicht richtig gemacht wurde, entweder das, oder 3.1 ist schlichtweg fehlerhaft was zb Ghosting betrifft. Wenn es aber in einem Spiel weniger ghosting hat als in einem anderen ist das schon beachtlich. Hier kommt wahrscheinlich zum tragen das Nvidia einfach das viel größere driver/dev-Team hat, und somit Dinge schneller bearbeiten oder fixen kann, daher ist DLSS konsistenter als FSR. Beachtlich ist aber eben das wenn FSR ordentlich implementiert ist, der Unterschied zu DLSS minimal wird, oder ignorierbar ist.
Zuletzt bearbeitet:
Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.782
"Upsampling ist in modernen Spielen nicht mehr wegzudenken und wird das klassische Rendern in „nativer“ Auflösung bald vollständig ablösen."
aha sagt wer? warum? hat CB schon aufgegeben? hoffentlich nicht!
immer dieses verallgemeinern! gibt genug die auf solche Spielereien verzichten bzw. die eh nix davon wissen. da wird das spiel gestartet und gut ist.
alles Technologien wo versprochen wurde, so bekommt man auch mit wenig Geld spielbare fps. jetzt braucht man den Mist für den schnellsten Prozessor und beste Grafikkarte! ja ned ist klar.
irgendwelche fake künstliche Bilder eingeschoben um die FPS Anzeige zu schönen und die Leute fressen es! wtf
Latenzen steigen und dann wird probiert mit anderen Tricksereien wieder die Kuh vom Eis zu bekommen.
nativ, ordentlich eingestellt ist immer noch das beste Gefühl! Die Quatscher hier spielen ja sowieso nicht! Stieren auf die FPS Anzeige und vergleichen die Grafik... WAYNE verdammt!
erinnere mich noch an aussagen wie, spiel ist so schlecht optimiert. jetzt soll es damit gerichtet werden.
Gibt genug bsp. die Top Optimiert sind. Nativ sauber laufen. Top spielgefühl! Wo der ganze quatsch unnötig ist.
Wäre schön wenn die Presse NV mal lieber in den Allerwertesten tritt, das die VRAM der Karten eine Zeitgemäße größe aufweisen. Nicht nur auf irgendwelche proprietären Gimmicks geschaut und über den grünen Klee gelobt wird.
wer jetzt auf einen 4k Monitor gesetzt hat, der kommt wohl bei dem ein oder anderen Spiel nicht drum rum... erst recht wenn keine absolute Highend Hardware gekauft wurde. Aber so war das auch mal bei FHD!
sind für mich unterm Strich alles nur halbgare Krücken. was da investiert wurde... wäre wo anders besser aufgehoben gewesen! ECHTE bessere Grafik kann man nicht ertricksen!
MfG
aha sagt wer? warum? hat CB schon aufgegeben? hoffentlich nicht!
immer dieses verallgemeinern! gibt genug die auf solche Spielereien verzichten bzw. die eh nix davon wissen. da wird das spiel gestartet und gut ist.
alles Technologien wo versprochen wurde, so bekommt man auch mit wenig Geld spielbare fps. jetzt braucht man den Mist für den schnellsten Prozessor und beste Grafikkarte! ja ned ist klar.
irgendwelche fake künstliche Bilder eingeschoben um die FPS Anzeige zu schönen und die Leute fressen es! wtf
Latenzen steigen und dann wird probiert mit anderen Tricksereien wieder die Kuh vom Eis zu bekommen.
nativ, ordentlich eingestellt ist immer noch das beste Gefühl! Die Quatscher hier spielen ja sowieso nicht! Stieren auf die FPS Anzeige und vergleichen die Grafik... WAYNE verdammt!
erinnere mich noch an aussagen wie, spiel ist so schlecht optimiert. jetzt soll es damit gerichtet werden.
Gibt genug bsp. die Top Optimiert sind. Nativ sauber laufen. Top spielgefühl! Wo der ganze quatsch unnötig ist.
Wäre schön wenn die Presse NV mal lieber in den Allerwertesten tritt, das die VRAM der Karten eine Zeitgemäße größe aufweisen. Nicht nur auf irgendwelche proprietären Gimmicks geschaut und über den grünen Klee gelobt wird.
wer jetzt auf einen 4k Monitor gesetzt hat, der kommt wohl bei dem ein oder anderen Spiel nicht drum rum... erst recht wenn keine absolute Highend Hardware gekauft wurde. Aber so war das auch mal bei FHD!
sind für mich unterm Strich alles nur halbgare Krücken. was da investiert wurde... wäre wo anders besser aufgehoben gewesen! ECHTE bessere Grafik kann man nicht ertricksen!
MfG
Czk666
Lt. Commander
- Registriert
- März 2020
- Beiträge
- 1.780
Eigenartig. Bei mir ist Got viel besser mit FG. (7900xt) 120 fps fest und super geschmeidig.
Übrigens funktioniert chill mit FG. (Jetzt?)
Wenn z.b. kein Limiter im Spiel ist, ist das super.
Ratchet und Clank kann ich auch 50-55 einstellen und habe dann ein sehr geschmeidiges Spielgefühl so.
Übrigens funktioniert chill mit FG. (Jetzt?)
Wenn z.b. kein Limiter im Spiel ist, ist das super.
Ratchet und Clank kann ich auch 50-55 einstellen und habe dann ein sehr geschmeidiges Spielgefühl so.
Das finde ich so extrem befremdlichElliotAlderson schrieb:In den meisten Spielen läuft TAA und das ist häufig wesentlich schlechter als die Upscaler.
In Division 1 war TAA das ultimative Mittel ein glattes Bild zu bekommen, quasi kostenlos. Nix unschärfe, nix schlieren, nix verwaschen.
Danach, als häufiger TAA eingesetzt wurde, oh Gott, was fabrizieren die Entwickler für ein Schrott...................
Ich glaube The First Desencend war es, wo so starkes nachziehen hatte mit TAA, wo ich sofort Kopfschmerzen bekam.
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Wundert mich nicht, habe schon öfter gehört das es manchmal funktioniert und manchmal nicht, ist wahrscheinlich ein bug. Interessant ist auch das AMD FG recht gut ist im Vergleich zu DLSS FG, sogar eher besser overall, da die Qualität mithalten kann und die Performance eigentlich immer besser ist.Czk666 schrieb:Eigenartig. Bei mir ist Got viel besser mit FG. (7900xt) 120 fps fest und super geschmeidig.
N
Nooblander
Gast
Upscaling ist aber kein Produkt, es ist ein Feature/Funktion eines Produktes.Taxxor schrieb:Wenn ich die Wahl zwischen 2 Produkten habe, dann ist "B ist zwar nicht so gut wie A, aber auch nicht unbenutzbar" aber auch kein Kaufargument
Nicht für jeden Käufer ist ein bestimmtes Feature, hier im Thema Upscaling, ein ausschlaggebendes Kaufargument.
Auch wenn das in der Entusiasten Bubble, Viele nicht wahrhaben wollen.
Zuletzt bearbeitet von einem Moderator:
Ähnliche Themen
- Antworten
- 95
- Aufrufe
- 7.503
- Antworten
- 226
- Aufrufe
- 27.560
- Antworten
- 13
- Aufrufe
- 2.208