News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Laphonso schrieb:
Ich kenne noch Leute, die zocken auf einer 1080Ti, weil es geht. Die haben aber auch fast 800 Euro bezahlt vor 5,5 Jahren. Man muss also keine 1500 oder 2500 Euro ausgeben für eine Gaming GPU. Zum Glück :)

Daher ist Dein Argument am Ende auch keines.
Ich habe damals für meine 1080ti knapp 650 gezahlt, die ich auch während des Miningbooms wieder erhalten habe. Und während Viele lieber über die 10GB der 3080 gemosert haben, haben Andere für 6xx zugegriffen und haben eine geile Karte seit Day 1 ,das ist übrigens 2 Jahre her, können die Karte immer noch mindestens für 2 Jahre nutzen je nach Anspruch und oder mit minimalen Verlust wieder verkaufen oder haben in der Zwischenzeit auf eine grössere Karte geuppt oder den Gewinn von der Miningperiode zum Teil in die Tasche gesteckt, sich mit einer günstigeren Karte als Übergang zufrieden gegeben, und haben jetzt ohne sich finanziell strecken zu müssen eine 4090 bestellt oder warten auf die 4080. Die letzten 5 Jahre PC Gaming waren für Viele noch niemals so günstig wenn man nicht zu viel Zeit mit Meckern vergeudet hat und ein wenig mit offenen Augen unterwegs war und das muss man auch sagen, sich für eine NV entschieden hat auch wenn das hier Einige nicht hören wollen.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Im Kontext aber schon, denn die 480 war technisch ein Furz gegen das, was RDNA3 und Ada technologisch bieten.
Die Welt hat sich weiter gedreht, die Inflation auch, R&D Kosten ebenso, Fertigungstechnik erst recht, Expertise kostet mehr denn je.
Nunja, der Aufwand war damals aber auch nicht unbedingt weniger. Mehr ging zu der Zeit halt nicht. Da saß auch niemand, egal in welcher Abteilung, und dachte sich, dass man RDNA3 Niveau auch erreichen könnte, aber man spart sich das ein Jahrzehnt auf und bringt erstmal eine 480. :D Natürlich ist alles teurer geworden, aber Inflation etc. liegen nicht bei 500%-1000% und noch mehr. Wenn sämtliche Produkte im Preis um das steigen würden, was die Grafikkartenhersteller sich erlauben, hättest du gar kein Geld mehr um auch nur überhaupt an eine 4090 zu denken. Dann würde die 200g Butter schon bei 15€ liegen und ein Reifensatz am Opel Corsa ohne Felgen würde für 4000€ über die Ladentheke wandern.
 
piccolo85 schrieb:
Das ist gedacht um ein Spiel von 80FPS auf 140FPS zu heben und nicht um ein Spiel von 20FPS auf 30FPS zu hieven.
Dabei gibt es dann auch keine Probleme mit der Latenz.
Das ist soweit auch okay.

Ich finde DLSS3 frame generation trotzdem nicht so nützlich.

Laut Steam besitzen mehr als 40 Prozent der User eine Grafikkarte die keine 80fps erreicht. (Also Grafikkarten ala 1060 etc ).Ergo profitieren diese User auch nicht von DLSS3.

DLSS3 macht laut deiner eigenen Definition nur Sinn wenn die Hardware eh schon sehr leistungsfähig ist.

-> Es wird ein Problem gelöst das gar nicht existiert.
 
  • Gefällt mir
Reaktionen: cbmik
Magnifico schrieb:
Das ist soweit auch okay.

Ich finde DLSS3 frame generation trotzdem nicht so nützlich.

Laut Steam besitzen mehr als 40 Prozent der User eine Grafikkarte die keine 80fps erreicht. (Also Grafikkarten ala 1060 etc ).Ergo profitieren diese User auch nicht von DLSS3.

DLSS3 macht laut deiner eigenen Definition nur Sinn wenn die Hardware eh schon sehr leistungsfähig ist.

-> Es wird ein Problem gelöst das gar nicht existiert.
Das Feature existiert auch nur für Grafikkarten der 40XX Serien, also bislang nur Grafikkarten weit jenseits der 1500€. Eher weniger ein Feature für Leute, die mit Low-Range Hardware unterwegs sind, also wohl auch entsprechende Displays besitzen.

Ich spiele auf einem 1440p240Hz Monitor und einem 4K120Hz OLED TV.

--> Ich könnte mit dem Feature also sehr wohl etwas anfangen. - Falls denn die Bildqualität passt.
 
Ja klar du gehörst zu den 0,3 Prozent die DLSS 3 nutzen können .

Ich denke das damit den restlichen 99,7 Prozent nicht geholfen wird.

Nvidia hat hier auf jeden Fall die Chance vertan etwas für den Mainstream zu machen.
 
  • Gefällt mir
Reaktionen: h2f
Marcel55 schrieb:
[...]
1. Inputlag, der wird von ca. 30ms auf ca. 100ms erhöht und das merkt man natürlich. Bei Videos ist das egal, bei Spielen kann das funktionieren, aber nicht immer, kommt aufs Spiel an.
[...]
So ein Input-Lag macht das Spielen unmöglich bzw. sehr frustrierend.
Das geht wirklich nur über GPU-Technik wie bspw. Reflex.
Aber das wird AMD auch irgendwann nachma...., ähh, nachreichen. 😅
 
  • Gefällt mir
Reaktionen: DiedMatrix und Pro_Bro
Aber das hat AMD doch schon ne Weile. Anti-Lag schimpft sich das. Sollte doch das selbe sein,oder?!
 
Da wenn ich das richtig im Kopf habe, Reflex mehr als nur den input lag verringern soll, ist es wohl nicht das selbe.
Aber den input lag "nur" reduzieren kann man damit wohl.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
jonderson schrieb:
Sehe ich auch so, Nvidia hat allerdings damit angefangen und die Kundschaft hat es begrüßt, wenn Hardwarehersteller (proprietäre) Software baut und es wurde laut gefordert das AMD nachzieht.

....
Lies doch bitte deinen Hass-Post bevor du ihn veröffentlichst.
So viele Fehler und Copy-Paste. 🤮
 
  • Gefällt mir
Reaktionen: Drakrochma
bit_change schrieb:
Irgendwie lustig… bei der PS4 Pro haben sich die PC-Spieler und Konsolen-Krieger noch lustig gemacht oder aufgeregt das dort oft kein echtes 4K zum Einsatz kommt. Jetzt wird eine nicht native Auflösung (die wohl hervorragend aussieht) als Feature verkauft und alle feiern es.
Sicherlich ist diese Technologie viel weiterentwickelter aber dieses künstliche Aufregen im Netz ist immer wieder faszinierend.
Es gibt halt die eine oder die andere Meinung zu. Ich finde das Native Bild +AA immer noch am besten im ganzen. DLSS2 und FSR2 haben mir noch zu viele Macken. Um die FPS zu pushen für spielbare Ergebnisse sehe ich es ja ein. Das wäre bei mir genau 1 Spiel für was ich das "bräuchte",und zwar Cyberpunk mit Raytracing.

Aber es gibt doch immer welche die Rumblubbern. An der PS4 vorm Fernseher fällt einem das sowieso nicht groß auf ob das Bild jetzt nativ ist oder per Upscaling erzeugt wird.
 
Sly123 schrieb:
Das geht wirklich nur über GPU-Technik wie bspw. Reflex.
Aber das wird AMD auch irgendwann nachma...., ähh, nachreichen. 😅
Gibt es schon. Das nennt sich Radeon Anti Lag.

Radeon Chill reduziert auch den Input Lag.
 
Laphonso schrieb:
RTX40 Framegeneration ist Fake Frames
und AMD's FSR3 ist dann was? ehrliche, wirklich wahrhaftige und nichts als die reine Wahrheits Frames?
schonmal DLSS3 selbst erlebt und einen angeblichen Unterschied zu non-Fake frames wahrgenommen?
 
Du hast die Ironie dahinter leider nicht erkannt ;) also nochmal lesen....

Ich bin der Framegeneration auch kritisch eingestellt. Egal ob von Nvidia oder AMD.
Genauso wie bei DLSS oder FSR , die Techniken haben auch ihre Nachteile.
Ich feier nicht alles was von AMD kommt,auch wenn ich bestimmt ein AMD"Fanboy" bin.

Ich denke man sollte Menschen nicht in Schubladen stecken,was hier im Forum aber sehr häufig vorkommt. Es gibt viele Idioten die meinen ihre Marke bis aufs Blut verteidigen zu müssen,warum auch immer.
 
  • Gefällt mir
Reaktionen: Laphonso
ichnunwieder schrieb:
und AMD's FSR3 ist dann was? ehrliche, wirklich wahrhaftige und nichts als die reine Wahrheits Frames?
schonmal DLSS3 selbst erlebt und einen angeblichen Unterschied zu non-Fake frames wahrgenommen?
Das war komplett ironisch gemeint wie @Ghostfacekalle schon erwähnt hat :)

Ich persönlich halte diese Technologie für einen fantastischen Türöffner:
4K Psychosettings (= Ultra plus) Raytracing in Cyberpunk über 100 Fps ist völlig irre!

RTX40 Frame Generation über die Optical FLow Accelerators ist jetzt aber dort, wo Raytracing und DLSS 1 im Herbst 2018 waren. Vom ersten Raytracing in Battlefield V und erstem DLSS in Final Fantasy XV spricht heute niemand mehr.

Nun warten wir mal ab wie FSR 3 am Ende aussieht und funktioniert.

Die Technologie wird reifen, und ich hoffe Nvidia und AMD finden hier ein weiteres Instrument, um irgendwann auch "Einstiegs"- und Mittelklasse-GPUs galant mehr fps zu verschaffen ohne relevanten Qualitätsverlust.
 
  • Gefällt mir
Reaktionen: Dalu, ichnunwieder und Ghostfacekalle
Magnifico schrieb:
Gibt es schon. Das nennt sich Radeon Anti Lag.

Radeon Chill reduziert auch den Input Lag.
Chill ist doch für einen ganz anderen Zweck.
Fällt m.M.n. daher raus.
Radeon Anti-Lag kann mit Reflex nicht im Ansatz mithalten.
Hier ein Test von Igor Reflex vs. Anti-Lag.
Andere Tests dürften mehr oder minder ähnlich ausfallen.
Für FSR3 muss sich AMD deshalb was neues einfallen lassen.
 
Laphonso schrieb:
  • G-Sync war eine Abzock Frechheit und überflüssig
    .... bis Freesync kam und die grandiose VSync Ablösung.
  • Nvidia Raytracing war Marketingquatsch
    ..... bis es AMD auch brachte, und Raytracing war relevant und dank AMD auch nun in den Konsolen.
  • DLSS war schlimmer Pixelmatsch
    .... bis AMD FSR brachte, dann warUpscaling + Rekonstruktion aber allen schon wichtig
  • RTX40 Framegeneration ist Fake Frames und Input Latenz Fail
    ...... Nun, mit FSR 3 habe ich eine IDEE, wie sich das Urteil...wandeln könnte :D
G-sync bleibt ne Abzocke weil statt allgemein kompatibel wie schon vorhandenes VRR damals eine Kundenbindung erzeugt und seitens Nvidia dann sogar noch der VRR Standard nicht unterstützt wurde.

Nvidias raytracing ist Marketingquatsch mit dem Namen den sie dafür nutzen und den Eindruck erwecken wollten scheinbar, das sie raytracing erfunden hätten

Das ist schlimmer Pixelmatsch :-) mit passenden Einstellungen bringt es aber Vorteile. Der Haken bleibt Mal wieder, das es rein proprietär aufgezogen ist und eine pro Spiel Implementierung bräuchte/ braucht. FSR/äquivalent nutze ich bei Bedarf bei Jedem Spiel ohne gesonderte Unterstützung.

Frame Generation erzeugt ein flüssigeres Bild, vergrößert aber den Input lag sogar für Bereiche wo man die mehr FPS wirklich braucht wegen besseren Reaktionen und erkennen ist es unbrauchbar. Jeder der an einer Glotze spielt könnte das glotzenseitige schon aktivieren.

Also den ganzen Kram zu haben, aber besser für alle verfügbar und nur als Option ist ne nette Sache.
 
Alexander2 schrieb:
Nvidias raytracing ist Marketingquatsch mit dem Namen den sie dafür nutzen und den Eindruck erwecken wollten scheinbar, das sie raytracing erfunden hätten
Nvidia hat uns dedicated Core Raytracing auf Gaming GPUs überhaupt erst ermöglicht. Das würde ich an deren Stelle auch vermarkten :D
 
Sly123 schrieb:
Chill ist doch für einen ganz anderen Zweck.
Fällt m.M.n. daher raus.
Radeon Anti-Lag kann mit Reflex nicht im Ansatz mithalten.
Hier ein Test von Igor Reflex vs. Anti-Lag.
Andere Tests dürften mehr oder minder ähnlich ausfallen.
Für FSR3 muss sich AMD deshalb was neues einfallen lassen.
Ja es sind unterschiedliche Techniken. "AMD geht einen anderen Weg wie Nvidia" steht da.

Aber danke für den Test,das bringt etwas Klarheit. Ich habe mich mit Anti-Lag und Boost nie beschäftigt und ist bei mir immer deaktiviert.

AMD feilt ja auch immer an den Features und Treiber ,denke da wird in Zukunft noch einiges passieren.
Fakt ist das sie dran sind und auch ihre Technik immer besser wird.
 
Laphonso schrieb:
Nvidia hat uns dedicated Core Raytracing auf Gaming GPUs überhaupt erst ermöglicht. Das würde ich an deren Stelle auch vermarkten :D
Das ist so ein Marketing gerede. Nvidia hat einen grossen Schritt mit RT gemacht aber Raytracing gibt es seit fast 60 Jahren.
DLSS 3.0 und FSR 3.0 werden in den nächsten Generationen (hoffentlich) Auswirkungen haben und stetig weiter verbessert werden. Es steckt halt noch alles in den Kinderschuhen.

P.s. egal ob AMD, Nvidia oder evtl. Intel, diese "zusätzlichen" Fake" FPS" sind mir noch suspekt.
 
Zuletzt bearbeitet:
Verstehe euer Problem bezüglich nativ und „Fake“ 4K nickt…

In der Spieleindustrie hat es schon immer dazugehört möglichst viel und eben gut zu faken, damit die Leistung gut wird. Objekte Ausrichtung an den Kamerawinkel binden, Texturen backen, möglichst gleiche Objekte durch shader verändern, nur den Bereich der Kamera rendern u.s.w
 
  • Gefällt mir
Reaktionen: piccolo85
Zurück
Oben