News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Taurus104 schrieb:
FSR 3.0 wird ebenfalls für RX6000 kommen, wurde auf der Keynote gesagt genauso wie die softwareseitige Verbesserungen des Encoders via AMD Media Framework. Man kann davon ausgehen das es nicht so performtant sein wird wie auf RX7000 aber der Ansatz ist mehr als wünschenswert.
Es könnte genau wie bei DLSS3 laufen.
Allgemein besseres Upscaling als FSR2, was auf allen Karten laufen wird, zusätzlich das Feature zur Frame Generation, welches man nur auf RDNA3 aktivieren kann,.
 
Nun gut - sie werden sich an ihren eigenen Worten messen lassen müssen. Bin gespannt, was dann tatsächlich rüber kommt.
 
Fake-FPS sind Fake-FPS, bei Nvidia, wie bei AMD!

RT ist immer noch Nische, nachdem nun die dritte Generation an NV-RT-GPUs auf dem Markt ist.

Und in 3D-Center gab es noch vor Jahren unter den Hardcore-Usern die einhellige Meinung, das nur ein vollständig dem original entsprechendes Bild akzeptabel ist und schon ein einziges nicht originales Pixel eine FPS Messung verbiete, da es Mogel-FPS sind.

Da ging es allerdings noch um FPS beschleunigende Bildfilter von AMD und nicht um Nvidia-AI-Benchmarkbeschleuniger, die noch wesentlich mehr Pixel verfälschen.

Und ne, ich bin nicht mehr im 3D-Center - was bei dem Einen kritisert wird muß genauso beim Anderen/bei Allen kritisiert werden!

Die Problematik an Fake-FPS wird die sein, das man irgendwann nicht mehr die Wahl hat, sondern dazu gezwungen werden wird!
 
  • Gefällt mir
Reaktionen: Miro Musashi, Brrr, Terminator-800 und eine weitere Person
FSR3 wird wahrscheinlich die selben Vorteile als auch Nachteile haben als DLSS3. Also eigentlich fake-FPS, kein Freesync, hohe Eingabelatenzen, spürbar bei niedrigen AusgangsFPS, also hauptsächlich interessant bei langsameren Games wie FS2020 oder schnelleren GPUs. Dazu kommen UI Artefakte usw. Mal kucken wie sich das durchsetzt.

Naja zumindest wird damit der Konkurrenz gedient und Framegeneration ist kein Alleinstellungsmerkmal der 4xxxer Gen.
 
  • Gefällt mir
Reaktionen: Innocience, fox40phil und flatline1
Laphonso schrieb:
@Augen1337 Aber Du erkennst das Muster, oder? ;-)

Nvidia Features sind alle fail und doof. Bis AMD sie "nachmacht" oder selbst anbietet. DANN sind sie so okay bis gut ;)
Das ist so und es gibt zwei einfache Gründe:

1. Die Features sind ausgereift.
2. Die Features sind gratis u/o können mit weniger Aufwand und Kosten implementiert werden. (z.B. G-Sync)
 
  • Gefällt mir
Reaktionen: blackiwid
Danke für den Lacher zum Wochende @loco28 :D no hard feelings, ich verstehe Deinen Punkt.
 
Laphonso schrieb:
Also das wird interessant.

  • G-Sync war eine Abzock Frechheit und überflüssig
    .... bis Freesync kam und die grandiose VSync Ablösung.
  • Nvidia Raytracing war Marketingquatsch
    ..... bis es AMD auch brachte, und Raytracing war relevant und dank AMD auch nun in den Konsolen.
  • DLSS war schlimmer Pixelmatsch
    .... bis AMD FSR brachte, dann warUpscaling + Rekonstruktion aber allen schon wichtig
  • RTX40 Framegeneration ist Fake Frames und Input Latenz Fail
    ...... Nun, mit FSR 3 habe ich eine IDEE, wie sich das Urteil...wandeln könnte :D
aber was ist bei allen genannten Punkten der große Unterschied. Nvidia brachte es immer exklusiv für ihren eigenen neuen Kram und machte es quasi pay2use, lies sich alles gut bezahlen, AMD hat all dies frei für alle auf den Markt gebracht. Nicht umsonst ist teures Gsync heute quatsch und kann mit Freesync genutzt werden (aber psst anders herum gehts ned) Genauso wie FSR mit Konsolen, AMD und Nvidia genutzt werden kann, Dlss nicht. Von AMD Features profitieren halt irgendwie immer alle...
 
@JahJah192
Das Ding ist aber, dass Nvidia es sich leisten kann, die Luxusaufschläge zu nehmen, weil alle Nvidia Lösung den Tick besser sind. Nicht viel, nicht stark, aber in der Nuance und in den Facetten.

  • Über alles ist DLSS besser gelöst und umfassender implementiert als FSR.
    Und Nvidia GPUs können BEIDES nutzen!
  • Über alles ist Raytracing auf Nvidia GPUs stärker, jetzt mit der 4090 vielleicht sogar noch mehr denn je (was ich selbst als 4090 Käufer nicht toll finde! Wir brauchen mehr Raytracing zugänglich + bezahlbar, nicht über 3090er und 4090er Meme GPUs jedes Mal)
  • Über alles ist Gsync den Freesync Lösungen den minimalen Tick überlegen
  • Nvenc ist ein selling point
  • Reflex ist ein selling point
  • Cuda sind selling points

Aus Nvidia Sicht lässt man sich hier die Pionierarbeit und das R&D bezahlen.
Und es gibt immer noch sehr viele, die für diese Kleinigkeiten (mehr fps, bessere Rekonstruktion, mehr Effekte etc.) mehr Gled an Nvidia abdrücken, weil man dort die Grafikslider diese eine Stufe länger und/oder weiter nach rechts schieben kann.

Umformuliert:
Nur durch das Korsett eigener vendorlocked Lösungen wie Tensor, GSync und Co schafft Nvidia es überhaupt noch, AMD auf Distanz zu halten, weil der AMD Ansatz so stark ist.

Und diese Distanz kann man sich erkaufen,...."muss" man aber nicht!
Niemand braucht eine 4090 fürs PC Gaming. Zum Glück

Die RNDA3 Preisattacke ist genau richtig und wird Nvidias Laune in rot raytracen :D
 
  • Gefällt mir
Reaktionen: Sly123 und cruse
jonderson schrieb:
Und warum geht das?
Weil AMD es sich nicht leisten konnte, dass eine last gen Mittelklasse 2070 vor einer Top Tier next gen 6900Xt im Raytracing Benchmark steht.
Ganz einfach.
 
  • Gefällt mir
Reaktionen: cruse
Laphonso schrieb:
  • Über alles ist DLSS besser gelöst und umfassender implementiert als FSR.
    Und Nvidia GPUs können BEIDES nutzen!
  • Über alles ist Raytracing auf Nvidia GPUs stärker, jetzt mit der 4090 vielleicht sogar noch mehr denn je (was ich selbst als 4090 Käufer nicht toll finde! Wir brauchen mehr Raytracing zugänglich + bezahlbar, nicht über 3090er und 4090er Meme GPUs jedes Mal)
  • Über alles ist Gsync den Freesync Lösungen den minimalen Tick überlegen
  • Nvenc ist ein selling point
  • Reflex ist ein selling point
  • Cuda sind selling points
-Das DLSS besser ist kann ich schwer beurteilen da ich keine DLSS fähige karte habe, aber die menge an spielen ist doch klar, wer zuerst kommt hat halt einen start vorteil.
-Raytracing scheint immer noch ein eindeutiger NVIDIA vorteil.
-Gsync Freesync kann ich nix zu sagen
-Nvenc ist bisher selling point weil besser und viel öfter verfügbar, da AMD aufholt könnte bald nur die höhere Verfügbarkeit da sein die sich aber nie ändert wenn die meisten immer NVIDIA kaufen ^^
-Reflex kann ich auch nix zu sagen und werde ich als jemand der fast nur single player games spielt wohl auch nie brauchen.
-Cuda ist denke ich auch nur selling point weil schon fast immer überall verbreitet und ich kann es nicht sicher sagen aber ich denke auch hauptsächlich weil es halt deutlich mehr NVIDIA als AMD karten gibt.

Im Endeffekt würde ich sagen das NVIDIA deutliche vorteile hat weil viele NVIDIA Karten im Umlauf sind und das wird sich wohl auch nicht ändern durch die vorteile halt mehr Leute NVIDIA Karten kaufen.....
 
Ich kann auf fake FPS verzichten, bei Gaming am TV schaltet jeder Bildoptimierer wie Zwischenbildberechnung ab, hier ist es toll.

Fokus auf die falschen Dinge um Schwächen zu kaschieren.
 
sTOrM41 schrieb:
Kampfpreis xD

Ich kann mich noch an Zeiten erinnern als High-End Grafikkarten bei release 500€ gekostet haben.
Man leg dich in die Ecke zum Sterben - du alter Sack :D:daumen::volllol:
 
  • Gefällt mir
Reaktionen: Sly123
cbmik schrieb:
Ich kann auf fake FPS verzichten, bei Gaming am TV schaltet jeder Bildoptimierer wie Zwischenbildberechnung ab, hier ist es toll.

Fokus auf die falschen Dinge um Schwächen zu kaschieren.
Jaein
Auch wenn ich selber nur Tests sehen konnte, denke ich das ich da kein Fan von bin.

Aber, ich finde es gut das auch AMD so einen schmu macht damit die DLSS3 freunde mit FSR3 eine alternative bei AMD haben und nicht zwangsweise nur NVIDIA über bleibt.
 
Sas87 schrieb:
Hört sich doch sehr vielversprechend an.

Aber vielleicht sollte AMD den Spieleentwicklern langsam auch mal von sich aus Tools zur Verfügung stellen um FSR dann auch leichter in die Spiele zu integrieren, so, dass das auch mehr und mehr verwendet wird.
Macht Nvidia ja auch mit ihrem DLSS.
Äh, du meinst wohl wann fängt amd an den Entwicklern mehr Geld zu zustecken? Wenn sie mehr als 20% Marktanteil haben würde ich sagen. ;)
Ergänzung ()

Coeckchen schrieb:
ich bekomm jedes Mal nen Brechreiz wenn ich irgendwo zu Besuch bin und diese zwischenbildberechnung aktiv ist. Bei Games macht es das geruckelt erträglicher ja, aber bei Videos bekommt man den „Soap–Effekt„ der jede hochqualitative Produktion aussehen lässt wie eine 0815 low–Budget telenovela. Gut wer GZSZ und ähnlichen Schund verschlingt störst wohl nicht, aber dass jemand im CB Forum die Technik abfeiert hätte ich nicht erwartet :D. Diese bildverschlimmbesserer sind das erste was ich abschalte wenn ich irgendwo nen TV in Betrieb nehme^^

Bei meinem Samsung TV kann ich die stärke einstellen. Mit nur 50% sieht es nicht nach soap aus und ruckelt deutlich weniger. Möchte ich nicht mehr missen.
 
Hutzeliger schrieb:
... seit gestern sind auch realistische 1200-1500 Euro absolut toll und zum abfeiern.
...
„Ich mach' mir die Welt, widde widde wie sie mir gefällt."

Sekte.
Das hat eher damit zu tun, dass die Meisten schon zu Konsumvieh kondiniert wurden (bei jeder neuen Gen. muss sofort GPU getauscht werden weil man so nicht mehr leben kann).
UND durch die Inflation und die Scalper alle die sau-teuren Preise angenommenen haben und als neue Normalität wahrnehmen.

Da wird dann schon gejubelt wenn einer der zwei etwas weniger "sauteuer" ist. (krank).

Ich werde wie früher 2-3 Gen. auslassen und ggf. mit Abstrichen in Qualität spielen wenn notwendig.

Mir gefällt die Preisentwicklung überhaupt nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miro Musashi, DeadEternity, fox40phil und 3 andere
Ich frage mich, ob man das nicht auch einfach mit der CPU lösen könnte? Die langweilt sich bei den meisten Games sowieso... gerade AMD hat ja die vielen Kerne ins "Spiel" (höhö) gebracht?!


Wurde das mit den "Fake" FPS nicht sogar schon genannt? Es werden Bilder eingeschoben, die es so gar nicht gibt, mit FSR3?!
 
Inwiefern helfen mir diese zusätzlichen frames denn, ein Spiel besser zu bedienen?

Also ich meine, wenn die Framerate zu niedrig ist, kann ich nicht gut zielen, vermassele das Timing um an der Kante abzuspringen, etc.

Aber ein Frame, der nicht auf Eingaben reagiert, ändert doch nichts daran, oder prognostiziert jetzt die KI, was ich als Spieler eingeben werde?
 
  • Gefällt mir
Reaktionen: Miro Musashi und cbmik
Müsste die KI das nicht versuchen wenn sie versucht ein Korrektes Zwischenbild zu machen?

Wenn nicht wofür sonst überhaupt KI?
 

Is RTX a Total Waste of Money?? - Can we even tell when it's on?​

 
Zurück
Oben