News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

Ich bin auch mehr als begeistert von DLSS 3 und FG.
pipip schrieb:
Was gegen deine These spricht, FSR 3.0 soll kaum Mehraufwand zu FSR 2.0 bedeuten.
Na dann müssten sie es aber doch schon längst fertig haben wenn es kaum Aufwand ist.
 
Jetzt frage ich mich, wie gut ist es ist im Vergleich zu Nvidias FG. Und wird es auch auf den RDNA 2 Karten laufen.?

Ich denke es wird schlechter abschneiden, da es einfach nicht geplant war und aus der Not entsteht wie eins FSR.

Natürlich lass ich mich eines besseren belehren und ziehe wenn es gut wird mein Hut vor AMD.
 
Zuletzt bearbeitet von einem Moderator:
Wozu braucht man A.I. Tesnore Cores wenn doch 5 Jahre alte TV Geräte das können? Die machen doch auch aus 24fps 60fps und das schaut sogar oftmals gut aus.
Oder irre ich mich da?
 
DJKno schrieb:
Ausreichend ist sie, aber das war Windows XP auch.
Als führender Hersteller von Grafikkarten ist das Teil ein Armutszeugnis.
Aber das ist nur meine Meinung.
Ich hatte vorher ein GeForce und haben auch oft die Experience benutzt. Gleiches gilt jetzt für den Adrenalin. Da ist alles enthalten, Monitoring, OC, Spannung und Stromverbrauch. Dazu viele Funktionen für Streaming und Aufnahmen.
Und das sind alles Funktionen die er "Normalo" weder braucht noch nutzt. Ich butze Afterburner dafür und würd es auch weiternutzen wenn es das von Nvidia selbst im Treiber gäbe.

Noch dazu hat man ja schon oft gelesen wie fehlerhaft AMDs Lösungen im Treiber funtionierten was OC usw. betrifft.
 
Ghostshield schrieb:
RDNA3 besitzt im Gegensatz zu RDNA2 und 1 etwas was wie Tensor Core ist
Es besitzt nämlich AI Cores die genau das gleiche machen können, wie upscaling, frame Generation, etc.
Ich habe mal irgendwo gelesen, dass diese nicht ausreichen würden weil es zu wenig sind, aber kA ob das stimmt
 
Kuestennebel79 schrieb:
Lustig, dass solche Aussagen immer von Personen kommen, die das Feature nicht nutzen können. Es funktioniert einwandfrei in CP77, WitcherNG und Hogwarts. Statt 60-70 FPS 90-120 zu haben ist ein geiler Performance Boost. [...]
Komisch nur, dass mich einige DLSS-3-Nutzer für diese Aussage zuvor geliked haben. Es scheint also doch etwas dran zu sein. Zumal ich mich nur auf Testberichte von bekannten Redaktionen bezogen habe.
 
Caramelito schrieb:
Gsync / Freesync war doch das selbe Thema damals.
"Geht nur auf NV und geht nur mit NV und sonst geht nichts, da techn. nicht möglich, wir sind so arm" -- Voila funzt überall.

G-Sync funktioniert auch weiterhin nur auf nVidia. Verstehe den Punkt nicht.
 
  • Gefällt mir
Reaktionen: Fallout667
crustenscharbap schrieb:
Wozu braucht man A.I. Tesnore Cores wenn doch 5 Jahre alte TV Geräte das können? Die machen doch auch aus 24fps 60fps und das schaut sogar oftmals gut aus.
Oder irre ich mich da?

Gute Frage, aber sieht es beim TV in jedem Fall gut aus? Oder eben doch nur bei Filmen/TV, wo natürlich die Daten des folgenden Bilds bereits vorab vorhanden sind... Bei einem Game, wo der Inhalt halt in Echtzeit gerendert wird, ist die Zwischenbildberechnung halt schon etwas komplexer.
 
  • Gefällt mir
Reaktionen: Taxxor, Poati und .Sentinel.
DocWindows schrieb:
G-Sync funktioniert auch weiterhin nur auf nVidia. Verstehe den Punkt nicht.
Freesync ging nicht auf NV-Karten. Ergo man brauchte zwingen einen G-Sync Modul Monitor. Es hieß immer man brauche die Hardware um das Ganze zu koppeln usw.
Dann kam ein Treiberupdate = Funktioniert ("Gsync Compatible")

G-Sync Ultimate von meinem alten 38GL950 hat auch nur auf NV funktioniert. Mittlerweile laufen auch AMD Karten damit (Freesync / Adaptive Sync ist dann nutzbar)
 
crustenscharbap schrieb:
Oder irre ich mich da?
Ja.

Es ist kein reiner spatialer Ansatz (klassische Zwischenbildberechnung aufgrund graphischer Interpolation), sondern es werden "Vorhersagen" aus der Renderpipeline (Bewegungsvektoren für die Pixel) genutzt. Es ist also eher eine Extrapolation, wodurch über mehrere Frames hinweg eine bessere temporale Stabilität erreicht wird/werden soll.

So zumindest habe ich den Unterschied verstanden.
 
amorosa schrieb:
Ich würde wetten, dass ein paar Wochen später Nvidia um die Ecke kommt und sagt, das ihr FG auch auf älteren Karten lauffähig ist.
^^ 100% wird es auf einmal eine "Lösung" geben :)
 
  • Gefällt mir
Reaktionen: amorosa
AnkH schrieb:
Gute Frage, aber sieht es beim TV in jedem Fall gut aus? Oder eben doch nur bei Filmen/TV, wo natürlich die Daten des folgenden Bilds bereits vorab vorhanden sind... Bei einem Game, wo der Inhalt halt in Echtzeit gerendert wird, ist die Zwischenbildberechnung halt schon etwas komplexer.

Ich habe mich auch gerade gefragt ob sich das vergleichen lässt. Ich benutze diese Motion Plus (oder wie du auch heißt) Funktion und finde damit das Bild viel besser. Da die Stärke sich einstellen lässt habe ich keinen soap Effekt quasi keine Artefakte.

Sowas wie fg stelle ich mir praktisch vor wenn die Fps unter 30-50 fallen.
Inwieweit die Latenz bei single player Spielen leidet weiß ich nicht. Aber ich fand die Latenz von streaming auch schon ok mittlerweile.
 
TigerherzLXXXVI schrieb:
Komisch nur, dass mich einige DLSS-3-Nutzer für diese Aussage zuvor geliked haben. Es scheint also doch etwas dran zu sein. Zumal ich mich nur auf Testberichte von bekannten Redaktionen bezogen habe.
Achso? .. ich habe die Signaturen mal eben durchgeklickt und dort hat niemand eine 4000er Karte. Nochmal, JA Nvidia ist sch****, JA es ist echt übel, dass das Feature exklusive ist, JA es könnte ggf. einige Artefakte geben, wenn man mit der Lupe sucht.
Aber ich bin der Meinung und auch viele andere Nutzer, dass das Feature der Hammer für Single Player Spiele ist. Vor allem für eine V1.0. Ein Game Changer meiner Meinung nach. Kein CPU oder GPU Load und 30-40 % mehr FPS egal welche Grafiksettings Du angeschaltet hast, kann man mal machen.
 
  • Gefällt mir
Reaktionen: Fallout667
Kuestennebel79 schrieb:
. Kein CPU oder GPU Load und 30-40 % mehr FPS egal welche Grafiksettings Du angeschaltet hast, kann man mal machen.

Wie verhält es sich denn wenn du die frames auf 60-70 beschränkst? Merkst du einen Unterschied in der latenz?
 
Du meinst bereits inkl. FG nur 60-70 FPS? Das könnte ich heute abend mal probieren.
generell finde ich das Latenzthema wird überbewertet. FG + Relfex hat heute in etwa die gleiche Latenz wie "früher" als es noch kein Reflex gab. Da hat es auch niemanden gestört. Bei Single Player Spielen total egal.

Für MW2 und Co würde ich aber natürlich kein FG empfehlen.
 
TigerherzLXXXVI schrieb:
Wie gesagt, Raytracing ist noch lange kein Kaufargument für die meisten Gamer.
Nunja- Wenn man ein Metro Exodus Enhanced nimmt und bedenkt, dass das eine Playerbase von ca. 5 Mio. vorweisen kann, dann sind das aber auch nicht so wenige, die dann doch Wert darauf zu legen scheinen.
 
  • Gefällt mir
Reaktionen: Fallout667 und Laphonso
Seit DLSS / FSR werden Spiele (meist dank Publisher) immer weniger und / oder schlechter geportet und optimiert. Man nimmt DLSS / FSR als selbstverständlich und Brute forced die Leistung einfach rein durch upscaling. Eigentlich sollte Nativ alles rund und schnell laufen und DLSS / FSR sollte eher als Bonus bzw. Notlösung herhalten.

Als die RTX 2070 Super rauskam, liefen selbst damalige neue Spiele mit über 100fps, auf 1440p mit Ultra Settings, NATIV. (Siehe Battlefield V, Fortnite (non RT), Apex, World War Z, Wolfenstein Youngblood, Doom Eternal, Sniper Elite 4...).
Jetzt selbst mit einer RTX 4070ti, ohne RT und ohne DLSS / FSR, auf 1440p, Ultra Settings, kommt man nicht mal in die nähe der 100fps bei aktuellen Titeln (siehe Forspoken, Hogwarts Legacy, Cyberpunk 2077, Elden Ring, A Plague Tale Requiem). Selbst bei RDR2 kratzt es grad noch so an die 80fps.
In 6 Monaten ist man schon faßt gezwungen upscaling Standardmäßig zu nutzen.
Echt schade wie sich das entwickelt, trotz nützlichen Feature.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts, McTheRipper, Orok91 und 2 andere
AMD hält die user hin. Ich denke das wird nicht mehr viel mit FSR3. Als sie das angekündigt haben, gabs noch keine anständige Lösung, sonst hätten sie schon was gezeigt.

Und wenn das Problem die Abwärtskompatibilität ist, dann sollen sie’s einfach für RDNA3 liefern. Aber ich befürchte auch das wird nicht so laufen wie sie sich das vorgestellt haben.
 
franzerich schrieb:
z.B. wurde RT zwar auf der GTX 1060 freigeschalten, aber bei der GTX 1050 Ti absichtlich geblockt.
Aus gutem Grund. Genauso wie AMD seine Erstankündigung zu RTRT zurückgezogen hat und dann doch nicht für ihre älteren Karten freigeschalten hat.

Du möchtest nämlich nicht die Supportabteilung für experimentelle Technik sein (da kannst Du die User noch sooft darauf hinweisen, dass es experimentell, preview und sonstwas ist).

Von einem "Grafikkarte scheint kaputt zu sein" über wenn das alles so kacke läuft hätten sie es erst garnicht auf den Markt bringen sollen sondern lieber Ressourcen in XY (Technik Deiner Wahl) stecken müssen bis zu einem "der Titel ist grütze optimiert" usw. usf.

Da ist der Idiotie des normalen Users leider keine Grenzen gesetzt. Nur deswegen schaltet man gewisse Dinge erst garnicht frei (Ähnlich diverser Regler in Grafiksettings einiger Titel).
 
Zuletzt bearbeitet:
Caramelito schrieb:
Wenn eine 3080/3090 DLSS3 unterstützen würde - Welcher Mensch würde eine 4070 Ti kaufen? Keiner.
Als 3090 Nutzer würde ich sowieso keine 4070Ti kaufen....Als 3080 Nutzer vielleicht schon, wenn meine alte 3080 in dem Fall noch was an Geld bringen würde.
Caramelito schrieb:
Wäre die 4070ti von der Leistung eine 4080 16gb oder vom Preis bei 600eur sähe das natürlich anders aus
Wäre die 4090 500€, würde sowieso keiner eine 4070Ti oder 4080 kaufen... :jumpin:

crustenscharbap schrieb:
Wozu braucht man A.I. Tesnore Cores wenn doch 5 Jahre alte TV Geräte das können? Die machen doch auch aus 24fps 60fps und das schaut sogar oftmals gut aus.
Oder irre ich mich da?
Ganz einfach, Latenz. Einem TV ist die Latenz egal, da nur ein Film angespielt wird. Würde man das aber in einem Spiel machen, gäbe es Latenzen bis zum Mond. Und du willst kein Spiel mit >200-300ms Latenz zocken wollen. :D

DocWindows schrieb:
G-Sync funktioniert auch weiterhin nur auf nVidia. Verstehe den Punkt nicht.
Ja G-Sync ist besser als Freesync, da es bis einstellige FPS unterstützt. Freesync geht, soweit ich weiß, meist nur ab 40 oder 48 FPS. Bist du darunter, dann läuft es nicht.

Ich nutze einen OLED über G-Sync kompatible, also Freesync, und ich bekommen ohne V-Sync oft noch Tearing, weils nicht immer richtig funktioniert. TROTZ FPS von 60-120...
Aber es läuft smoother als ohne Freesync. Einen "echten" G-Sync Monitor habe ich bisher noch nicht gehabt.

Czk666 schrieb:
Wie verhält es sich denn wenn du die frames auf 60-70 beschränkst? Merkst du einen Unterschied in der latenz?
Bei mir ist es eher 60->120FPS mit DLSS3. Und hier kann ich sagen ich merke es minimal.
Das erste mal habe ich es in Darktide ausprobiert. Nach etwa einer Stunde habe ich den Latenzunterschied aber nicht mehr gemerkt. Das Spiel war aber deutlich flüssiger wegen den 120FPS.
Optisch habe ich NICHTS gesehen, keine Artefakte oder Fehler. Auch in anderen Spielen nicht.
DLSS2 hingegen zeigte schon bei Quality einige Unterschiede/Fehler. Im speziellen das Hologramm im Hub von Darktide. Und Smearing bei Bewegungen.

Ich würde DLSS3 immer an machen wenn es im Spiel ist, DLSS2 würde ich aber dann aus lassen.
Was Kantenglättung angeht ist DLAA besser als TAA oder FXAA. Leider ist es noch nicht so verbreitet oder man darf DLAA, wie im Fall in Hogwarts, nicht zusammen mit DLSS3 anmachen...Warum eigentlich nicht?

Ich hoffe übrigens für alle, die keine RTX4000 haben, das FSR3 für alle rauskommt... Aber ich glaube kaum, das es annähernd so gut wird wie DLSS3...

BTW in meinem Freundeskreis bin ich der einzige mit einer 4000er Karte. Obwohl ich verrückte Leute habe, die mal einen 5000€ PC mit Custom Wakü bauen. :D Bei der 3090 hatten neben mir noch 3 weitere zugeschlagen.
 
Zuletzt bearbeitet:
Zurück
Oben