News AMD FSR 3.1: Höhere Bildqualität und Frame Generation auch mit DLSS

DrFreaK666 schrieb:
DLSS FG funktioniert natürlich nur mit RTX4000
Das hier sollte man auch nicht vergessen für RTX20/30 Karten:


DLSSG-TO-FSR3 (Replace Nvidia DLSS-G Frame Gen with AMD FSR 3 Frame Gen)
 
  • Gefällt mir
Reaktionen: SweetOhm und DrFreaK666
Zum Thema Mods: Es kommen (hoffentlich) auch einige FSR2.x to FSR 3.1 Mods
 
  • Gefällt mir
Reaktionen: SweetOhm und Czk666
MMIX schrieb:
Warum sollte man sich eine AMD GPU zulegen? Als Nvidia User bekommt man die volle Bandbreite an Technologien. Danke AMD, der Wechsel von euch zu Nvidia war die absolut richtige Entscheidung. Künftig ist es mir egal, ob ein Game nur FSR oder nur DLSS nutzt, FG oder FMF, ich kann mich entspannt zurücklegen und alles nutzen.
Genau aus so einem Denken heraus hat uns Intel Jahre lang 4 Kerner präsentiert, mit einer 5-prozentigen Mehrleistung von Generation zu Generation.
Viel Spaß, wenn AMD keine Grafikkarten mehr verkauft, weil sie aufgeben und du für eine 4060, 1000 Euro bezahlen darfst, weil es keinen Gegenspieler mehr gibt. Intel ist leider noch weiter entfernt.
 
  • Gefällt mir
Reaktionen: engineer123, jo0, Inxession und 7 andere
Sehe das genauso wie @Abexa .

Sehr merkwürdige Denkweise. Man "bestraft" AMD,dass sie die Technologie aus welchen Gründen auch immer für andere Karten zugänglich machen statt wie Nvidia in ihrem goldenen Käfig zu bleiben damit, dass man dann zu Nvidia greift.
Und dann wundert man sich wieso die Karten immer teurer werden.

Bestes Beispiel wie schon erwähnt Intel damals wo man jahrelang für eine 4-Kern CPU ein Vermögen hinblättern musste, bis dann AMD mit Ryzen um die Ecke kam.
 
  • Gefällt mir
Reaktionen: engineer123, Inxession, SweetOhm und 3 andere
@MaLow17 Das sind aber mods. Und nix Offizielles von Nvidia. Da liegt der kleine aber feine Unterschied. Und ist dadurch auch nicht von belang wenn es um AMD vs Nvidia geht. Es gibt auch gemoddete AMD treiber so das manch ein feature auch auf sehr alten Karten funktioniert. Dies ist aber auch nicht belang.
 
Northstar2710 schrieb:
Und ist dadurch auch nicht von belang wenn es um AMD vs Nvidia geht
In der hinsicht schon von belang, das der von AMD Quelloffen gestellte Code zu dem Mod führte. war glaube nichtmal ne Woche, das ging so schnell :D

Ich bin daher auch zuversichtlich, das es relativ schnell in entsprechende Modmanager oder in die üblichen Tools unter Linux gelangen wird wo man das mit wenigen bis einem klick einfach anschalten kann. fsr ist ja bereits auch verbreitet.
 
Windell schrieb:
Freue mich mega für AMD! Ein sehr wichtiger Schritt!
Zwei MiniGIFs und schon ist die Bubble in Wallung. Kein reeller Vergleich in ordentlicher Auflösung.
Schwaches Marketing. Man kann die Ausschnitte nicht einmal vergrößern.

Generell ist die Nachricht von mehr Bildstabilität natürlich toll. Die beste Nachricht ist nun auch DLSS mit AMD´s Frame Generation kombinieren zu können. Damit weicht AMD ihre Exclusivität auf, was dafür sprechen könnte, dass sie was brauchbares in Petto haben.
incurable schrieb:
Die Art und Weise, wie AMD diesen Fortschritt mit 2 Sätzen von Mini-gifs aus einem einzigen Titel bewirbt lässt mich Böses ahnen.
Ist einfach AMD´s Marketing. Das war schon zur Vorstellung von FSR 1 eine Katastrophe, danach wieder zu Frame Generation. Das muss nichts endgültiges heißen. Man kann aber durchaus skeptisch sein.
Zwei eingestreute GIFs die man nicht einmal auf einem GameBoy Display voll ausfahren kann, laden schon zum Schmunzeln ein.^^
Windell schrieb:
Sie sollten nur darauf achten, sich mehr auf ihre Karten zu konzentrieren statt sich immer weiter zu öffnen.
Du forderst von AMD den proprietären Weg zu gehen? :rolleyes:
DrFreaK666 schrieb:
Wären dir hochauflösende Screenshots lieber?
Natürlich sind hochauflösende Videos mit dem ein oder anderem Zoom besser als ein Mini-GIF.
BxBender schrieb:
Bei den Einzelkomponenten kommt man da mal eben locker auf 4000-5000 Euro.
Motherboard und CPU und Kühler 1000 Euro oder mehr, Grafikkarte 2000, Monitor mindesten 1000 Euro, pi pa po 1000 Euro. Geld ist futsch. Und das nur, um Cyberpunk halbwegs flüssig und ohne Kompromisse mit Pathtracing zocken zu können.
Spiele ohne Kompromisse zu spielen hat schon immer die teuerste Hardware erfordert, das ist nun nichts neues, oder Nvidia exclusives. Davon abgesehen muss niemand für Pathtracing so viel Geld ausgeben.
Das läuft auch auf einer 1000 Euro Möhre mit RTX 4070 Super in WQHD.
 
Zuletzt bearbeitet:
@Quidproquo77 Ich sage lediglich das sie die Priorität nicht vergessen sollten.
Also eher das eigene Produkt verbessern statt es noch mehr Menschen zugänglich zu machen, zumal sowohl Nvidia als auch Intel ihre eigenen Technologien haben.
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Zwei MiniGIFs und schon ist die Bubble in Wallung. Kein reeller Vergleich in ordentlicher Auflösung.
Schwaches Marketing. Man kann die Ausschnitte nicht einmal vergrößern.
Du erkennst keinen Unterschied?
mal abseits von geringer Auflösung.

Deine Bubble gerade am platzen?
Ich geb nur kontra, genauso wie du :D

Wenn du einen Unterschied erkennen kannst ist das gemaule darüber relativ gehaltlos. aber zumindest erhöhst du den Postings Counter genauso wie ich :-)
:bussi:
 
  • Gefällt mir
Reaktionen: engineer123 und SweetOhm
Abexa schrieb:
Genau aus so einem Denken heraus hat uns Intel Jahre lang 4 Kerner präsentiert, mit einer 5-prozentigen Mehrleistung von Generation zu Generation.
Im höheren Preisbereich gab es deutlich Sprünge was die Kernanzahl betrifft.
Nur im niedrigen Preissegment hat man es unterlassen größere Fortschritte zuzulassen, damit auch die FX Prozessoren noch überleben konnten. Wer genügend Geld hatte, konnte stets etwas mit deutlich mehr Kernen kaufen. Mal abgesehen davon, dass selbst heute kaum jemand spürbar von mehr als 4 Cores mit 8 Threads profitiert.
Abexa schrieb:
Viel Spaß, wenn AMD keine Grafikkarten mehr verkauft, weil sie aufgeben und du für eine 4060, 1000 Euro bezahlen darfst, weil es keinen Gegenspieler mehr gibt. Intel ist leider noch weiter entfernt.
Das wird so sehr wahrscheinlich nicht passieren, da Nvidia keine 4060 für 1000 Euro absetzen könnte.
 
  • Gefällt mir
Reaktionen: W4RO_DE
@MrHeisenberg @0x8100

Danke für die Aufführung der Textpassage, technisch eindeutig ja.
Das war allerdings nicht der Punkt.

Ist diese Umsetzung dann so "schlicht" und "Scheisse" wie es die Formulierung
"eine Schnittstelle" suggeriert
oder ist es eine sehr gute Lösung, die tatsächlich das Upscaling sehr gut in den Spielen umsetzt.

Gibt es dazu schon Benchmark Ergebnisse und technische Demos in Internet?

Also eine Demo in der Direct SR ausgewählt wird und man dann genau wie vorher einzeln
mit DLSS oder FSR den Sprung von ca. 30% nach oben sehen kann?
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Mal abgesehen davon, dass selbst heute kaum jemand spürbar von mehr als 4 Cores mit 8 Threads profitiert.
Da bist du nicht mehr auf dem laufenden. Wenns um gewisse Programme geht war das ohnehin eine Falschaussage, die noch nie richtig war. Und selbst Spiele nehmen sich jetzt oft mehr. mit nurnoch 4 Kernen wirst du nicht mehr Glücklich beim Zocken, außer du bist halt low spec Kartoffelrechnergamer :-)

Und.. "deutliche Sprünge" gibts erst seit Ryzen dazugekommen ist. aber jetzt fang halt nicht an mit "wer braucht schon 20 Kerne ..." Das Thema ist doch sowas von ausgenudelt. :-)
Lass dich knuddeln Quid! :vernaschen:
 
  • Gefällt mir
Reaktionen: SweetOhm und Wanderwisser
Alexander2 schrieb:
Du erkennst keinen Unterschied?
mal abseits von geringer Auflösung.
Nein, ich erkenne insgesamt keinen Unterschied.
Beim ersten GIF ist das Flimmern deutlich unterdrückt, während beim zweiten GIF das Ghosting unterdrückt ist, dafür im Hintergrund das Flimmern wieder genauso stark ist.
Also was möchte AMD damit den kritischen User zeigen? Dass ihr Marketing nichts taugt, oder dass sie gar keine wirkliche Verbesserung vorweisen können? Das wird sich alles zeigen.
Alexander2 schrieb:
Deine Bubble gerade am platzen?
Ich geb nur kontra, genauso wie du :D
Der Unterschied ist, dass ich in keiner Bubble bin und keine "großen Fortschritte" feiere, bevor sie überhaupt ordentlich gezeigt oder getestet wurden.
 
Alexander2 schrieb:
Da bist du nicht mehr auf dem laufenden. Wenns um gewisse Programme geht war das ohnehin eine Falschaussage, die noch nie richtig war.
Natürlich meine ich damit keine synthetischen Benchmarks die möglichst alle Kerne auslasten, sondern das was Hans oder Erwin heute zu Hause an Software benutzen. Rendern findet heute sowieso über die GPU statt und Spiele brauchen bis auf wenige Ausnahmen heute noch immer nicht mehr als 6-8 Threads/Cores.
Alexander2 schrieb:
Und selbst Spiele nehmen sich jetzt oft mehr. mit nurnoch 4 Kernen wirst du nicht mehr Glücklich beim Zocken, außer du bist halt low spec Kartoffelrechnergamer :-)
Ich denke da irrst du dich. 4Kerne mit entsprechendem SMT/HT und ordentlich Cache hauen noch ordentlich rein. ;)
 
Quidproquo77 schrieb:
Nein, ich erkenne insgesamt keinen Unterschied.
OK, dann ist deine Kritik berechtigt aus der Sichtweise. Jedoch möchte ich dir mitteilen, das selbst mit dem kleinen Gif ein deutlicher Unterschied zu sehen ist. Ich möchte dir daher empfehlen deine Hardware zu überprüfen, du scheinst irgendwo ein Problem zu haben, das der Unterschied nicht sichbar wird.
 
  • Gefällt mir
Reaktionen: engineer123 und SweetOhm
Quidproquo77 schrieb:
Natürlich sind hochauflösende Videos mit dem ein oder anderem Zoom besser als ein Mini-GIF.
Bin ich anderer Meinung. Gerade in höheren Auflösungen werden DLSS und FSR immer besser aussehen und die Schwächen mehr und mehr weniger werden
 
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Zwei MiniGIFs und schon ist die Bubble in Wallung
Anderum wird in dem Thread FSR 3.1 aufgrund von 2x Mini Gifs bereits negativ bewertet.
Hält sich also die Waage.
Beide Seiten sollten abwarten bis man es tatsächlich vergleichen kann.
Dann kann man sich immernoch "zerfleischen", wie es oft bei solchen Themen der Fall ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
Nooblander schrieb:
Beide Seiten sollten abwarten bis man es tatsächlich vergleichen kann.
Genauso sehe ich das auch, schrieb ich ja auch schon in etwa so.
"Ist einfach AMD´s Marketing. Das war schon zur Vorstellung von FSR 1 eine Katastrophe, danach wieder zu Frame Generation. Das muss nichts endgültiges heißen. Man kann aber durchaus skeptisch sein."
Ich bin lediglich aufgrund der Art der Präsentation skeptisch. Wäre das jetzt zwei hochaufgelöste Videos gewesen und davon Ausschnitte vergrößert, hätte ich es für bare Münze genommen.
 
incurable schrieb:
Für die professionelle Playstation 5 hat Sony ein "eigenes" System namens PSSR (<- ja, genau 🤦‍♂️) angekündigt, dass auf KI basieren soll.
Und trotzdem kann das auf FSR 3.x basieren. Wieso sollte Sony etwas auf der PS5 mit ML hinbekommen. Was sie seit gut 5 Jahren nicht auf deren Xperia Phones bei Fotos hinkriegen?!
Das wichtigste ist doch das AMD weiter verbessert. Mit FG brauchen sie sich vor Nvidia nicht verstecken. Da sind sie sogar besser und das ohne Tensor Cores. Das sollte einem als Nvidia User zu denken geben. Bei FSR SR tut sich ja auch was.
Und ganz ehrlich vieles fällt beim Spielen doch nicht auf. Da man sich auf das Spielgeschehen und nicht jeden einzelnen Pixel konzentriert.
Was aber schnell ins Auge fällt ist Ghosting, da hat aber auch Nvidia zu kämpfen. Da es immer noch Entwickler gibt die zu blöd sind DLSS oder FSR richtig oder in der Aktuellen Version zu integrieren. Da war doch erst vor paar Monaten ein Spiel das nur FSR1 implementiert obwohl FSR2 schon mindestens 1,5Jahren auf dem Markt war.
Ich hoffe das der Ansatz von Microsoft da endlich Licht am Ende des Tunnels bringt. Und man nicht bangen muss das Nvidia oder AMD Ihre Hand auf dem Spiel haben und das Supersampling der Wahl die ersten Monate nicht verfügbar ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben