News AMD FSR 3.1: Höhere Bildqualität und Frame Generation auch mit DLSS

DrFreaK666 schrieb:
hat vor bald 20 Jahren eine damals mehr als 20 Jahre alte Firma gekauft, die sich auf Grafikprozessoren spezialisiert hatte.

Vielleicht schaffen sie es ja bis zum 40ten Gründungsjubiläum mit dem Hochrechner. 🤷‍♂️
 
nciht schrieb:
Zudem gibt es ja auch noch intel, die das irgendwie besser schaffen als AMD...
jo, würde gerne wissen wie die Anfänge bei Intel waren. Da weiß man viel zu wenig
 
tl,dr: ?
Ich blick bei den ganzen Kürzeln nicht mehr durch.
 
tl,dr = too long, didn't read
 
  • Gefällt mir
Reaktionen: SweetOhm und Snakeeater
Snakeeater schrieb:
tl,dr: ?
Ich blick bei den ganzen Kürzeln nicht mehr durch.

Aber "RME ADI-2 DAC FS" versteht jeder :D
 
  • Gefällt mir
Reaktionen: Snakeeater
Und AAA Titel kommen trotzdem noch mit FSR 2.2 anstelle von 3.0 oder 3.1 raus. Auf dem Papier siehts aber gut aus...
 
Es kommen ja auch noch Spiele mit DLSS2 oder sogar FSR1
 
Mal schauen, wo wir sind, wenn meine 5700 Pulse auf fHD aus der Puste kommt.

Eigentlich sind FSR und Frame Generation genau für solche Nutzer wie mich, wie gemacht, welche noch betagte Systeme im Einsatz haben.
 
  • Gefällt mir
Reaktionen: SweetOhm und TheHille
Schonmal FG verwendet?

Ich bin zwar sehr empfindlich, aber bei schnelleren Spielen stört mich FG ungemein, wo andere evtl. sagen, dass es super ist.
zB bei Cyberpunk ist ja DLSS-FG ziemlich gut integriert, mich störts beim Autofahren sehr, fühlt sich wie Mikrogeruckele an und das mit nem Highend-Rechner und einer "Base-FPS" von 80+ -- Im Endeffekt deaktiviere ich Pathracing zB und spiele ohne FG :>
 
  • Gefällt mir
Reaktionen: HageBen
 
Na endlich. Die Upscaling Qualität hat Verbesserungen bitter nötig…

FG in Kombination mit anderen Verfahren wie TAA oder DLSS ist auch ein wichtiger Schritt.

Danke an alle die die Themen auch aktiv kritisieren. Nur so kommt Besserung.
 
  • Gefällt mir
Reaktionen: SweetOhm, DrFreaK666 und Nooblander
Wenn sie das Flimmern in den Griff bekommen, sind sie schon verdammt nah an DLSS dran, was Ghosting betrifft ist man mit FSR hier ja heute schon eher weniger belastet als mit DLSS.
 
  • Gefällt mir
Reaktionen: SweetOhm, Czk666 und up.whatever
0x8100 schrieb:
stell dir vor, es gibt auch karten abseits der rtx400xx reihe.
Gibt keinen Grund, warum man noch mit einer älteren Karte rumdümpeln sollte.
Die Energieersparnis kann teilweise so hoch sein, dass sich ein Upgrade nach 2-3 Jahren gerechnet hat.
Siehe CB Beitrag https://www.computerbase.de/2024-02...eistungs-verhaeltnis/#update-2024-03-20T10:02

Gerade wenn man sich den Wechsel von RTX 3080 auf RTX 4070/Super/SuperTi anschaut sind hier je nach PC Nutzung locker 60€ pro Jahr drin.

Genau der selbe Grund warum man Energiesparlampen verbaut, oder die alte Stromfresser Waschmaschine ersetzen möchte.

Natürlich gibt es fest verbaute GPUs und PCs, wo nicht jede Grafikkarte reinpasst. Aber zumindest eine RTX 4060 sollte möglich sein.

Der praktische Nutzen für AMD Framegeneration dürfte bei Nvidia Kartenbesitzern sehr gering sein.
 
Zuletzt bearbeitet:
d3nso schrieb:
Weil AMDs Lösung mehr FPS bringt? Wenn jetzt noch die Qualität verbessert wurde ist es doch für alle eine Win-Win Lösung.
Des Weiteren gibt es genug Nutzer die mit älteren Karten unterwegs sind die eben kein DLSS3.0 unsterstützen.
Mehr FPS mit mehr Input Lag...
 
Taxxor schrieb:
Wenn sie das Flimmern in den Griff bekommen, sind sie schon verdammt nah an DLSS dran, was Ghosting betrifft ist man mit FSR hier ja heute schon eher weniger belastet als mit DLSS.
Computebase macht doch bestimmt einen Testbericht dazu :)
 
NoNameNoHonor schrieb:
Mehr FPS mit mehr Input Lag...
bei Nvidia GPUs relativ gleichbleibender und bei AMD GPUs weniger Input Lag ggü nativ

Wenn es draußen ist, kann man auch den Vergleich mit FG+Reflex anstellen, ich denke nicht, dass sich die beiden von der Latenz viel nehmen werden.
 
  • Gefällt mir
Reaktionen: SweetOhm
NoNameNoHonor schrieb:
Mehr FPS mit mehr Input Lag...

FSR nicht mit FMF verwechseln, denn ees kann auch unabhängig genutzt werden.... ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
Simanova schrieb:
Gerade wenn man sich den Wechsel von RTX 3080 auf RTX 4070/Super/SuperTi anschaut sind hier je nach PC Nutzung locker 60€ pro Jahr drin.
Joa, dann hat man 600€ für ne Karte ausgegeben die 25-30% schneller ist.
Mit Verkauf der 3080 und dieser theoretischen Ersparnis hätte sich das ganze dann in 4-5 Jahren gelohnt während man auch einfach noch eine Gen hätte warten können, damit man einen deutlicheren Leistungssprung fürs gleiche Geld bekommt.
 
  • Gefällt mir
Reaktionen: SweetOhm, DrFreaK666 und TheHille
Vor allem hängt die Denkweise total. Angenommen niemand setzt mehr auf alte Karten, dann bekommt man für die auf dem Gebrauchtmarkt auch nichts mehr bzw sollte denn Wert 0 dafür ansetzen. Sind ja nichts mehr wert bzw niemand sollte sich mit dem alten Müll abgeben... :D :rolleyes:
Jetzt kauft man sich eine neue RTX 4070/Super/SuperTi und ist somit 500-600€ los. Wie lange muss man die jetzt nutzen damit man den Preis mit den Stromkosten wieder drin hat? :freaky:

So eine Milchmädchenrechnung geht nur auf wenn man einen "dummen" findet der einem die alte Stromschleuder zu einem möglichst hohen Preis abnimmt.
 
  • Gefällt mir
Reaktionen: SweetOhm, Wanderwisser und TheHille
Mimir schrieb:
Danke an alle die die Themen auch aktiv kritisieren
"...aktiv und SACHLICH kritisieren." Ich bin der Meinung nur dann ist/kann Kritik konstruktiv sein. Und das ist leider nicht immer gegeben.
Simanova schrieb:
Gibt keinen Grund, warum man noch mit einer älteren Karte rumdümpeln sollte.
Ich finde persönliche finanzielle Möglichkeiten sind schon ein legitimer Grund.
 
  • Gefällt mir
Reaktionen: SweetOhm, DrFreaK666 und Mimir
Zurück
Oben