News AMD FSR 3: „Frame Generation“ läuft of­fi­ziell ab RX 5000 und RTX 2000

Schinken42 schrieb:
Wird bei NVs FG ja genauso empfohlen.
Aus dem Grund beides für mich eher weniger interessant.
60fps reichen mir völlig, da wird gecapt.

Wenn man nach HardwareUnboxed geht, empfehlen die mindestens 120FPS zu haben bevor man FG aktiviert.
Find ich lächerlich, ich sehe auch bei 40FPS keine Artefakte und die Latenz ist durch Reflex halt immer noch niedriger als wenn man normale 60FPS hat.
Ich bin mir auch ziemlich sicher gelesen zu haben, dass Nvidia selbst 40 als Punkt angibt wo man FG gut nutzen kann.

Auch wenn dir normalerweise 60 reichen(geht mir genau so), wenn du FG nutzen willst, würde ich demnach dann bei mind. 80 cappen, damit deine Basis eben bei mind. 40 liegt. Denn mit 60FPS cap hättest du nur noch 30 Basis-FPS und das ist dann schon spürbar
 
RogueSix schrieb:
Ja und?

Dafür können über 125 Mio. Besitzer ihre Switch mit nVidia Hardware "streicheln" (Du hast ein komisches Verhältnis zu Hardware mit der Streichelei, aber jedem Tierchen sein Pläsierchen :daumen: ).

Die Switch Hardware hat auf jeden Fall alles abgehängt. :)
 
CDLABSRadonP... schrieb:
... schon jetzt erkennbare Überlegenheit in einzelnen Punkten?
Und dann nimmst du Probleme mit HUD Elementen die es bei FG zu Anfang mal gab ?
Natürlich hat man die nicht mehr wenn man fast ein Jahr später mit der Technik raus kommt, FG hat die ja in neueren Versionen auch nicht mehr
 
Tech-Dino schrieb:
Ausgezeichnete Sache von AMD :daumen:

Nur so kann Druck auf Nvidia ausgeübt werden, zumindest FG für die RTX3xxx Serie freizugeben.
(auf meine PNY RTX A6000 blicke)

Nvidia verfolgt doch einen ganz anderen Ansatz und nutzt seine Optical Flow Accelerators und die sind nur auf RTX4000 verbaut. Die werden keine reine Softwarelösung anbieten wie AMD. Ohne OFAs kein FG.
 
  • Gefällt mir
Reaktionen: Tech-Dino
Taxxor schrieb:
Natürlich hat man die nicht mehr wenn man fast ein Jahr später mit der Technik raus kommt, FG hat die ja inzwischen auch nicht mehr
Das ist mir neu, dass es gelöst sein sollte. Und falls das stimmen sollte, dann müsste meiner Meinung nach die News auch entsprechend angepasst werden.
 
Suspektan schrieb:
amd hat nicht die finanziellen Mittel wie nvidia zur Gpu Entwicklung zur Verfügung und muss zugleich im CPU sektor mit intel konkurrieren
Das verstehen viele nicht. Nividia hat jetzt einen Punkt erreicht, der auf Jahre umkehrbar sein wird. Deswegen wird die neue 5090 vielleicht 3000 statt 2000 bei der Einführung kosten. Auch möglich, AMD zieht sich aus der GPU Sparte zurück. Und wenn AMD ein Achtungserfolg gelingt, wird trotzdem Nvidia gekauft wegen den gefallenen Preisen. Monopolisten häufen so viel Geld an und knüpfen so viele Kontakte, dass das bessere Produkt kaum was nützt.
 
  • Gefällt mir
Reaktionen: SweetOhm und Enyo79
Taxxor schrieb:
Und dann nimmst du Probleme mit HUD Elementen die es bei FG zu Anfang mal gab ?
Natürlich hat man die nicht mehr wenn man fast ein Jahr später mit der Technik raus kommt, FG hat die ja in neueren Versionen auch nicht mehr
Echt jetzt, so gut sind die jetzt bei NV schon?
Wahnsinn diese proprietären Pioniere, wirklich sehr beeindruckend.
 
Ich würde annehmen, dass die treiberseitige Implementierung vom FMF-Feature eher auf dem Level von FSR 1.0 ist - also nur mäßig brauchbar hinsichtlich der Bildqualität. Anderseits geht es mir als 7900XTX Nutzer so, dass ich selbst Spiele wie TotalWar Warhammer 3 gerne mit einer hohen Framerate spiele und hier treiberseitiges Upscaling von 3072x1780 auf 4K vornehme.

Ich könnte mir allerdings vorstellen, weil die Latency bei solchen RTS-Titeln nun wirklich nicht entscheidend ist, dass ich die Möglichkeit hätte in der 4K-Auflösung zu bleiben und praktisch nur die interpolierte Bildgenerierung anwerfe. Das könnte am Ende vielleicht zu einer höheren Bildqualität führen als jenes was ich mit dem Upscaling betreibe. Die UI Elemente in Warhammer 3 sind ja zudem eigentlich recht stabil (...)

Hört sich auf jeden Fall nach einen großen Wurf für AMD an und es ist wie immer schön das praktisch alle Nutzer profitieren. Wobei sich das natürlich durch die Notwendigkeit ergibt, dass AMD einfach weitaus weniger Marktdurchdringung hat (...)
 
mcsteph schrieb:
dass das bessere Produkt kaum was nützt.
Naja jetzt sagst du das AMD das bessere Produkt ist oder lese ich das falsch ?

Ich Kauf was schneller ist das ist seit Jahren eben Nvidia sollte AMD was schnelleres bringen aber bitte ohne gepushe von fsr oder dlss , ich möchte wissen welche native schneller ist

In meinen Augen gehen wir so arg auf die Konsolen zu irgendwann haben wir keine native hohe Auflösung mehr wenn wir mehr als 60 FPS sehen wollen was ich sehr schade finde

Das Feature was von der Konsole wirklich interessant ist schleppt sich nur langsam auf dem PC (schnell laden)
 
mcsteph schrieb:
Deswegen wird die neue 5090 vielleicht 3000 statt 2000 bei der Einführung kosten.
Darf sie ja ruhig, muss ja niemand kaufen für die Kohle.

mcsteph schrieb:
Auch möglich, AMD zieht sich aus der GPU Sparte zurück. Und wenn AMD ein Achtungserfolg gelingt, wird trotzdem Nvidia gekauft wegen den gefallenen Preisen.

Gerade im obigen Fall dürfte es AMD doch gelegen kommen die Sparfüchse zu bedienen ,die nur mehr VRam und Rasterleistung benötigen. Funktioniert halt nur solange bis das bessere Produkt zum gleichen Preis erhältlich ist.
mcsteph schrieb:
Monopolisten häufen so viel Geld an und knüpfen so viele Kontakte, dass das bessere Produkt kaum was nützt.

Das bessere Produkt setzt sich langfristig immer durch.
 
Also kann meine Karte noch ein Weilchen im System verbleiben, klingt gut. Ich bin mir auch sicher das FSR 3 bei Starfield dabei sein wird, notfalls wird es per Update nachgereicht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wenn das echt einfach hinzuzufügen ist sofern FSR2 vorhanden ist, sollte das doch nach kurzer zeit per mod machbar sein da Starfield doch FSR2 haben wird.

Ist ja nicht so als ob FSR2 nicht bei DLSS oft per mod einfach nachrüstbar ist.
 
scryed schrieb:
Naja jetzt sagst du das AMD das bessere Produkt ist oder lese ich das falsch
Nein aber wenn es so wäre, würde das auch nichts bringen. Es setzt sich im Kapitalismus nicht immer das bessere Produkt durch.
Ergänzung ()

Tornavida schrieb:
Das bessere Produkt setzt sich langfristig immer durch.
Das ist Blödsinn. Die Vergangenheit hat gezeigt das es nicht so ist. Es kommt auf viel mehr an. Verträge, Kontakte, Marketing, OEM Märkte, Qualität, Preis, Vertrieb usw….

Schau dir Dell an, Ryzen ist seit Jahren Konkurrenzfähig. Wie viele Desktop Rechner mit AMD CPU haben sie im Shop?;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
gustlegga schrieb:
Das entscheidende in dem Satz den ich "Fett" gesetzt habe, ist hier das Wort "Offiziell".
Der Satz widerlegt nicht meine Meinung, die Karten sind lauffähig, empfohlen wird aber RDNA3.

Ich glaube, da hast du was falsch verstanden.
Ergänzung ()

gustlegga schrieb:
Ja, meine Textkorrektur spielt mir immer einen Streich, aber danke für die Info. ^^
 
xxMuahdibxx schrieb:
Aber wie dem auch sei sind es halt nur Gerüchte...
Ja, das stimmt schon. Ich hatte die letzte Auflistung seitens AMD auch nicht mehr gelesen, zu wenig Zeit. Mich wunderte es nur, dass gerade Starfield fehlt als AMD exklusiver Titel.....
Ich war schon fast davon ausgegangen, die angekündigte Antwort auf DLSS 3.5. Ich denke aber, es wird zu einem späteren Zeitpunkt implementiert.
Ergänzung ()

scryed schrieb:
Na das würde ich nicht so unterschreiben , schau dir Fallout 4 mal genauer an
Das stimmt, Fallout 4 ist im Ursprung ja auch von 11/2015. Da hat sich schon einiges getan
Aber an einigen Stellen in den ganzen Trailern und Videos erinnert es doch sehr stark an Fallout 4 und kann seine Gene nicht verstecken.
 
Zuletzt bearbeitet:
Blackfirehawk schrieb:
Unter 60 geht gar nicht mehr.. und 60 empfinde ich schon sehr grenzwertig.

Deswegen gibt's auch kein 4k Monitor.. 1440p reicht mir.. darüber wird's mir zu teuer mit meinen FPS wünschen
Naja, das empfindet jede/r anders, wenn man Retrospiele oder Nintendo Switch mag/spielt sind sogar noch nur 30fps angesagt.

Ich habe mir als Ersatz für meinen uralten Dell 27" WUXGA Monitor vor kurzem einen älteren preiswerten 32" 4K 60Hz Monitor (auch als Arbeitsgerät) von BenQ geholt mit halbwegs akzeptablen Testwerten (für unter 300 Euro), weil die Gaming-4K/UHD Monitorlandschaft eine riesige Katastrophe preis-leistungstechnisch ist, wenn man nicht annähernd 1000 Euro für ein neues Gerät anlegen will.

Ein mittelprächtig ausgestattetes 32" 4K/UHD Gerät ohne brauchbares HDR aber mit 144 Hz bekommt man nicht unter 700 Euro derzeit und mehr als das doppelte (fast das dreifache) nur vordergründig für höhete Takt-/Wiedergaberaten zu zahlen geht m.E. gar nicht.

Bevor ich so viel in unrunde teure Gaming-Monitore investiere, gibt es lieber vorerst einen günstigeren Allrounder mit Abstrichen im Gaming-Bereich und warte ich lieber.

WQHD wollte ich überspringen zumal der Sprung von 1200p zu 1600p auch nicht so groß ist (wozu kauft man sonst auch eine Grafikkarte, die in der Vielzahl der Spiel problemlos 4K/UHD packt, denn auf eine niedrigeren Auflösung wollte ich mich dann auch nicht limitieren lassen).
 
Zuletzt bearbeitet:
@HaRdWar§FreSseR
Dann hat eventuell einer von uns beiden hier ein Problem mit sinnerfassend lesen.
Lauffähig ist es prinzipiell auch auf Karten mit GCN Chips, der GTX1000 Serie und den Intel Karten.
Wenn AMD hier aber von "offiziell" spricht und die 5000er Radeon und 2000er GeForces nennt,
sind das für mein Verständnis auch die empfohlenen Karten.
Bei den älteren und der Arc kanns also funktionieren muss aber nicht bzw. stellt sich die Frage wie gut oder schlecht.
Ich sehe da irgendwie nicht wie du auf RDNA 3 only kommst. :confused_alt:
Oder ich hab schlicht im Artikel irgendwas übersehen dann möge man mich bitte gerne darauf hinweisen..
Aber seis drum, in 1-2 Monaten wissen wir dann sicher mehr wenn das Zeug rauskommt;
Hoffentlich auch halbwegs final und brauchbar.

HaRdWar§FreSseR schrieb:
Ja, meine Textkorrektur spielt mir immer einen Streich, aber danke für die Info. ^^
Gerne doch. Sorry wenn das wichtigtuerisch rüber kam,
aber mich schüttelts manchmal so bei Hacken, tackten oder Standart.... :freak:
 
  • Gefällt mir
Reaktionen: SweetOhm und HaRdWar§FreSseR
Novasun schrieb:
War doch bei Cyberpunk zu Beginn auch so...
Bei Cyberpunk gabs schlicht keine Konkurrenz, FSR und Intels XeSS waren nicht auf dem Markt. Da war auch DLSS noch nicht so gut entwickelt wie heute und hat reproduzierbare Artefakte gebildet.

Heute aber gibt es schon 3 Lösungen auf dem Markt die gut funktionieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
"Looks promising"
Um es mit dem antiquierten C&C Generals zu sagen.
 
  • Gefällt mir
Reaktionen: gustlegga
Zurück
Oben