Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPreview zu FSR 4: AMDs KI-Upsampling überrascht mit sehr gutem Ersteindruck
Das müsste man sich dann im Detail ansehen wie in diesem Video 3.1 vs. 4 wo das selbst durch YT und Kamera offensichtlich ist dass FSR4 gegenüber 3.1 qualitativ die Nase deutlich vorn hat.
Und wenns gut ist ,ist es halt gut oder geht es auch guter??? Dazu müsste man mehr Vergleiche sehen zwischen FSR4 und DLSS4.
Tjoar.. nur muss man erstmal FSR4 in die Spiele integrieren..
Das heißt Spieleentwickler müssen nun einen upscaler zusätzlich einbauen da FSR4 ja RDNA only ist.. ob sich das für 1% Marktanteil lohnt..
Abwarten, was am Ende wirklich rauskommt.
Ich bleibe da skeptisch, FSR 3 war nun nicht der große Wurf und besser als das zu sein, heißt eben noch lange nicht, dass man mit DLSS konkurrieren kann.
DLSS 4 macht dabei noch einen Schritt vorwärts.
Außerdem war die Vorstellung in einem festen Szenario. Man wird wohl eine Szene ausgewählt haben, wo die Technik besonders glänzen kann.
Man hat zumindest definitiv eine Szene ausgewählt, in der FSR3.1 furchtbar aussieht. Also eben keinen Best Case, sondern einen Worst Case. Das man solche Szenen jetzt offenbar komplett im Griff hat, ist durchaus eindrucksvoll. Ich würde schon davon ausgehen, dass manch andere Szene (die auch mit FSR3.1 schon gut aussah) optisch noch besser aussehen würde als diese. Also meiner Meinung nach ging es hier mehr darum, den Fortschritt zu demonstrieren, als einen absoluten Best Case zu zeigen.
Immer diese ganzen Untergangsfantasien. 😄 Wenn die Karten in P/L und Performance gut abliefern, werden die sich auch verkaufen. Jemand der neutral ran geht und beispielsweise 500€ Budget hat, wird die Produkte in der Preisklasse vergleichen und sich dann für das aus seiner Sicht beste Produkt entschieden. Der legt nicht mal eben noch 2000€ oben rauf, weil es auch eine RTX 5090 gibt.
Will heißen, finde ich es schade das AMD diese Gen nicht im HighEnd mitspielt, ja klar, aber kann diese Gen trotzdem erfolgreich sein, ja klar.
Naja. Tatsächlich hat man eine Szene gewählt die für alle Technologien dieser Art besonders schwierig ist. Ist also eher unwahrscheinlich, dass zufällig FSR4 gerade hier besonders gut und woanders tendenziell schlecht ist.
Ist doch genau andersherum. Auf einer 4080 bekommst du die verbesserte Grafik von DLSS und Ray reconstruction und bessere Performance mit Frame Generation.
Wer eine AMD 6000/7000 hat bekommt nichts.
Denke mal da hat AMD den Vorteil durch die Konsolen, hat die PS5 pro nicht auch RDNA4 features? Da sollte es doch der gleiche aufwand sein neben PSSR auch FSR4 reinzubauen.
Würde Radeons für mich zumindest wieder kaufbar machen (wobei die Verfügbarkeit auch immer so ein Thema ist, mit Optiscaler-Gefrickel könnte man sich wahrscheinlich immerhin behelfen). Dumm nur, dass nVidia gerade dabei ist wieder eine Qualitätsstufe vorzulegen.
@Flunkiii das liegt eher daran, dass die zu Grunde liegende Auflösung bei hochskaliertem FHD viel zu niedrig ist um das wirklich schön darstellen zu können. Da hatte auch DLSS sehr lange sehr viel Mühe mit und da 1080p als solches eigentlich relativ gnädig darzustellen ist, lag logischerweise auch kein Fokus darauf.
Aber es ist ja kein Aufwand, FSR einfach auch bei nativer Auflösung möglich zu machen. Das sieht viel besser aus als TAA. In Witcher 3 habe ich z.B. mit TAA komisches Schmieren bei Bewegung, aber mit FSR nicht. Allerdings muss ich FSR Quality auswaehlen weil Nativ nicht angeboten wird. Und das sieht wieder an anderer Stelle unschön aus, z.B
Haaren. Das ist doch bekloppt. Deswegen hoffe ich dass FSR4 da besser wird so dass man auch mit Quality keine Einbußen bei 1080p hat.
Auch wenn mich einige jetzt steinigen werden… mir reicht FSR 3.x auch aus… viel schöner wäre es wenn die Spiele das auch flächendeckend ordentlich unterstützen.
Klar ist das eine neue Technologie und es muss sich erst wieder ordentlich verbreiten.
Genau dieser Müll mit Nvidia hier und AMD da hat dafür gesorgt das ich mal ca. 4 Jahre gar keinen Gaming PC hatte und mit der Wii U und PS4 und 3DS XL wesentlich glücklicher war.
Wenn der ganze HeckMeck wieder so stark losgeht bin ich mittelfristig wieder weg vom Gaming-PC.
Was ich an der ganzen Sache nicht verstehe das AMD den highendmarkt komplett der RDNA3 reihe bzw nur der XTX überlässt. Es hätte doch gereicht wenn man Navi 31"GCD MCD" ein wenig optmiert und an neuerer Fertigung angepasst hätte, schwups wäre nen gegenspieler zur 5080 da. Und es würde bei weiten nicht so viel kosten wie eine "neuentwicklung"
Manchmal werd ich auch das gefühl nicht los das in der Firma leute sitzen die, die bude absichtlich boikotieren oder so. RDNA2 war ja auch super, aber darauf hat man auch nicht aufgebaut. Das ganze wirkt auch irgendwie ein wenig ziellos, das gleiche jetzt auch mit FSR4, zuerst nur RDNA4 und später ist das aufgeweicht.
Wenn die propagierten Leistungsdaten der 9070XT stimmen, ist das ja schon einmal falsch. Und die Eindrücke von FSR 4 sprechen meiner Meinung nach dafür, dass AMD ein exklusives Feature für RDNA 4 entwickelt hat, um sich doch von RDNA 3 abzugrenzen.
Also wieder das typische:
Schade das AMD kein High End mehr bietet ich will doch günstige Nvidia Karten kaufen.
Das du als Kunde mit bestimmst, was Nvidia machen kann und was nicht, wird wieder völlig ausgeblendet.
Bloß keine eigene Verantwortung übernehmen, sondern sich beschweren dass der Underdog, den "keiner" kauft kein High End bietet, damit man sein Geld dem Nicht-Underdog geben kann
Finde das Problem
Ich vermute das FSR4 ein FSR 3.1 ist was auf RDNA4 zusätzlich ML nutzt, was es dann zu FSR 4 macht in vorhandenen Games. COD Black Ops 6 wird wahrscheinlich das erste Game sein was FSR 4 nativ Support bietet.
Ich denke schon es wird einen Fallback Modus geben wie bei XeSS oder FSR 3.1 wird einfach seperat weiterentwickelt neben FSR 4.
4k hat halt deutlich zu früh Einzug gehalten und ist immer noch ein absoluter Luxus. Die GPU Hersteller können nichts dafür, dass die Pixeldichte so massiv zugenommen hat bei den Displays. Da wurde innerhalb eines kurzen Zeitraums auf einmal bis zu 4x so viel Leistung verlangt. Woher soll die denn gezaubert werden?
sehe ich zumindest ähnlich; bei den monitoren wurde durchgehend nach uhd auflösungen mit hohen bildwiederholraten gerufen - auf die frage womit man diese monitore eigentlich hardwareseitig füttern will, kam nie eine vernünftige antwort.