News RDNA-4-Grafikkarten: AMD Radeon RX 9070 (XT) und RX 9060 kommen mit FSR 4

NoNameNoHonor schrieb:
Da hast Du dann recht, wenn die 5070 so schnell wie die 4070TI sein wird, ist die 5070 schneller als die 4070TI, wird die Rechnung nicht aufgehen. Da AMD an einem MSRP von 699 Euro denkt, wird die 9070XT mit 4070TI Leistung ein großer Flop, zumindest solange der Preis nicht sinken wird.

Ich hab doch den Preis gesenkt auf 549€ im Vergleich zu Nvidia mit 649€.

Und man muss auch erstmal abwarten, ob die Karten bei Nvidia für den Preis auch über den Tisch gehen.
 
Schade, dass sich die Markanteilsverhältnisse damit eher noch verschärfen. Aber es hilft alles nichts. Bevor CB und PCGH umfangreich testen, werde ich keine Entscheidung treffen. Was zählt is aufm Platz, äh im Spiel. Sicher ist nur, dass meine alte Karte dieses Jahr in Rente geht und Ersatz her muss, der nicht viel mehr Strom verbraucht. Ergo 9070 oder 5070.
 
  • Gefällt mir
Reaktionen: TheHille
ofneo schrieb:
Eigentlich wollte ich zuschlagen, aber vielleicht finde ich einen Wechsler der seine 7900XT nicht mehr möchte und begnüge mich erstmal auf dem Gebrauchtmarkt wenn da die Preise passen. Denn im aktuellen Portfolio ist AMD leider nicht mehr so attraktiv und Nvidia könnte man kaufen, möchte aber die Preispolitik nicht unterstützen.
Ich hoffe das die Preise am Gebrauchtmarkt in den nächsten 2-3 Monaten sinken. Eigentlich wollte ich schon bei AMD bleiben, aber momentan sehe ich mich bei Nvidia.
Baal Netbeck schrieb:
FPS mit Fake Frames gelten für mich nicht, solange der Input lag nicht besser wird.
Ich verstehe auch nicht wie diese Fake Frames empfehlen kann, wenn darunter die Latenz so leidet. Für mich fühlt sich das einfach Katastrophal langsam an, wenn ich das irgendwo einschalte.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
LukS schrieb:
, denn sie ist sogar langsamer als eine 7900 XT...
Eher auf Niveau einer 7800 XT. Das ist echt mehr als enttäuschend. Für mich ist das ein Reinfall sondergleichen.
ist da Bestätigt das eine 9070xt langsamer in rasterleistung sein soll als meine 7900xt ??? das sozusagen nur rt kerne besser sind und ebend fsr4 was ich eh nicht benutze. sozusagen der vorteil der neuen karten sind mehr nicht ? wie ich verstanden habe? also entweder warte ich bis eine 5080super angekündigt wird oder setze diese generation kommplett aus... lohnt sich ja garnicht auser n vidia... da kommt dazu die 5080 wird keine 1200 euro kosten sondern mehr....... sry für fehler habe starkes lrs [schreiben]
 
  • Gefällt mir
Reaktionen: TheHille
Casillas schrieb:
Naja das kommt halt darauf an. Nvidia prescht ja weiter vorran mit zusätzlich KI generierten Frames. Meiner Meinung nach wird das die aktuelle negative Entwicklung, dass Spiele immer schlechter optimiert sind, weiter verschärfen.
Von den Fake Frames halte ich überhaupt nichts, da sie die Latenz verschlechtern. Mir geht es vor allem um DLSS vs FSR. Ich sehe für FSR einfach keine gute Zukunft. Das ist immer so halbherzig implementiert und es sieht einfach schlecht aus.
Wenn ich z.b. bei The Finals FSR mit DLSS vergleiche, dann kommt mir als AMD Besitzer fast das kotzen. Der Qualitätsunterschied ist riesig. Auch kommt mir FSR in Horizon Forbidden West schlechter vor, als in Horizon Zero Down.
Die Impementierung von FSR lesst in letzter Zeit echt zu wünschen übrig.

Generell stimme ich dir zu und würde ich mir schon besser optimierte Spiele wünschen als dieses KI Zeug, aber DLSS/FSR bieten auch funktionen wie eine bessere Kantenglättung.
John_Wick89 schrieb:
ist da Bestätigt das eine 9070xt langsamer in rasterleistung sein soll als meine 7900xt ??? das sozusagen nur rt kerne besser sind und ebend fsr4 was ich eh nicht benutze.
Bisher nur Gerüchte, aber die Gerüchte sind relativ weit verbreitet.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
@LukS schau dir einfach mal fsr3 bei Dragons Dogma an alles total verwaschen :) gott sei danke spiele ich lieber native :) aber mal sehen wie lange noch die gpu native mitmachen kann::: die gerüchte können schon stimmen siehe rtx50er generation leaks oder 9070leaks haben fast alle gestimmt auser die preise.....
 
Zuletzt bearbeitet:
Ich finde es sehr schade wie AMD GPU technisch momentan und auch schon eine ganze Weile dasteht..

Es muss ja nicht alles auf Augenhöhe gegenüber Nvidia sein, da AMD auch noch gegen einen anderen großen Player wie Intel gewinnbringend spielen muss.

Momentaner Stand ist eben leider so, dass wenn ich jetzt eine neue Grafikkarte bräuchte ich gezwungen bin bei Nvidia zu kaufen.

Ich hatte schon immer ATI-AMD und Nvidia Karten querbeet und kann gegen keine dieser etwas wirklich negatives sagen.

Bei AMD drücke ich gerne ein Auge zu wenn man mal nicht so ganz hinterherkommt und kaufe dann trotzdem dort.
Diesmal wäre das für mich nicht mehr vereinbar da es momentan traurigerweise meilenweit von 'nicht so ganz hinterherkommen' entfernt ist.

Maybe we someday can enter a 'World Of Visual Velocity' again. :heul:

1000079660.jpg
 
  • Gefällt mir
Reaktionen: Holgmann75, RaptorTP, Windell und eine weitere Person
@Cl4whammer!
Das alles klingt nach sehr systemspezifischen Problemen.
Nutzt du die Karten (AMD und Nvidia) abwechselnd im gleichen System?
Da würde ich zuerst mal ansetzen. Würde mich nicht wundern, wenn die Nvidia Treiber den AMD Treibern ein Beinchen stellen :stacheln:
 
John_Wick89 schrieb:
gott sei danke spiele ich lieber native
Auch in neuen Spielen?

Ich habe viele Jahre auf AA komplett verzichtet, da MSAA/SSAA zu viel Leistung benötigt hattem die ich nicht hatte oder TAA mir zu unscharf war.

Inzwischen geht MSAA in neuen Spielen gar nicht mehr und es gibt so viele verrauschte Effekte, dass es ohne TAA/FSR/XeSS/DLSS gar nicht mehr geht.

Ich habe in Stalker 2 mal AA abgeschaltet und es war unspielbar. Ich komme mit Treppenstufeneffekten und unruhigen Kanten halbwegs klar, aber dieses Maß an Rauschen ist unspielbar.

Und TAA ist unglaublich unscharf....FSR rauscht auch und ist unschön...XeSS geht so halbwegs, aber nur DLSS liefert ein Bild, das ich als gut beschreiben würde...optimal natürlich DLAA. ;)

Das ist der neue Weg der Optimierung....Effekte werden nicht mehr vollflächig berechnet, sondern nur noch alle paar Pixel und dann muss eine temporale Komponente den rauscheden Mist beruhigen.

Für MSAA gibt es zu viel Geaometrie-Anteil und zu viele "nicht geometrische Effekte"...und es ist halt nicht temporal.

Da TAA alles unscharf macht, sind wir inzwischen auf gutes KI-Upscaling angewiesen, um wieder ein scharfes Bild zu bekommen, das nicht rauscht.

Ich bin allerdings etwas skeptisch bezüglich Nvidias neuer DLSS Implementierung...weg von CNN beherbergt auch das Risiko, dass die optik wieder schlechter wird...die Präsentation sah zwar schärfer aus, aber auch so wie ein zu starker Schärfefilter...überzeichnete Kanten usw.
Das wird man unabhängig im Detail begutauchten müssen.

Und AMD muss daran aufschließen um eine Zukunft zu haben.
 
  • Gefällt mir
Reaktionen: LukS und Apocalypse
Casillas schrieb:
Meiner Meinung nach wird das die aktuelle negative Entwicklung, dass Spiele immer schlechter optimiert sind, weiter verschärfen.
Du meinst Entwickler nutzen die freigewordenen Ressourcen für höherwertige Grafik und rechenintensivere Effekte, wie man aus fast jedem Dev-Blog entnehmen kann. Ansonsten wäre die Ultra Einstellung eben Mittel gwesen und hätte nur den Namen Ultra gehabt, damit anachronistisch affektierte Benutzer dann Freudetränen weinend im Kreis hüpfen und Haleluja rufen.
Casillas schrieb:
Und das Nvidia in der eigenen Präsentation suggeriert, dass die 5070 schneller als die 4090 ist, wird ja von Einigen noch gefeiert.
Klar, warum nicht? Nvidia würde DLSS4 sicherlich nicht vorstellen, wenn es nicht brauchbar wäre.
FG soll auch 5-10% V-ram einsparen. Das ganze noch mit neural Rendering für schönere Texturen verbunden und dann kann schon ein Schuh draus werden.
Casillas schrieb:
Das dies nur mit Hilfe von zusätzlicher KI erreicht wird, stört diese Leute scheinbar auch nicht.
Von der Spielbarkeit wird es nicht ganz an die nativen Frames herankommen, soviel ist klar.
Aber das muss eine 500 Dollar GPU auch nicht leisten. AMD wird sicherlich was FG betrifft auch irgendwann nachlegen.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: Nighteye und DevPandi
LukS schrieb:
Von den Fake Frames halte ich überhaupt nichts, da sie die Latenz verschlechtern. Mir geht es vor allem um DLSS vs FSR. Ich sehe für FSR einfach keine gute Zukunft. Das ist immer so halbherzig implementiert und es sieht einfach schlecht aus.
Wenn ich z.b. bei The Finals FSR mit DLSS vergleiche, dann kommt mir als AMD Besitzer fast das kotzen. Der Qualitätsunterschied ist riesig. Auch kommt mir FSR in Horizon Forbidden West schlechter vor, als in Horizon Zero Down.
Die Impementierung von FSR lesst in letzter Zeit echt zu wünschen übrig.
Ja da stimme ich dir zu. FSR bzw. auch die Implementierungen haben echt nachgelassen. Zocke aktuell PoE II, da ist FSR nicht zugebrauchen. XeSS sieht auch nicht wirklich besser aus.

Und auf nativ FSR 3 inkl. FG in Cyberpunk können wir wohl lange warten :rolleyes:
 
  • Gefällt mir
Reaktionen: LukS und Baal Netbeck
Yesman9277 schrieb:
Würde mich nicht wundern, wenn die Nvidia Treiber den AMD Treibern ein Beinchen stellen :stacheln:
Das stört sich nicht gegenseitig.
Zumindest als ich das aufwendig getestet habe, gab es keine Nachteile wenn ich erst Windows mit Nvidia GPU+Treiber verwendet habe und dann auf eine AMD karte+Treiber gewechselt bin und umgekehrt.

Windows ist manchmal komisch, aber es verwechselt nicht welchen Treiber es zu laden hat und welchen es ignorieren kann.

Man kann munter Grafikkarten tauschen und beide Treiber installiert lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Corpus Delicti und Casillas
wie alle am eskalieren sind...die neue nvidia karten sind gerade mal bis zu 20 prozent schneller nativ ohne dlss und sonstigen schnickschnack...bringt die 5070 dann auch gerade mal ans 7900xt niveau in raster...software wird halt immer wichtiger. Aber für esportler die nur cs2 etc zocken ist halt die reine rasterleistung ausschlaggebend weil antilag reflex etc halt einfach müll sind in highfps szenarien.
 
Casillas schrieb:
Meiner Meinung nach wird das die aktuelle negative Entwicklung, dass Spiele immer schlechter optimiert sind, weiter verschärfen.

Quidproquo77 schrieb:
Du meinst Entwickler nutzen die freigewordenen Ressourcen für höherwertige Grafik und rechenintensivere Effekte, wie man aus fast jedem Dev-Blog entnehmen kann. Ansonsten wäre die Ultra Einstellung eben Mittel gwesen und hätte nur den Namen Ultra gehabt, damit anachronistisch affektierte Benutzer dann Freudetränen weinend im Kreis hüpfen und Haleluja rufen.

Wenn Spiele schlecht optimiert sind, meine ich damit nicht, dass Ressourcen frei werden.

Ansonsten verstehe ich nicht, wie du das mit der Ultra Einstellung und Anachronie meinst.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Yesman9277 schrieb:
Das alles klingt nach sehr systemspezifischen Problemen.
Bin viel im AMD reddit unterwegs, bis auf das Problem mit den USB/Netzwerkgeräte die flöten gehen beim simplen update über die Adrenalin Software sind das bekannte Probleme.
 
Chismon schrieb:
Diese Tech-Tuber und "Drama Queens" haben weniger Videoeinhalte über Grafikkarten in den letzten Wochen online gestellt als so manches Clickbait-Print- oder Webseitenmedium (CB eingeschlossen, wo es ganze Artikel und nicht nur Notizen wegen Produktumbennungen oder einer anderen unwichtigen kolportierten Kleinigkeit/eines Gerücht zu den RTX 5000er Karten gab).
Dafür bist ja schon ganz schön lange hier angemeldet
 
Casillas schrieb:
Meiner Meinung nach wird das die aktuelle negative Entwicklung, dass Spiele immer schlechter optimiert sind, weiter verschärfen.
Lassen wir mal die offensichtlichen Spiele weg, wo es durchaus stimmt, dass hier die Entwickler nicht mal das nötigste machen.

Das Thema ist in weiten Teilen weitaus komplexer, weil hier vieles miteinander vermischt wird und in der Regel einfach nur lapidar geschrieben wird, dass Spiele schlechter optimiert weden. Das ist so aber auch nicht richtig.

Wenn ich mir aktuelle Spiele ansehe, dann fällt mir auf, dass imme weniger Assets mehrfach verwendet werden - ein Umstand, den ich bereits vor gut 7 Jahren erwähnt habe, als es mit der Photogrametrie los ging. Da weder Polygonmodelle noch Texturen heute teilweise mehrfach verwendet werden, steigt alleine durch die "Einzigartigkeit" der Objekte. Dazu kommen Texturen, die selbst wenn man Polygone-Assets erneut verwendet, auf diese einzigaritg zugeschnitten wid.

Daneben werden - wie hier so schön schon erklärt wird - die freien Ressoucen für genauere Effekte und Co direkt wieder mitgenommen.
Quidproquo77 schrieb:
Du meinst Entwickler nutzen die freigewordenen Ressourcen für höherwertige Grafik und rechenintensivere Effekte, wie man aus fast jedem Dev-Blog entnehmen kann.
Japp, wird leider nur nicht wahrgenommen. Genauso, dass immer weniger Assets wiederverwendet werden und so weiter.

Ich find es erstaunlich, wie wenig Assets teilweise in modernen Spieen wie FF 16 und Co mehrfach verwendet werden. Klar, es gibt sie, aber vieles ist einzigartig und das merkt man. Genauso wie vielfälltig auch die OpenWorlds teilweise werden. Während man sich früher auf ein zwei Typen beschränkt hat an Umwelt wid heute viel mehr abgebildet.
 
  • Gefällt mir
Reaktionen: Apocalypse, Quidproquo77 und Baal Netbeck
Ich sage es gerne nochmal und bringe es mal klar auf den Punkt. Natürlich nur meine persönliche Einschätzung der Situation.

Radeon hat schlicht derzeit keine Priorität für AMD und das ist auch die vollkommen richtige Entscheidung. Natürlich bedauere ich das auch sehr und würde mir das als jemand der die letzten fast 20 Jahre nur Radeon's gehabt hat auch anders wünschen, aber strategisch aus Konzernsicht ist es das einzig Richtige.

Ich sage ja auch, wenn es ganz schlecht läuft, kann es auch passieren, dass AMD ganz aussteigt. Das ist hart, aber es bringt ja ohnehin nichts die Augen vor der Realität zu verschließen. Ich befürchte die ohnehin sehr niedrigen Marktanteile werden weiter sinken und mit schwindender Marktdurchdringung, wird es natürlich auch immer schwerer Dinge in die eigene Richtung zu lenken und z.B. eigene Technologien zu pushen. Vielleicht der Beginn des langsamen Rückzugs. 🙁
 
  • Gefällt mir
Reaktionen: Casillas
Pisaro schrieb:
AMD ist da auch nicht sooo viel günstiger. Bedenke: AMD hat das "schlechtere" Featureset.
Aha, spiel mal auf Linux mit deiner grünen Karte.
 
Quidproquo77 schrieb:
Nvidia würde DLSS4 sicherlich nicht vorstellen, wenn es nicht brauchbar wäre.
Das Argument kann ich nicht nachvollziehen.
Nvidia hat auch versucht RTX 2000 auf Basis von Raytracing zu verkaufen und RT war und ist kein Feature, dass der 2000er Serie je einen Vorteil gebracht hat.

Es kam verspätet und sah oft zweifelhaft aus...und lief mit weniger FPS, was auch das Erlebnis schmälert.
Erst deutlich später sind Spiele erschienen, die so viel Raytracing implementiert haben, dass es wirklich einen Mehrwert bietet und für diese Spiele sind die Karten der 2000er Serie einfach zu langsam.

DLSS4 mag die FPS vervierfachen, aber rein theoretisch kann sich dadurch nicht der Input lag verbessern.

Also entweder hat man ein Spiel mit niedrigen Grund-FPS, dass zäh läuft und etwas ruckelt....das bekommt man dann flüssig, aber es wird tendenziell noch zäher...das würde ich nicht verwenden wollen.

Oder man hat genug Grund-FPS, dass es nicht mehr zäh ist...so 80+....dann ist es schon einigermaßen flüssig und was man noch steigern kann ist die Bewegungsschärfe durch mehr Bilder.
Da ist die Frage wie scharf die Zwischenbilder sind und ob das wirklich schärfere Bewegtbilder bringt.

In beiden Fällen sehe ich einen kleinen möglichen Nutzen je nach Situation, aber kein Killer-Feature, dass hohe GrundFPS unnötig macht.
Quidproquo77 schrieb:
FG soll auch 5-10% V-ram einsparen.
Wird sich zeigen wie das gemeint ist und wie es sich in der Praxis ergibt.

Im Moment erhöht FT den VRAm Bedarf und ich sehe keine technische Möglichkeit, wie zusätzliche KI-Bilder zu weniger VRAM führen sollen.

Eventuell vergleicht Nvidia hier 1 echtes + 3 fake Bilder, mit 4 echten Bildern?

Wenn sie generell den VRAM besser komprimieren, dann sollte das genauso dem Betrieb ohne FG zugute kommen und nicht nur wenn FG aktiv ist.
Quidproquo77 schrieb:
Das ganze noch mit neural Rendering für schönere Texturen verbunden und dann kann schon ein Schuh draus werden.
Da bin ich auch sehr gespannt drauf. :)

Das kann wirklich was werden.
Quidproquo77 schrieb:
Von der Spielbarkeit wird es nicht ganz an die nativen Frames herankommen, soviel ist klar.
Siehe oben.
Das Prinzip hat die gleichen Probleme wie das jetzige FrameGen.
Es wird flüssiger aber der Inputlag wird zwangsläufig schlechter(gelichbleiben), als wenn immer der aktuellste echte Frame gezeigt wird.

Nvidia wird versuchen dir Szenarien zu zeigen, wo Antilag den Inputlag mit FG verringert und unter "kein FG" drückt....aber dann eben auch ohne Antilag oder mit einer älteren Version.

Technisch hat FG maximal die Informationen die auch der nächste echte Frame haben kann.

Wenn sie es technisch ganz toll hinbekommen, dann arbeitet FG schon an den Zwischenbildern während der nächste echte Frame rendert und kann diese raushauen bevor der echte Frame wirklich fertig ist.
Da ist aber die Frage, wie das aussieht, denn dreht sich die Kamera, kann FG zwar das vorhandene Bild dementsprechend verschieben/verzerren, aber da wo sich die Kamera hindreht, fehlen die Informationen.
...wir werden sehen...ich habe wenig Hoffnung, dass es das Spielgefühl soweit verbessert, dass ich es nutzen werde.
 
  • Gefällt mir
Reaktionen: eXe777, Apocalypse, up.whatever und 3 andere
Zurück
Oben