News RDNA-4-Grafikkarten: AMD Radeon RX 9070 (XT) und RX 9060 kommen mit FSR 4

flou schrieb:
20 GB VRAM hätten es schon sein können
Das würde wieder einen 320 Bit Bus benötigen, welcher den Chip wieder teurer macht. Genauso das Mehr an Speicher.
Und das werden, jedenfalls vom Namen her, immer noch 7er-Karten und da sind 16GB völlig in Ordnung. Der RTX5080 für 1150€ hat auch nicht mehr in einer höheren Preis- und Leistungsklasse
Ergänzung ()

Convert schrieb:
Die Vorstellung der GPUs erfolgt zu einem späteren Zeitpunkt. Die 45min der Keynote waren zu kurz für eine komplette Vorstellung, also hat man es komplett gelassen und nur angeteasert.

https://morethanmoore.substack.com/p/where-was-rdna4-at-amds-keynote
Der AMD-Dude hätte sagen können, das etwas mehr Infos in den nächsten Stunden kommen werden.
Ich war jedenfalls überrascht, als plötzlich zig Berichte aus dem Boden sprießten
 
@Holgmann75

Hoffentlich werden die dann aber dieses Mal vorher auf Echtheit geprüft. 😂 Nicht das sich dann rausstellt, dass es ein böse Finte eines gewissen Jen-Hsun Huang war. 🤣
 
  • Gefällt mir
Reaktionen: Holgmann75
Das war deine ursprüngliche Aussage:
Quidproquo77 schrieb:
FG soll auch 5-10% V-ram einsparen.
Und da wollte ich wissen, wie FG weniger VRAM belegen kann als kein FG...auch wenn es sparsamer implementiert ist, ist es trotzdem ein Zusatzfeature mit mehr Frames und Informationen im Speicher.
Daher wollte ich erfragen was genau da verglichen wird.

Als Antwort habe ich erhalten, dass nur der Teil der zu FG gehört weniger braucht und das hat mich zu der Aussage gebracht, dass das ja lächerlich wenig wäre. wenn ein paar Prozent von ca 1,1GB gespart werden.

Du hast korrigiert:
Quidproquo77 schrieb:
Du musst die VRAM Belegung vom gesamten VRAM Bedarf abziehen.
Ich habe inzwischen die Originalquelle gefunden und es wurde das alte FG mit dem neuen FG verglichen.
Nvidia meint wohl 30% vom FG-Anteil gespart zu haben und das sind dann in dem Beispiel 5% weniger Gesamt-VRam.
Also ganz nett....aber eigentlich nix, das jetzt eine 8 oder 12GB Karte rettet wenn da ein VRAm hungriges Spiel daherkommt.

Quidproquo77 schrieb:
Was bringt dir ein niedriger Inputlag, wenn die Bilder ruckeln?
Das sind zwei verschiedene Sachen. Warum sollte ich nicht von einem niedrigen Input Lag profitieren wollen, nur weil die Animation etwas ruckelt?

Wenn MFG die FPS vervierfacht...die Qualität der Frames stimmt, das Framepacing stimmt und sich der Input Lag nicht verändert, ist das ein tolles Feature...spricht ja nichts dagegen.

Aber wenn ich einen schlechteren Input Lag akzeptieren muss, um die flüssigeren Animationen zu bekommen und eventuell auch Artefakte/Zittern/usw, dazu bekomme, muss man abwägen was einem wichtiger ist.
Wird sicherlich auch stark vom Spiel und anderen Faktoren abhängen.

Digital Foundry durfte wohl etwas mit einer 5080 spielen und haben auch PC Latency gemessen. Leider nur FG mit 1, 2 und 3 Fake Frames...gerne hätte ich die Latency ohne FG gesehen und gewusst, ob da Reflex aktiv war.
50,97 ms, 55.5 ms und 57,3 ms sind der Durchschnitt aus deren Test.
Basierend darauf, würde ich sagen...wenn schon FG dann gleich alle drei fake Frames.
Aber über 50ms PC Latency ist aus meiner Erfahrung nicht sonderlich angenehm. Da fehlt mir der Vergleich zu deaktiviertem FG.
Das neue AI Model sieht erstmal ziemlich genial aus. :)

Welche Grafikkarte hast du eigentlich?
Quidproquo77 schrieb:
Das ist die gleiche Argumentation mit Scheuklappen wie bei TAA wo nicht TAA das Bild "unscharf" macht, sondern die niedrige Auflösung und die geglätteten Kanten.
TAA glättet ja nicht nur die Kanten....das ist ja das Problem was ich damit habe!
Es verwischt halt alles und nimmt damit auch die Details von Texturen mit.
Das Video von Digital Foundry habe ich ja schon verlinkt.
Quidproquo77 schrieb:
MSAA macht das auch "unscharf" das wirkt nur weniger unscharf für dich weil MSAA 90% des Bildes nicht beruhigt und glättet, weil's aufgrund Deferred rendering nicht mehr funktioniert.
MSAA macht nur die Geometrie unscharf. Nicht die Flächen.
Das das heutzutage nicht mehr sinnvoll ist habe ich ja selbst schon mehrfach gesagt.

Quidproquo77 schrieb:
Rechts ist für dich unscharf. Das Problem liegt an deiner persönlichen Präferenz.
Du missinterpretierst mein Problem mit TAA.
Die schrägen Kanten von Geometrie unscharf zu machen ist nunmal wie AA funktioniert. Das will ich nicht verteufeln.

Ich will halt nicht, dass die Texturen und senkrechten/hrizontalen Kanten auch unscharf werden und Ghosting muss auch nicht sein.
Quidproquo77 schrieb:
Jeder Grafikregler schränkt dich theoretisch ein, sowie Auflösung, Kantenglättung usw.warum du bei RT da so ein Fass aufmachst, verstehe ich nicht.
Weil RT im Vergleich zu den meisten anderen Reglern sehr viel mehr Leistung kostet und dabei nicht zwangsläufig besser aussieht.

Es geht mir vor allem um das Rauschen, das durch die unzureichende Anzahl an Rays entsteht.
Klar kann man das mit TAA verwischen, aber das verwischt halt auch alles andere.
Quidproquo77 schrieb:
Klar war das im übrigen schon 2006, als Daniel Pohl von Intel noch Artikel schrieb, nicht nur hier auf Computerbase.
Ja da kann ich mich noch dran erinnern und die Probleme sind die gleichen geblieben.

Nicht genug Hardwareleistung um mehrere Rays pro Pixel in Echtzeit zu verschießen!

Vor allem nicht, da die Anforderungen an die Auflösung so stark gestiegen sind.

Immer mehr Polygone machen RT irgendwann mal sinnvoller als Rasterisierung aber das ist ja noch immer Zukunftsmusik.

Stand jetzt, werden nur ein paar Effekte mit RT gemacht und diese mit (Aus meiner Sicht)unzureichend wenigen Rays....trotzdem senkt es die FPS und entlastet den Raster-Pfad nicht ausreichend, wie früher mal erhofft.

Dann hat man also Effekte die rauschen und über Denoiser + DLSS/FSR/XeSS/TAA geglättet und beruhigt werden müssen.
Mal geht das gut und mal nicht.
Nimm z.B. Control, da werden die RT-Schatten nicht nur aus den Rays des aktuellen Frames konstruiert, sondern die Rays aus mehreren Frames aufaddiert. Das führt zu Schatten die zeitlich verzögert "wachsen/wandern".....sicherlich ein Problem, dass mit vielen FPS besser wird, aber die Fake Frames werden dir hier nicht helfen.
In CP2077 baut sich aus dem gleichen Grund die Beleuchtung verzögert auf.

Das ist für mich keine Technik, die schlicht "besser" ist!
Es ist teilweise echt ein Mehrwert, wie in Indiana Jones, wo die RT-Schatten in hohen RT-Stufen das ganze Bild vom "PC-Spiele-Gefühl" Richtung "natürlich" verschieben.

Das Gegenteil ist aus meiner Sicht oft der Fall, wenn die Schatten in CP2077 vor sich hin rauschen.

Raytracing(Und Lumen) haben ihre Problemstellen und daher ist es momentan für mich eher nichts.
Ich habe lieber mehr FPS und weniger Rauschen.
Quidproquo77 schrieb:
Habe ich völlig andere Erfahrungen gemacht, deswegen ist mir das einfach suspekt.
Jeder hat eine andere Wahrnehmung...manche halten 30 FPS auch für flüssig und reaktionsschnell.

Andere sehen den Unterschied von 160 auf 180 FPS.

Ich erfreue mich eher an einem reaktionsschnellen Spielgefühl, als am Realismusgrad der Beleuchtung.

Und da ich nicht die Hardware habe um ein Bild in hoher Auflösung+hohe FPS+Hohe pixeldichte+Hohe Hz+synchron+gestochen scharf usw. zu bekommen, muss ich Kompromisse eingehen.

Und dieser Kompromiss ist DLSS am Laptop und irgendwas was kein TAA ist am Desktop mit 1440p.
Quidproquo77 schrieb:
Ob FG mit den 8GB VRAM wirklich sauber läuft?
Alles eine Frage der gewählten Texturen. Muss man halt entsprechend runter stellen um die 8GB nicht zu überlasten.

Da Texturen (meiner Meinung anch) mehr Einfluss auf die Optik haben als alle anderen Optionen, ist das sehr schade, aber den Aufpreis für eine mobile 4080 wollte ich nicht zahlen.
Quidproquo77 schrieb:
Dann erhöhe ich die Auflösung, oder knalle Downsampling rein, was im Endeffekt dem gleichkommt. TAA in 4K sieht fantastisch aus. In 1080p weniger, wie auch 1080p generell.
Schön wenn man die Leistung dafür hat....die meisten Spieler werden Kompromisse eingehen müssen.
Quidproquo77 schrieb:
Früher teuer für ein flimmerfreies Bild, heute umsonst.
Was verstehst du unter flimmern?
Nur das Kantenflimmern an den Geometire Übergängen oder auch flackernde Texturen und rauschende Effekte?
"früher" gab es temporal in der Regel nicht, dafür hatte man keine rauschenden Effekte.

Aber ja...SSAA und MSAA haben echt viele FPS gekostet und FXAA war unscharf wie TAA..und dabei noch schlechter.

Daher zurück zu meinem eigentlichen Punkt den ich machen wollte!
Ich werde erst wieder eine AMD Grafikkarte kaufen, wenn AMD es geschafft hat KI-FSR so gut zu bekommen, dass es eine ähnliche Qualität wie DLSS erreicht...damit ich nicht auf andere AA Techniken angewiesen bin.

Nvidia legt mit dem neuen DLSS die Latte aber immer höher.
Quidproquo77 schrieb:
Was auch auf TAA aufbaut...
Wüsste nicht, wo TAA und DLSS zusammenhänge haben?

Das eine mittelt stumpf den aktuellen Frame mit mehreren älteren und verschobenen Frames.

DLSS nutzt KI um das aktuelle Bild zu rekonstruieren...nach angelernten Mustern, wie Objekte, Kanten, Oberflächen im Optimalfall aussehen.
Dafür nimmt es auch Informationen aus vergangenen Frames, aber dank Bewegungsvektoren kann es Ghosting entgegenwirken.
Das hat in der Vergangeheit nicht immer gut funktioniert, aber es wird immer besser und teilweise durch Patches gefixt.

For allem die In Aussicht gestellte Funktion, um neurere DLSS Versionen über die Nvidia App zu erzwingen, klingt praktisch...das sollte AMD auch schnell einführen!

Meine Frustration kommt halt daher, dass ich aktuell zwei eingeschränkt spielefähige PCs habe ....einen Laptop mit 13700H und 4060, der ein träges 4K Display hat...und keine Option einen externen Monitor mit über 120Hz anzuschließen...Ausgänge hängen an der Intel iGPU.

Ich kann RT, DLSS, FG, und 4K ausprobieren....aber die CPU überhitzt schnell und ist auch teilweise langsam.
..und die 4060 ist nicht für 4K gemacht....und selbst extremes DLSS rettet die FPS oft nicht.
..und der Laptop ist laut!

Naja und der Desktop mit 5800X3D und Radeon VII hat ordentlich CPU power aber eben nur die Wahl zwischen TAA/FSR oder manchmal XeSS.
Je nach Spiel gibt mir nichts davon in 1440p ein wirklich zufriedenstellendes Bild....für Downsampling fehlt mir die Leisung.
 
Zuletzt bearbeitet:
Aber nochmal ernsthaft. AMD wird natürlich auch den Release ganz genau planen müssen. Der Januar und Februar sind ja vollgestopft mit heiß erwarteten Releases und da kann das eigene Produkt natürlich schnell mal untergehen und nicht die gewünschte Aufmerksamkeit bekommen. Da kommen ja B570 von Intel, dann RTX 5080 und 5090 und dann im Februar RTX 5070Ti und 5070.
 
  • Gefällt mir
Reaktionen: Holgmann75
DrFreaK666 schrieb:
Der AMD-Dude hätte sagen können, das etwas mehr Infos in den nächsten Stunden kommen werden.
Ich war jedenfalls überrascht, als plötzlich zig Berichte aus dem Boden sprießten

Gibt ja das Gerücht, dass die Keynote relativ kurz vorher geändert wurde, nachdem AMD die finalen Specs und Preise von Blackwell erfahren hat und nun die Zeit nutzt, um an Preisen, Treibern und ggf. Konfigurationen zu schrauben.

Und ganz ehrlich, dass würde mich nicht wundern. Man hätte ansonsten nicht bei den Partnern das ganze Marketing ans Rollen gebracht, wenn es nicht längst vorbereitet gewesen wäre.

Würde mich nicht überraschen, wenn die 549$ der 5070 genau der Preis war, den AMD für die 9070XT als "Preiskracher" angedacht hatte. Sie legen das ganze Marketing so aus, dass man Vergleiche zu Nvidia zieht und dann überrascht Nvidia mit einem niedrigen Preis, den keiner erwartet hatte.

Ich denke daher wirklich, AMD hatte eigentlich etwas mehr geplant und nutzt jetzt die Zeit, um die treiber zu polieren und auszuloten, wie viel Saft man auf RDNA4 geben kann, um bei der Performance gut zur 5070 positioniert zu sein, wenn man den Preis schon nicht deutlich unterbieten kann. Das braucht alles ein wenig Zeit.

Kann natürlich auch wieder nur ein Schachzug des begnadeten AMD Marketingteams gewesen sein. Die lieben es ja, sich ins eigene Bein zu schießen und wenn man die Reaktionen anschaut, dass haben sie mal wieder geschafft
 
  • Gefällt mir
Reaktionen: Obvision, Hellyeah und Holgmann75
Sorry, das halte ich für eine Ausrede. Man hätte die Präsentation in 3 Teile a 15 Minuten teilen können, mit der GPU zum Schluss und Verweis auf mehr Infos durch Boardpartner etc. Meine Vermutung ist, das Sie kurz vor Ihrer Präsentation die Preise von Nvidia erfahren haben, und dann kurzfristig feststellten, Sie haben nichts in der Hand, weder Preis, noch Leistung, und sitzen das jetzt so lange wie möglich aus. Deshalb gibt es auch Stand heute noch immer keine UVP. Bewegt sich bei 9070XT wohl wirklich bei den kolportierten 649 Dollar. Dann kauft das natürlich fast keiner. Enttäuschend.
 
  • Gefällt mir
Reaktionen: Shoryuken94
MoD23 schrieb:
Da kommen ja B570 von Intel, dann RTX 5080 und 5090 und dann im Februar RTX 5070Ti und 5070.
Naja vielleicht kommen sie ja wirklich noch vor Nvidia auf den Markt, der 25.1. schwirrt ja, nach wie vor, rum.
Eine Videoshow ist ja relativ schnell gemacht...
Wenn die Karte dann noch, zu aller Überraschung, doch die aktuelle Gen schlagen sollte (und sei es nur in RT) und der Preis stimmt, haben sie fast alles richtig gemacht.
 
Alle sprechen von der fehlenden Präsentation. Vielleicht ist keine Info genau die richtige Info, denn nun sprechen alle drüber :)
Auch eine Art von Werbung.
Das nur so als Einwurf.
 
fwsteiner schrieb:
Sorry, das halte ich für eine Ausrede. Man hätte die Präsentation in 3 Teile a 15 Minuten teilen können, mit der GPU zum Schluss und Verweis auf mehr Infos durch Boardpartner etc.

AMD hätte definitiv Zeit gehabt, wenn Sie weniger über Ihre Partner und mehr Ihre Produkte geredet hätten. Und ganz ehrlich, es hätte Ihnen auch keiner Verboten in Vegas ein Hotel zu mieten und ein spezielles Radeon Event zu halten, wenn man so viele tolle Sachen anzukündigen gehabt hätte. Oder einen reinen Livestream.

Holgmann75 schrieb:
Naja vielleicht kommen sie ja wirklich noch vor Nvidia auf den Markt, der 25.1. schwirrt ja, nach wie vor, rum.
Eine Videoshow ist ja relativ schnell gemacht...

Dann hätten wir aber wahrscheinlich auch schon Leaks aus dem Einzelhandel und Partnern bekommen. Sieht man bei nder 5080 und 5090 ganz gut und das hat man auch bei früheren Generationen gesehen. Wenige Wochen vor Release kommen viele Infos zu den Karten ans tageslicht. Shoplistings von Partnern, Produkte die die GPUs verwenden, reale Bildder von karten und keine renderings, Auszüge aus Shopsystemen, Produktkartons etc. Ich denke nicht, dass AMD da so kurzfristig was auf den Markt bringt.

ofneo schrieb:
Alle sprechen von der fehlenden Präsentation. Vielleicht ist keine Info genau die richtige Info, denn nun sprechen alle drüber :)

Über Nvidia sprechen aber aktuell wesentlich mehr Leute und da gab es Infos zu Specs, Features, Launch und Preis.
 
  • Gefällt mir
Reaktionen: fwsteiner
@ DrFreaK666

Ich wäre durchaus bereit mehr zu zahlen, wenn sie denn mehr Speicher hat. Die Karte will ich für die nächsten 5 Jahre plus kaufen und auf einmal geht mir dann der Speicher aus. Ich gurke mit einer Karte von 2015 umher und bin mehr als froh, dass ich eine mit 8 GB gekauft habe und nicht mit 4GB. Die hätte ich schon lange in die Tonne werfen können.
 
Von diese ganzen Theorien das die Keynote kurzfristig umgeändert wurde, weil AMD irgendwas bzgl. NVs Karten erfahren haben will, halte ich überhaupt nichts. Das ist immer aus der emotionalen Sicht eines Gamers gedacht, für den die GPUs das wichtigste Thema sind und der Sicht, dass sie das auch für AMD sein müssten.

So eine wichtige Keynote ändert man nicht einfach so kurzfristig und nochmal, alle auf der Keynote besprochen Produkte sind einfach sehr viel wichtiger für AMD als die RDNA4 Karten. Die großen X3D's wurden ja auch relativ schnell abgewickelt. Den deutlich größten Raum haben die neuen APU Serien eingenommen. Wenn man halt 45 Minuten Zeit hat, muss man klare Prioritäten setzen und die liegen derzeit absolut verständlich für AMD nicht bei den Radeon's.
 
  • Gefällt mir
Reaktionen: N0Thing, Holgmann75 und Convert
Shoryuken94 schrieb:
ibt ja das Gerücht, dass die Keynote relativ kurz vorher geändert wurde, nachdem AMD die finalen Specs und Preise von Blackwell erfahren hat und nun die Zeit nutzt, um an Preisen, Treibern und ggf. Konfigurationen zu schrauben.
Ändert nichts an meiner Aussage ;)
Hätte er gesagt, dass in zwei Stunden mehr Infos released werden, dann wäre das Internet (und ich) ruhiger gewesen
 
  • Gefällt mir
Reaktionen: Shoryuken94
Es geht aber um die 7900XTX und nicht um die 7900XT.

Die 7900XTX schafft 102fps, die 9070XT schafft 99FPS.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zuletzt bearbeitet:
Quidproquo77 schrieb:
TAA in 4K sieht fantastisch aus

[snip]

Was auch auf TAA aufbaut, das entbehrt nicht einer gewissen Ironie.^^
Sorry, aber nein.
ich verstehe deine Argumentation, aber nein. Selbst in 4k scheine ich das linke Bild zu präferieren. ;-)

Und ja, ist schon ironisch, aber DLSS und selbst FSR sind in der Regel ja besser als TAA. Immerhin was.

Ergänzung ()

Holgmann75 schrieb:
@MoD23 Dazu kommt noch, das auf der CES scheinbar fertige Karten ausgestellt werden, also wenn da schon Benchmarks laufen...
Vielleicht ist ja ein Container mit den Karten verloren gegangen und nun müssen sie irgendwie die Zeit überbrücken :D
Möglich, aber unwahrscheinlich.

Over 16 years of collected data through 2023, the group said an average of 1,480 containers were lost annually.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75 und Baal Netbeck
Zurück
Oben