Bericht RDNA 4 ab 549 USD: Das sind AMD Radeon RX 9070 XT & 9070 mit RDNA 4 & FSR 4

@Thukydides Du wirst zwischen DSC an und aus niemals einen Unterschied erkennen können.
Das ist völlig irrelevant.

Ansonsten ergibt es aber wenig Sinn, auf der einen Seite auf volle Bandbreite ohne DSC bestehen zu wollen, dann aber zugleich auf DLSS4 verzichten zu können.

Also entweder dir ist Bildqualität wichtig oder nicht....
 
Mimir schrieb:
Nicht die GPUs sind das spannende, sondern FSR vs DLSS. Denn es wird kaum noch Spiele geben in denen man darauf verzichten wird und grundsätzlich ist es ja auch der Türöffner für 4K Gaming.
Weil ja auch die Mehrheit der Spieler einen 4k Monitor hat..... Für mich ist z. B. weder FSR noch DLSS wirklich ein Kaufargument. Genausowenig wie Raytracing. Ist für mich ewtwas wo ich sage, nice to have, aber nicht ausschlaggebend.
 
  • Gefällt mir
Reaktionen: Pinguin1
XD-User schrieb:
Das können Sie dann ja machen, allerdings muss man ihn vorher bewusst machen und aufzeigen was für eine doch eher dumme Entscheidung das sein wird. Weniger Leistung, weniger RAM, kürzere Lebensspanne etc. Denke da sind gerade wir als Community auch im privtaten Umfeld immer mehr gefragt um sowas aufzuklären.

Jepp, die 5070 ohne Ti sollte sich eigentlich nur an uninformierte Kunden verkaufen lassen (und wird vermutlich zukünftig vermehrt in Discounter-Fertig-PCs auftauen) - die wurde imo primär als Upselling-Karte entworfen um Kund:innen zum Kauf der Ti zu animieren...

Beim vergleich der XT zur Ti sehe ich eher das Problem dass es eben keine 900€ AMD-Karte gibt also nichts für Kund:innen, welche eigentlich noch ein wenig mehr RT-Leistung oder bessere Features als bei der XT haben wollen, da die (wenn sie jetzt in den Tests nicht Entäuscht) zwar leicht langsamer aber eben ansonsten das bessere PL-Paket darstellen dürfte - bis eben in Bezug auf das Featurepaket, was wieder eine Generation hinter her hinkt...
Der wirkliche Streitpunkt dürfte also werden wie viel dieses Wert ist (und ich denke dabei nicht mal so sehr an MFG, welches imo erst wirklich interessant wird wenn es mit niedrigeren ausgangs-FPS gut nutzbar wäre) sondern eigentlich die anderen Sachen wie Reflex oder die Möglichkeit VRAM zu sparen und hier ist halt das Problem dass sich der Wert im einzelnen weniger gut beziffern lässt und zum anderen vieles halt spekulativ und nicht klar ist wie viel es in zukünftigen Games eine Rolle spielen wird und ob es eine AMD-Alternative geben wird.
 
@Mimir

Woher willst du das wissen? Ich habe bis jetzt keinen ordentlichen Test dazu gesehen und ich möchte meinen Bildschirm nicht mit verlustbehafteter Kompression ansteuern. Das soll verlustfrei übertragen werden, ist mir persönlich einfach wichtig.

Nvidia ist für mich komplett irrelevant. Diese Firma hat sich zu viele miese Aktionen geleistet als das ich sie in den nächsten 10 Jahren auch nur in Betracht ziehen werde.

Außerdem ist mir Open-Source sehr wichtig und da ist Nvidia einfach nur ganz weit hinter AMD.
 
  • Gefällt mir
Reaktionen: Breaker52
Mimir schrieb:
Solange FSR4 da nicht rankommt, hat NV einen gewaltigen Vorteil der bei einer Kaufentscheidung sehr vieles relativiert.

Beides wird weiterentwickelt und genau da liegt halt das Problem - es ist für Menschen die eine Karte mit ein wenig Zukunftssicherheit suchen schwer abzuschätzen was diese jeweils in 4 Jahren oder so noch können wird - das aber spricht genauso für die Ti als auch die XT, da es bei der Ti wahrscheinlicher erscheint, dass sie dann noch mithalten kann, wenn sie es aber nicht kann der niedrigere Preis der XT einen schnelleren Austausch aber weniger schmerzhaft macht.

Mimir schrieb:
[...] und grundsätzlich ist es ja auch der Türöffner für 4K Gaming.

4K sehe ich in dieser Generation eher schlecht bedient (außer halt mit der extrem teuren 5090 und ggf. in einem Jahr erscheinenden Ti oder S Versionen der 5080 mit mehr VRAM), wer nicht darauf angewiesen ist weil er bereits einen sehr hochwertigen7teuren 4K-Monitor besitzt, wäre vermutlich besser beraten mit 4K noch zu warten.
 
Snakeeater schrieb:
Ich versteh den minimalen Preisunterschied der beiden Modelle nicht, was soll das bringen zwei Karte in 50€ Differenz heraus zu bringen?
Das zeigt auch das die Preise mittlerweile völlig willkürlich festgelegt werden und nichts mehr mit den realen Kosten zu tun haben. Wenn die Mittelklasse noch im Bereich von €200-400 liegen würde macht so eine Differenz Sinn, weil es prozentual mehr ausmacht. Aber bei €600-700 kommt es irgendwie seltsam rüber, wobei der reale Kostenunterschied (Herstellungskosten) zwischen den Karten vermutlich noch geringer ist.

Wer denkt das AMD mit den Karten keine dicke Marge macht und sie nicht noch deutlich günstiger anbieten könnte irrt gewaltig.

Zum Vergleich, die PS5 Pro ohne Laufwerk kostet aktuell €719 und Sony macht ziemlich sicher mit jeder Konsole Gewinn, denn selbst die originale PS5 mit Laufwerk um €500 hat relativ kurz nach Release Gewinn gemacht und musste nicht subventioniert werden.

Der PS5 Pro SoC wird im gleichen Prozess gefertigt wie RDNA4, ist aber nur 279mm2 groß, statt 357mm2. Das sollte pro Chip aber nur 20-30$ Unterschied an Produktionskosten ausmachen. 16GB GDDR6 ist identisch, aber dann kommt noch alles dazu was eine Konsole zusätzlich hat:
  • Controller mit Akku
  • Mainboard mit mehreren USB Anschlüssen, WLAN, LAN, NVME und BT für den Controller
  • 2GB DDR5 für das Betriebssystem
  • 400W Netzteil
  • 2TB PCIE4 SSD
Das alles bekommt man für das selbe Geld, da merkt man erst wie weit abgehoben die PC GPU Hersteller mittlerweile sind.
 
  • Gefällt mir
Reaktionen: Luccabrasi, wertertzu, Windell und 3 andere
Darkwater schrieb:
4K sehe ich in dieser Generation eher schlecht bedient
Gerade durch immer besseres Upscaling wird (effektives) 4K doch immer besser machbar. Im Zweifelsfall muss man dann eben mal die Details oder RT eine Stufe reduzieren.
 
  • Gefällt mir
Reaktionen: bad_sign
Thukydides schrieb:
@Mimir

Woher willst du das wissen? Ich habe bis jetzt keinen ordentlichen Test dazu gesehen und ich möchte meinen Bildschirm nicht mit verlustbehafteter Kompression ansteuern. Das soll verlustfrei übertragen werden, ist mir persönlich einfach wichtig.

Nvidia ist für mich komplett irrelevant. Diese Firma hat sich zu viele miese Aktionen geleistet als das ich sie in den nächsten 10 Jahren auch nur in Betracht ziehen werde.

Außerdem ist mir Open-Source sehr wichtig und da ist Nvidia einfach nur ganz weit hinter AMD.

Weil ich selbst einen 4K Monitor mit DSC besitze und ich mich als extrem kritischen "pixel peeper" bezeichnen würde. Ich kann dir nicht mehr sagen, als dass es unmöglich ist, DSC zu erkennen. Selbst mit verschiedensten Testpattern und Verabverläufen gelingt es nicht.

Ich kann aber natürlich nicht mehr tun, als dir das zu sagen...

Wer meint, auf Displays mit voller Bandbreite warten zu müssen soll das tun. Es ist nur das unnötigste, was man tun kann.


Galaxytourist schrieb:
Weil ja auch die Mehrheit der Spieler einen 4k Monitor hat..... Für mich ist z. B. weder FSR noch DLSS wirklich ein Kaufargument. Genausowenig wie Raytracing. Ist für mich ewtwas wo ich sage, nice to have, aber nicht ausschlaggebend.

Für viele kommt doch 4K nichtmal in Betracht, weil sie angst vor schlechter Performance haben und im Zuge dessen auf aggressives Upscaling angewiesen wären, was bisher bei AMD besonders schlecht aussah.

Effektiv kostet der Wechsel von 1440p mit Quality Upscaling auf 4K mit Performance Upscaling je nach Spiel nur rund 20% performance. Ausgehend von 1440p nativ ist 4K mit Performance Upscaling sogar schneller und mit einem guten Algorithmus wie es jetzt eben mit DLSS4 der Fall ist, sieht das um Welten besser aus. Sogar deutlich besser als 4K mit TAA nativ.

Aber selbst wer 1440p nutzt, der leidet besonders unter einem Unscharfen Bild mit TAA nativ und noch stärker mit FSR3.

Auch da bringt DLSS4 eine enorme Verbesserung, da die ganze Unschärfe, vor allem in bewegung einfach wie ausradiert wurde bei zugleich deutlich besserer Performance.


Ich hoffe, dass FSR4 ähnlich gut wird, damit endlich mal diese Diskussionen aufhören, Upscaling wäre nur nice to have. Es ist das mit Abstand essenziellste Feature überhaupt, da es das Problem der Bildstabilität und Bildschärfe löst, welche bisher einzig und alleine durch höhere GPU Performance und höhere Renderauflösungen gesteigert werden konnte. Und damit relativieren sich eben dinge wie Rohleistung der GPU zu einem großen Teil.
Zu sehen, dass man trotz Upscaling ein Bild haben kann, das so scharf ist, wie 4x SSAA IST nunmal ein Gamechanger.

Und wenn Performance und Bildqualität nicht DER hauptgrund ist, um überhaupt eine neue GPU zu kaufen, was dann? Nur kommen diese Verbesserungen eben mittlerweile zum Großteil über die Software und nicht mehr nur über die Rohleistung der Hardware.


Aber was soll ich sagen. Früher oder später wird das jeder so sehen, davon bin ich überzeugt.
 
  • Gefällt mir
Reaktionen: shadACII und lWllMl
Wenn die Lage hinsichtlich des kleinen Kontingents an RX 9070 stimmen sollte, wie von MLID/Tom suggeriert, dann würde die Presidifferenz von 50 US% zwischen den beiden RDNA4 Karten passen, aber eigentlich hätte ich auch eine Presidifferenz von 100 US$ zwischen den beiden Karten für besser gehalten, aber mit der relativ guten Effizienz der RX 9070 (für Leute, die viel Wert auf Effizienz legen) wird diese trotzdem Ihre Käufer finden.

Inwiefern sich Trumps absurde Zollpolitik auf die Grafikkartenpreise bei nVidia und AMD auswirken wird, muss man natürlich noch abwarten; am Ende sind die Verbraucher natürlich die Gelackmeierten.
 
Powl_0 schrieb:
Gerade durch immer besseres Upscaling wird (effektives) 4K doch immer besser machbar. Im Zweifelsfall muss man dann eben mal die Details oder RT eine Stufe reduzieren.

Jain, am ende bringt das halt nur relativ mehr FPS und wenn die halt vor dem Upscaling im bodenlosen sind bringt dann auch eine Verdoppelung nicht die gewünschten Werte...

...auf der anderen Seite würde hier MFG zwar theoretisch helfen, bringt aber in der Praxis bei diesem Problem auch nicht so viel wenn es eine 60+ FPS-Basis benötigt um gut einsetzbar zu sein.

das Problem was ich selbst im moment bei der Kaufentscheidung zwischen Ti und XT habe ist, dass ich bei NVIDIAs Featues sehr viel potential sehe, aber eben auch noch Entwicklungsbedarf und halt unklar ist was von den kommenden Entwicklungen dann noch auf den 5000er-Karten verwendbar und was dann 6000er und 7000er exklusiv sein wird.

Würde NVIDIA sagen: Wir verbessern jetzt MFG in Kombination mit Reflex so dass es in 2-4 Jahren auch mit 30 oder weniger FPS gut funktioniert und das wird dann auf den 5000ern auch noch verwendbar sein, wäre das für mich durchaus kaufentscheidungs-Ausschlaggebend...
...da aber genau das unklar ist und es in 4 Jahren auch heißen könnte: Eigentlich brauchst du jetzt eine neue GPU und kannst nicht noch eine Generation warten, wäre die Günstige Option die bessere Wahl.

kurz: Das Problem was ich sehe ist, dass ich deine Begeisterung für die NVIDIA-Features zwar absolut nachvollziehen kann, zugleich aber z.T. noch verbesserungsbedarf sehe und unklar ist, ob diese dann wiederum auf den 5000er-Karten anwendbar sind (außerdem wäre auch dann 16GB für 4K immer noch knapp)
 
metoer schrieb:
Das alles bekommt man für das selbe Geld, da merkt man erst wie weit abgehoben die PC GPU Hersteller mittlerweile sind.
Du vergisst das man die Entwicklungskosten auch bezahlen muss und Du vergisst das die Konsolen, wenn man mal von Nintendo absieht, idR. am Anfang mit Verlust verkauft werden, da die Hersteller das Geld mit den Spielen verdienen. I

m Laufe der Lebenszeit der Konsolen, wenn Entwicklungskosten usw. erwirtschaftet wurden, sieht das dann ggf. Anders aus, aber soweit man das so lesen konnte, war Nintendo der Einzige Hersteller der seine Konsole von Anfang an ohne Verlust verkauft hat.
 
Thukydides schrieb:
So schade das sie kein Displayport 2.1 UHBR20 unterstützt....

Damit kann ich sie mir leider nicht kaufen. Mein nächstes Display wird sehr viel Bandbereite benötigen.

Dann warte ich eben noch 2 Jahre auf die UDNA1 Generation :)
Finde auch schade dass kein UHBR20 unterstützt wird.
Gleichzeitig reicht UHBR13.5 für UHD 240 Hz ohne DSC, mit DSC auch locker für 360 Hz.
Ich persönlich konnte im Realbetrieb (UHD 240 hz OLED dritter Gen) keine Unterschiede zwischen DSC on/off sehen.

Schneller gibt's doch gerade nicht als OLED. Hast du TN oder VA im Blick? Oder ist dir DSC off wichtig?
 
Ja genau ich würde gerne auf DSC verzichten.

Laut Mimir sieht man es aber wohl nicht. Tja mal schauen was so an Bildschirmen in den nächsten 2-3 Jahren auf den Markt kommt.
 
Galaxytourist schrieb:
Du vergisst das man die Entwicklungskosten auch bezahlen muss und Du vergisst das die Konsolen, wenn man mal von Nintendo absieht, idR. am Anfang mit Verlust verkauft werden, da die Hersteller das Geld mit den Spielen verdienen.
Die Entwicklungskosten für eine Konsole sollten die einer reinen GPU "deutlich" übertreffen.

Wie gesagt, die PS5 machte bereits 10 Monate nach Release Gewinn durch den reinen Verkauf der Konsole. Die PS5 Pro liegt preislich deutlich höher und hat kein Laufwerk, da wird garantiert seit Release Gewinn gemacht.
 
  • Gefällt mir
Reaktionen: wertertzu
Mimir schrieb:
Für viele kommt doch 4K nichtmal in Betracht, weil sie angst vor schlechter Performance haben und im Zuge dessen auf aggressives Upscaling angewiesen wären, was bisher bei AMD besonders schlecht aussah.
Viele haben dafür gar keinen passenden Monitor, der kostet ja idR auch noch bischen mehr als ein entsprechender HD oder (W)QHD.

Aber hier stellt sich dann die Frage wie sehr man den Unterschied zur Vorherigen Stufe noch merkt und ob der Mehrpreis dazu im Verhältnis steht.
Mimir schrieb:
Auch da bringt DLSS4 eine enorme Verbesserung, da die ganze Unschärfe, vor allem in bewegung einfach wie ausradiert wurde bei zugleich deutlich besserer Performance.
Auch hier wieder die Frage wie sehr man das wirklich merkt. Also wenn sich die Sachen entsprechend schnell bewegen sehe ich oft keinen Unterschied mehr ob ich jetzt z. B. Anti-Alaising usw. auf einer hohen Stufe habe oder auf einer niedrigen.
Mimir schrieb:
Aber was soll ich sagen. Früher oder später wird das jeder so sehen, davon bin ich überzeugt.
Ich bin davon z. B. nicht überzeugt. Wie gesagt, ist Alles nice to have wenn es das als Bonus kostenlos dazugibt, aber deswegen würde ich nicht wirklich mehr Geld für eine Grafikkarte ausgeben.
 

Verfügbarkeit soll gut sein.🤗👍🏼
 
Abwarten was die Tests zeigen. NVidia lebt es nicht auf dieser Erde...
 
metoer schrieb:
Die Entwicklungskosten für eine Konsole sollten die einer reinen GPU "deutlich" übertreffen.
Da wäre ich mir gar nicht so sicher.

metoer schrieb:
Wie gesagt, die PS5 machte bereits 10 Monate nach Release Gewinn durch den reinen Verkauf der Konsole. Die PS5 Pro liegt preislich deutlich höher und hat kein Laufwerk, da wird garantiert seit Release Gewinn gemacht.
Nach der Zeit haben Sie vieleicht bei der Produktion nichts mehr draufgelegt, ob die Entwicklung dann schon bezahlt war steht auf einem Anderen Blatt.
 
Alle reden nur von DLSS oder Raytracing, dabei finde ich den Treiber so wichtig. Nvidia hat einfach die stabileren Treiber!

Als ich die 7800 XT hatte, habe ich desöfteren mit Treiberproblemen zu kämpfen gehabt und musste auf rollback setzen. Das ging mir echt auf die Nüsse bei einigen Games wie Battlefield. Ständige Ruckelorgien und FPS Einbrüche. Nichts wurde unternommen seitens AMD bis die nächste Version kam. Auch dann lief nicht alles rund. Das eine wurde ausgemerzt, was anderes wiederum nicht. P/L hin oder her, sind tolle Raster Karten keine Frage. Von FSR halte ich absolut nichts, grausam wenn man DLSS kennt und RT sowieso.

Wie das jetzt mit der 9070 aussehen wird, muss man abwarten. Nvidia lässt sich gut bezahlen aber bietet einem halt auch die Features mit Qualität und reibungslose Treiber. Sind nicht umsonst die klare Nummer 1.

Ich würde es mir wünschen dass AMD denen etwas nahe kommt, Konkurrenz ist immer gut und wichtig. Sehe das aber noch nicht. Lasse mich gerne überraschen.
 
Galaxytourist schrieb:
Weil ja auch die Mehrheit der Spieler einen 4k Monitor hat..... Für mich ist z. B. weder FSR noch DLSS wirklich ein Kaufargument. Genausowenig wie Raytracing. Ist für mich ewtwas wo ich sage, nice to have, aber nicht ausschlaggebend.
Wenn du neuere Spiele spielen würdest dann wäre RT das Kaufargument.
Gerade Stalker 2 als Beispiel ist wegen RT und Lumen optisch eins der Besten Spiele die es im Moment gibt.
Da auf RT zu verzichten raubt dem Spiel unheimlich viel Immersion.
 
Zurück
Oben