News AMD RDNA 4: Radeon RX 9070 XT und RX 9070 kommen im März

LamaMitHut schrieb:
Hätte AMD wenigstens mehr VRAM, aber leider geht man eher einen Schritt zurück... Sehe wirklich keinen Grund auf AMD zu warten
Wir wissen ja, dass alle Spiele nur genügend VRAM brauchen um super spielbar zu sein. Je mehr VRAM desto runder läuft jedes Spiel! Das weiß doch jedes Kind, vor allem auf CP (und auch PCGH).
Ergänzung ()

TigerNationDE schrieb:
Alles klar. Ende der Diskussion mit dir.
Es ist ein technischer Fakt, dass dem so ist, wenn wan das Prinzip von DLSS verstanden hat. DLSS hat mehr Details zur Verfügung als native Rendering, dadurch dass Jittering angewendet wird. Nein, ich werde es nicht erneut versuchen, jemandem zu eklären. Lies die engli. Wikipedia zum Thema. (FSR arbeitet nach dem selben Prinzip, hat also auch mehr Details, rechnet aber noch ohne AI und kann deswegen die Artefakte nicht so gut unterdrücken).
 
  • Gefällt mir
Reaktionen: shadACII
LamaMitHut schrieb:
Hätte AMD wenigstens mehr VRAM, aber leider geht man eher einen Schritt zurück... Sehe wirklich keinen Grund auf AMD zu warten
dann solltest du dir in dem Preisbereich wohl lieber ne 5070 holen....
Ergänzung ()

Grestorn schrieb:
Wir wissen ja, dass alle Spiele nur genügend VRAM brauchen um super spielbar zu sein.
joa bei einer 700€ Karte einfach mal direkt den Texturenregler auf high statt ultra stellen, in 4K dann sogar auf medium je nach Titel mit RT/PT, wenn nicht sogar schon in (U)WQHD, läuft würde ich sagen
 
  • Gefällt mir
Reaktionen: derSafran
Verak Drezzt schrieb:
joa bei einer 700€ Karte einfach mal direkt den Texturenregler auf high statt ultra stellen, in 4K dann sogar auf medium je nach Titel mit RT/PT
... und keinerlei Unterschied sehen, weil der Regler nur die Größe des Caches steuert, aber nicht die Textur-Qualität.
 
  • Gefällt mir
Reaktionen: DaHell63
xexex schrieb:
Das blöde daran ist, keiner von denen hat überhaupt irgendwas von dem gesehen, was er jetzt schon meint scheiße zu finden und sollte C für den einzelnen nicht die besten Lösung sein, gibt es noch immer A und B.
Hmm? Wieso, MFG Demo mit Cyberpunk hat Nvidia doch schon eine Demo machen lassen und die Halos sahen leider echt nicht gut aus.

TAA kennen wir auch seit Jahren, und das wird auch schon genauso lange von manchen gehasst, DLSS ist da imho natürlich ein großer Fortschritt.

Imo bleibt zu hoffen das Nvidia da noch was dran dreht bis zum Release und auch nach dem Release mit MFG wird es sicher noch Verbesserungen geben. Die Idee ist ja gut.
 
Man sollte schon FG und Upscaling klar voneinander trennen.

Bei FG sehe ich auch nur einen eingeschränkten Bereich, wo es sinnvoll ist. Ich glaube nicht, dass mich MFG so sehr begeistern wird.

Temporal, jittering Upscaling hingegegen, egal ob es DLSS oder FSR heißt, ist eine großartige Technologie. Und alle, die es aus Prinzip ablehnen, haben sich einfach nur nicht mit der Funktionsweise so richtig auseinandergesetzt. Es ist im Prinzip nichts anderes als temporales Supersamling.
 
  • Gefällt mir
Reaktionen: Quidproquo77, ComputerJunge, DaHell63 und eine weitere Person
Moin, meine Meinung dazu. Die Kommunikation von AMD zum Thema RDNA4 war nicht gut, um das mal wohlwollend auszudrücken.

1. Man hätte klar vor der CES die Erwartungen dämpfen sollen. Das war ein eindeutiger Fehler. Sie beobachten ja auch die Community und haben natürlich mitbekommen, dass alle Welt von einer richtigen Vorstellung ausgegangen ist.

2. Man hätte im Nachgang der CES sofort den Release im März mitteilen sollen und damit nicht zugelassen das der Hype Train Fahrt aufnimmt. Auch da ist im Prinzip die ganze relevante Community davon ausgegangen, dass der Release unmittelbar bevorsteht. Angeheizt noch von kryptischen Ankündigungen von Boardpartnern, Händlern, Leakern, Unboxing Videos usw.

Im Prinzip finde ich den Termin von AMD aber vernünftig. Unmittelbar vor RTX 5090 und 5080 zu releasen wäre einfach nicht clever gewesen. Auch wenn die Karten ja ganz unterschiedliche Käufergruppen ansprechen, würden die RTX Karten alle Aufmerksamkeit auf sich ziehen und AMD das Momentum nehmen. Das Geweine von ein paar enttäuschen Fanboys kann dabei keine Rolle spielen.

Die relevanten Konkurrenz Karten von Nvidia kommen nach dem neuesten Gerücht ohnehin erst am 20.02. und wie es dann mit der Verfügbarkeit aussieht bleibt abzuwarten. Bezüglich 5080/5090 sind die Meldungen da ja eher sehr negativ.

Ich hoffe AMD nutzt jetzt die Zeit für den letzten Feinschliff und baut einen guten Stock auf, damit die Karten mit guter Verfügbarkeit in den Markt starten, wenn P/L und Verfügbarkeit passen, werden die Karten auch ein Erfolg werden. 👍
 
  • Gefällt mir
Reaktionen: uberLemu und tso
Grestorn schrieb:
... und keinerlei Unterschied sehen, weil der Regler nur die Größe des Caches steuert, aber nicht die Textur-Qualität.
Ja die regelt die game engine schon von allein runter und Du hast Matsch oder nachladende Texturen.
Da hast eine 700€ Grafikkarte und Spiele sehen aus wie Grütze, Glückwunsch.
 
  • Gefällt mir
Reaktionen: shadACII
@Jethro Du hast je nach Situation etwas später nachladende Texturen. Matsch in sichtbarer Reichweite hast Du nur auf der niedrigsten Stufe.

Ja, es ist ein Kompromiss.

Du kannst, wenn Du nicht mehr Geld ausgeben willst, natürlich zu einer Grafikkarte greifen, die zwar erlaubt den Texture Cache auf die höchste Stufe zu stellen, aber leider zu langsam für PT ist (in allen Spielen). Deine Wahl.
 
  • Gefällt mir
Reaktionen: Quidproquo77, DaHell63 und Taxxor
gustlegga schrieb:
Bin gespannt, AMD wird früher oder später sicher nachziehen, aber man muss es ja gottseidank nicht nutzen.
Sag sowas nicht in deinem Jugendlichen Leichtsinn. Wenn die Devs spitzkriegen das MFG gut funktioniert ab 25fps, dann kannst du dir denken was kommt um mindestens 60fps zu bekommen. ;)
Ich habe ja kein Problem mit DLSS/FSR oder auch der ersten Generation FG. Aber bei MFG frag ich mich ob es wirklich das ist was ich auf dem Bildschirm sehen will 3/4 der Frames kommen von der KI.

Ich weiß nicht was da die letzten Jahre bei der Radeon Group los ist. Und worauf Lisa da wartet. Aber so es ist genau das Gegenteil von der CPU Sparte.

Ja ist schon blöd das man jetzt noch 6 Wochen länger auf die neuen Karten warten muss, aber man verliert ja nichts. Da Nvidia mit der 5070er auch erst im März kommt.
Trotzdem wirft diese Verschiebung kein gutes Licht auf AMD. Anscheinend hat man im Bezug auf Nvidia seine Hausaufgaben nicht richtig gemacht. Und war von Nvidia überrascht ob das nur MFG war oder ob die Karten von Nvidia doch günstiger sind als gedacht.
AMD hat jetzt endlich Geld in der Kriegskasse. Da sollte sich doch wieder was positives bei den Radeons tun. Irgendwie vermisse ich da ein Strategie wie man zu Nvidia wieder aufschließen will.
 
gustlegga schrieb:
Hat die Gerüchteküche behauptet.
Stimmt zwar, wurde aber von Computerbase ebenfalls aufgegriffen.
Ich habe im Internet auch keinen einzigen Artikel gefunden, der später, nachdem bekannt wurde, dass das Release verschoben wird, korrigiert hätte, dass das NDA nicht am 22. Januar fällt, insofern wurde das ganze schon etwas unglücklich im Raum stehen gelassen. 😅
 
TigerNationDE schrieb:
Alles klar. Ende der Diskussion mit dir.
Kannst du bitte paar Beispiele Aufzeigen? Hier bei CB wird ja DLSS von der Bildqualität auch gelobt das es oft besser als das native Bild aussieht.

Zu DLSS vs FSR kann ich nur sagen wenn die Implementierung nicht gerade total Grütze ist. Fällt beim Spielen das etwas schlechtere FSR nicht wirklich auf. Klar bei Vergleichsbildern sieht man den Unterschied. Im spielen fällt nur Ghosting stark auf und wenn es mal eine ruhige Szene im Spiel ist dann noch das Kantenflimmern. Aber der ganze Rest nicht da man bei der Action auf dem Schirm gar nicht dazu kommt zu analysieren ob die Bildqualität perfekt ist.
 
Grestorn schrieb:
Du kannst, wenn Du nicht mehr Geld ausgeben willst, natürlich zu einer Grafikkarte greifen, die zwar erlaubt den Texture Cache auf die höchste Stufe zu stellen, aber leider zu langsam für PT ist (in allen Spielen). Deine Wahl.
Warum immer dieses entweder oder? Warum kann man Nvidia oder auch mal AMD nicht dafür kritisieren, zu wenig VRAM zu verbauen? 5080 für über 1000 Geld und nur 16GB ist halt einfach echt wenig. Hört bitte auf immer die armen Firmen in Schutz zu nehmen. Die hat nur 16GB um Geld zu sparen, nicht um euch was gutes zu tun. Und das kann und sollte man durchaus kritisieren dürfen, ohne gleich von den selbsternannten Rittern der unterdrückten Firmen angegangen zu werden.

Ich versteh auch dieses Argument mit "Bevor der VRAM ausgeht, fehlt eh meist schon die Rohleistung". Das macht keinen Sinn. Bessere Texturen kosten so gut wie keine Leistung, sondern einfach nur mehr VRAM. Und zumindest für mich sind gute Texturen mit das wichtigste bei der Grafik. Zu wenig VRAM hat nur zur Folge, dass ich früher die Texturen runterstellen muss, nur damit Nvidia oder AMD paar $ Pro Karte sparen können, die eh schon schweineteuer sind. Selbst wenn die Rohleistung für ultra Schatten, RT etc. nicht reicht, kann ich mit genug VRAM trotzdem die knackig scharfen Texturen auswählen.

Warum man nicht einfach mal Kritik an seinem "Lieblingshersteller" hinnehmen kann, ohne gleich immer irgendwelche Situationen und Argumente zu suchen, die Kritik runterzuspielen.

Nochmal, es würde KEINEM EINZIGEM Kunden schaden, wenn die Karten mehr VRAM hätten. Wieso also muss man als Kunde, der für die Karten viel Geld zahlt, dieses Sparen der Hersteller verteidigen? Ich versteh es einfach nicht sorry...
Wenn jetzt einer sagt "Also für das Geld vom großen Mcmenü hätte MCDonals schon ne größere Portion Pommes dazupacken können." Ich kann mir echt nur schwer vorstellen, dass da andere Kunden dagegensprechen würden. Aber bei den Grakas wird das ständig gemacht.
 
  • Gefällt mir
Reaktionen: Stan Marsh, Enyo79, cbmik und 4 andere
HAse_ONE schrieb:
Warum immer dieses entweder oder? Warum kann man Nvidia oder auch mal AMD nicht dafür kritisieren, zu wenig VRAM zu verbauen?
Es ist einfach eine Preisfrage.

Kritisieren kann man immer. Man kann auch einen Mini dafür kritisieren, dass er keinen Platz bietet (damn Autovergleiche).

Klar darfst Du NVidia auch kritisieren. Und natürlich wäre mehr VRAM besser. Aber die Karte damit auch klar teurer, weil Du einen Chip mit einer breiteren Speicheranbindung brauchst. Einfach mehr RAM Chips auf die Karte zu packen reicht ja nicht, Du brauchst auch die notwendige Anbindung. Und die kostet.

Übrigens gibt es diese Karte auch. Sie heißt 5070 Ti.
 
  • Gefällt mir
Reaktionen: Quidproquo77
gustlegga schrieb:
Aktualisierungen, ja. Da macht sich der Vorteil bemerkbar dass man halt schon ewig die Tensor Cores hat,
deren Äquivalent es bei den Radeons erst seit RDNA3 gibt.
RDNA 3 hat kein Tensor Core Äquivalent. Bei RDNA 3 werden Matrizenberechnungen noch auf den normalen Shadern gemacht, die das auch schon seit mindestens RDNA 2 das ganz gut können, was RDNA 3 bekommen hatte waren kleine kerne die das Scheduling dafür verbessern. RDNA 4 soll jetzt tatsächlich dedizierte Kerne für Matrizenberechnungen haben.

Der Nachteil am alten Ansatz war, das die Raster Performance einbricht, sobald Matrizenberechnungen nötig wurden, einfach weil das auf den gleichen Recheneinheiten gemacht wurde, der Vorteil lag natürlich darin das man die GPU besser auslasten tut und nicht irgendwelche AI Kerne brachliegen, wenn man gerade keine Matrizenberechnungen braucht.
Was natürlich umgekehrt bedeutet in Zeiten wo jetzt alles mit DLSS und zumindest ein wenig RT läuft ... das ausnahmsweise Nvidia Karten wie feiner Wein altern. ;-)

Aber rein vom Prinzip sollte FSR 4 selbst noch auf RDNA 2 und 3 laufen, ob es aber auch schnell genug läuft ist die wichtigere Frage. "AI-Cores" hat aber weder RDNA 3 noch RDNA 2.
 
  • Gefällt mir
Reaktionen: incurable und Grestorn
Grestorn schrieb:
Einfach mehr RAM Chips auf die Karte zu packen reicht ja nicht, Du brauchst auch die notwendige Anbindung. Und die kostet.
Und wieder wird verteidigt. Die 5080 kostet mindestens 1170€, also ich finde für den Preis kann man schon mehr VRAM erwarten.
Es ist ja nicht so, dass besonders Nvidia am Hungertuch nagt. Die haben eine sehr gute Gewinnmarge.
Bitte hört doch damit auf Börsennotierte Milliardenschwere Unternehmen und ihre rein auf Gewinnmaximierung getroffenen Entscheidungen zu verteidigen. Macht es aus Unternehmenssicht Sinn? Natürlich, mehr Geld = gut. Aber für uns als Kunden ist das doch nur schlecht und sollte kritisiert werden.
 
  • Gefällt mir
Reaktionen: chaopanda, LinuxTux, DAU123 und eine weitere Person
@HAse_ONE Weil es NVidia gut geht, müssen sie die Karten billiger anbieten? Und dürfen keine billigeren Modelle mit schmälerer Speicheranbindung anbieten?

Welche Logik ist das bitte?

Du wirfst mir Markenverteidigung vor. Überleg lieber mal, ob Deine Kritik wirklich so wahnsinnig sinnvoll ist.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und incurable
tso schrieb:
Stimmt zwar, wurde aber von Computerbase ebenfalls aufgegriffen.
Ich habe im Internet auch keinen einzigen Artikel gefunden, der später, nachdem bekannt wurde, dass das Release verschoben wird, korrigiert hätte, dass das NDA nicht am 22. Januar fällt, insofern wurde das ganze schon etwas unglücklich im Raum stehen gelassen. 😅

Falls dir die letzten Jahre mal was aufgefallen ist, dann sollte es sein, dass wir Gerüchte dieser Art in der Regel posten, wenn wir ähnliches gehört haben - und auch von anderer Stelle.
Der 21. und später 23./24. war definitiv geplant, das wurde dann hinter den Kulissen auf den 2. Februar verschoben, bis dann die Keule "März" kam.


Und nun kommt es "komischerweise" ja auch genau so, wie ich vor neun Tagen geschrieben habe, zumal ein Unternehmen in offizieller PR maximal die halbe Wahrheit sagt und ganz viel weglässt. Also da wird massiv am Treiber und vor allem FSR4 gebaut werden .. muss es aber eben auch.

Volker schrieb:
Das ist zu 99,9% Treiber/FSR4.
Man lässt keine Hardware 3 bis 4 Monate rumliegen wenn sie fertig ist.
 
  • Gefällt mir
Reaktionen: Quidproquo77, LamaMitHut, chaopanda und 2 andere
Nein ich sage, dass es keinen anderen Grund dafür gibt, so wenig VRAM zu verbauen als Gewinnmaximierung. Wenn jetzt Nvidia grad so über die Runden kommen und kaum Gewinn mit ihren Karten mach würde, dann würde ich anders denken. Aber wir kennen die Gewinnmargen und die sind überaus gut. Wenn Nvidia mehr Speicher verbauen würde, würden die immer noch gute Gewinne einfahren.

Und ich verlange auch nicht, dass jetzt alle Karten mindestens 32GB haben müssen. Aber ab einer gewissen Klasse und vor allem auch Preis, sollte es meiner Meinung nach mehr als 16GB sein.
Klar können die billigere Karten mit weniger Speicher anbieten. 5060 12GB, 5070 16GB, 5080 20-24GB sowas um den dreh.
 
  • Gefällt mir
Reaktionen: cbmik, LinuxTux und Verak Drezzt
HAse_ONE schrieb:
Nein ich sage, dass es keinen anderen Grund dafür gibt, so wenig VRAM zu verbauen als Gewinnmaximierung.
Es gibt eine Produktlinie mit verschiedenen Ausbausstufen. Nach unten ist auch noch Platz, mit der 5060.

Die Karte, die Du suchst, mit breiterer Speicheranbindung und 16GB gibt es auch. Sie heißt 5070Ti.

Wenn sie Dir zu teuer ist (was ich nachvollziehen kann), dann schreib einfach, dass Dir NVidia zu teuer ist. Ob das mit Gewinnmaximierung zu tun hat... lass ich mal dahingestellt. Ich halte es für einen gesunden Preis, zumal Blackwell Karten verglichen zu Ada Lovelace ja durch die Bank (außer 5090) günstiger geworden sind.

AMD hat das Problem, dass sie nun vermutlich einen nahezu ruinösen Preis anbieten müssen, um überhaupt mithalten zu können. Das alleine zeigt doch, dass NVidia nicht zu billig ist. Die HW kostet einfach so viel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und incurable
Thema DLSS und FSR ist halt das bei DLSS die Entwickler des Spiels damit arbeiten müssen damit es gut aussieht. Wenn es einfach nur dabei ist, so wie FSR dann gibs Probleme

Ist ein Spiel also entwickelt worden um DLSS zu nutzen wird es auch gut aussehen.
Frage ist dann halt, wie viele der Spiele welche man spielt werden das auch sein damit es sich auszahlt und wie viel schlechter sieht das Spiel aus wenn man native mit geringeren Einstellungen spielt

Wenn ich kein einziges Spiel habe das um DLSS4 herum gebaut wurde, interessiert es mich nunmal überhaupt nicht ob die Karte damit 200 fps schafft oder nicht, sondern die Rohrleitung.

An sich zählt das Spielerlebnis und ob Pathtracing dafür entscheidend ist oder nicht ist rein subjektiv

Und nachdem niemand sagen kann welche Spiele was bekommen und ob das fürs Erlebnis essentiell sein wird (ein Rollenspiel das nur mit RT gut ist, ist für mich kein gutes Rollenspiel und damit nichts was ich kaufen würde)

Wenn die Hardware ansteht und es in Zukunft nur Software Optimierung gibt dann ist das an sich kein Problem
Wenn die Software Optimierung nur mit bestimmter Hardware läuft ist es das aber sehr wohl (und das hatten wir ja schon beim Thema gsync VS freesync)
Rein von dem her ziehe ich FSR gegenüber DLSS vor, zusätzlich dann noch das man es via mods verwenden kann (mal schauen ob das bei FSR4 so bleibt), und was besser aussieht ist insofern egal wenn DLSS für das was ich spiele nicht verfügbar ist.
 
Zurück
Oben