News AMD RDNA 4: Radeon RX 9070 XT und RX 9070 kommen im März

Grestorn schrieb:
Mit deutlich einfacheren und preiswerteren Komponenten, was die Zentraleinheit und die Boards angeht.
Sagt wer?

GB203 - 378 mm²
Navi48 - 390 mm²

Gleicher Prozess bei TSMC also mal gleiche Grundpreise. Nvidia mit ca. 9x der Absatzmenge also mit Sicherheit höherem Rabatt plus dazu noch mehr Yield weil kleinerer Chip.

Dann:

SI:
GB203 - 256 Bit
Navi48 - auch 256 Bit

Das Einzig Teurere ist GDDR7 anstatt GDDR6.
Den realen Preisunterschied kennen wir nicht.

GDDR6 kostet ungefähr 2.30$ pro GB. Bei 20GB also knapp 50$.
Bei GDDR7 gibt es keine öffentliche Preise, man geht aber davon aus, dass die Kosten etwa 80-100% höher liegen als bei GDDR6.

Die Chipgrösse und Anbindung ist aber gleich teuer, wenn nicht sogar günstiger bei GB203 als bei Navi48 und trotzdem kosten die Karten voraussichtlich mehr als bei AMD.


Grestorn schrieb:
Und auf der einen Seite beklagt ihr immer, dass AMD ein so kleines Forschungs- und Entwicklungsbudget hat. Auf der anderen Seite beschwert ihr Euch darüber, dass die Konkurenz, die ein zigfaches in Forschung steckt, so schrecklich teuer ist.
Nein, es wird nur zu Recht kritisiert, dass nVidia beim Speicher geizt und das aus wirtschaftlichen, und nicht technischen Gründen.

Grestorn schrieb:
NVidia darf also keinen reduzierten Chip mit nur 192 bit produzieren? Weil dann alle sofort schreien "Gewinnmaximierung"?

Ok, dann streicht NVidia halt einfach die 5070. Dann sind sicher alle zufrieden.
Klar dürfen sie das. Sie können von mir aus einen Chip mit 36 Bit SI und 1GB produzieren.

Kritik kann trotzdem angebracht werden, wenn die Mittelklasse Karte zwar eine gute Performance zeigt, aber beim VRAM halt eben auf Kante genäht ist und das nicht wirklich dazu passt.

Man kann auch einen 25l Tank in einen AMG mit V8 einbauen, ob das sinnvoll ist sei dahin gestellt.

DarkStarXxX schrieb:
Natürlich lässt sich AMD das Konsolengeschäft in Zukunft einfach so durch die Lappen gehen...
Merkst du doch selbst das dies niemals passieren wird.
Konsolengeschäft geht unter soweit ich weiss unter "Embedded". Sind ja auch APUs. Auch da kann man argumentieren, dass die Ressourcen besser direkt dort (und den iGPUs) aufgehoben wären, weil der Markt für Konsolen und Laptops deutlich grösser ist als für dGPU.
 
  • Gefällt mir
Reaktionen: AMD64freak
Quidproquo77 schrieb:
Grestorn hat von Anfang an mit einem Kompromiss argumentiert. Der Kompromiss ist mit einer Radeon Karte viel größer. Kein DLSS, schwächeres RT, kaum nutzbares PT, auch aufgrund fehlendem RR.
Schon wieder wird hier alles mögliche aufgelistet, warum Nvidia so toll ist. Ich versteh es einfach nicht...
Hey ich will mir ja selbst diese Gen eine Nvidia kaufen, weil ich eben mehr RT Leistung etc. möchte. Trotzdem kann ich doch kritisieren, dass besonders bei der 5080 der Speicher für die Leistung und den Preis schon sehr knapp bemessen ist.
Quidproquo77 schrieb:
Da heißt es dann wieder etwas von "Fanboys" usw. Man kann sich gerne anschauen wo die RTX 3080 heute im Vergleich zur 6800XT bei maximalen Details trotz nur 10GB steht. Wenn Nvidia bei anderen Dingen überlegen ist, wird AMD einen Vorteil für sich beanspruchen müssen. (Speicher)

Man man man... ich will hier überhaupt keinen Hersteller irgendwie in Schutz nehmen oder sonst was. Auch bei der 9070 XT würde ich sagen könnte mehr Speicher drauf.
Und ja ich hab das damals schon bei der 3080 gesagt mit ihren 10GB. Und ja die steht besser da als die 6800XT, hat sie aber doch schon immer. Vielleicht würde sie aber noch besser dastehen mit mehr Speicher und schaden würde es definitiv nicht.

Quidproquo77 schrieb:
Es würde auch keinem einzigen Kunden schaden, wenn die Radeon ein besseres Featureset, mehr RT Power und überhaupt mit PT in Indiana liefe. Die Diskussion hattest du schon öfter.
Joa sag ich nichts dagegen, weshalb ich auch sehr wahrscheinlich dieses Jahr eine Nvidia kaufen werde.
Ich kritisiere auch AMD, dafür dass es diese Gen keine High End Karten gibt und RT Leistung mittlerweile einfach zu wenig ist für mich, weshalb ich halt um ein für mich Lohnenswertes Update von meiner 6900XT zu bekommen zu Nvidia greifen muss.

Aber schon wieder wird verteidigt, werdet ihr dafür bezahlt? Ich sag doch nichts anderes, als dass BEIDE Hersteller zurecht dafür kritisiert werden sollten, wenn sie beim VRAM Sparen, bei Grafikkarten, die eh schon so sauteuer sind. Nvidia halt bisschen mehr, weil sie generell beim Speicher geiziger sind.

Und dann kommen halt immer so Sachen wie
"bevor der Speicher ausgeht, reicht die Rohleistung schon nicht mehr" Wo ich aber später trotzdem, wenn die Leistung eben nicht mehr für RT, Ultra Schatten etc. reicht trotzdem die Texturen voll ausfahren kann, wenn der Speicher reicht.
Oder "dafür kann Nvidia dies oder das besser". Bringt in der Diskussion halt nicht wirklich was. Wenn mir die ChickenMcNuggets beim Mc schmecken, kann ich trotzdem kritisieren, dass die Pommes beim Mc scheiße sind.
 
  • Gefällt mir
Reaktionen: Verak Drezzt, Knobi Wahn und cbmik
bigfudge13 schrieb:
Ohne FG sinds auch keine Fake-Frames.
Du hast dich aber auf "Fake-/Render-Frame"s beschränkt. DLSS kann dir auch was bringen, wenn du nur 60FPS benötigst
Ergänzung ()

HAse_ONE schrieb:
Und ja die steht besser da als die 6800XT
So pauschal kann man das nicht sagen
1737639119456.png

Bei RT werden 10GB knapp. Bei den Perzentil-Werten ist die Differenz größer
1737639256278.png


Man beachte: Performance-Rating, kein Cherry-Picking
 
Zuletzt bearbeitet:
Grestorn schrieb:
Du verwechselst Pixelkanten mit Schärfe. Das spricht nicht für Dich.
Nimm Deine Vogelscheuche und macht Euch einen schönen Nachmittag mit Kaffee und Kuchen.
 
  • Gefällt mir
Reaktionen: AMD64freak
Volker schrieb:
Tja NDA halt wa :D
Erzählen wir nach NDA dann mal^^
Du kannst dich spätestens bei deiner Frau nicht hinter einem NDA verstecken :D
Also müssen wir wieder mal geduldig abwarten und Tee trinken. Oder deine Ehefrau ausfindig machen :D
 
  • Gefällt mir
Reaktionen: Holgmann75
HAse_ONE schrieb:
Joa sag ich nichts dagegen, weshalb ich auch sehr wahrscheinlich dieses Jahr eine Nvidia kaufen werde.
sieht bei mir nicht anders aus, aber nicht wegen der RT Leistung oder wegen DLSS, sondern einfach der Marktanteile geschuldet und dass Entwickler, vor allem kleine, hauptsächlich für Nvidia Karten optimieren und AMD Besitzer in die Röhre schauen was die Leistung und Optimierung angeht

so wie zuletzt bei Mechwarrior 5: Clans gesehen, worauf ich mich seit Ankündigung gefreut hatte und am Releasetag in die Röhre schauen musste, weil ich teils drops unter 30FPS hatte und selbst bei Games die schon einige Jahre draußen sind, nix passiert, siehe W40K: Darktide wo meine 6800XT einfach nur grottig läuft
 
Grestorn schrieb:
@bigfudge13 ... sondern Fake-Pixel.

Die Argumente sind halt alt.

Irgendwelche möglichst krassen Worte zu verwenden, um seiner Meinung Audruck zu geben, macht das ganze halt nicht wirklich glaubwürdiger.
Vielleicht sind solche „krassen“ Worte notwendig, wenn das Marketing von 4090 Leistung um 549$ spricht. Nenn es gerne generierte Frames.

DrFreaK666 schrieb:
Du hast dich aber auf "Fake-/Render-Frame"s beschränkt. DLSS kann dir auch was bringen, wenn du nur 60FPS benötigst
Richtig, die haben ja erstmal nichts mit DLSS zu tun, das finde ich prinzipiell gut.

Ich habe nur für mich infrage gestellt, ob FG Sinn macht, wenn die Basis Framerate 60 fps betragen sollte, wenn ich sowieso nicht mehr fps brauche.
 
Taxxor schrieb:
Eigentlich ist es genau umgekehrt, DLSS wird in den meisten Fällen einfach per Checkbox aktiviert und läuft dann von Haus aus schon gut, solange man es mit den richtigen Daten vom Spiel füttert, bie FSR ist meist noch etwas mehr händische Anpassung seitens der Entwickler nötig.
Diverse Interviews von Entwicklern oder die Cyberpunk Patchnotes würden da widersprechen.
Müsste man DLSS nur aktivieren ohne was zu tun gäbe es keine "Bugs mit DLSS entfernt" patches

Und Cyberpunk wurde mehr oder weniger als Nvidia Techdemo entwickelt, also wenn man selbst da nachbesser muss weil es Fehler gibt, wirds bei einem Spiel wo das im Nachhinein dazu kommt nicht einfacher werden (und SW Outlaws sieht aktuell mit DLSS nicht gut aus was Artefakte angeht)
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Kannst du bitte paar Beispiele Aufzeigen? Hier bei CB wird ja DLSS von der Bildqualität auch gelobt das es oft besser als das native Bild aussieht.
Das kann doch jeder ganz enfach selbst machen, mit jedme Spiel das DLSS und/oder FSR anbietet.
 
Zurück
Oben