News AMD Radeon RX 9070 (XT): Frank Azor verspricht RDNA-4-Event und attraktive Preise

v3locite schrieb:
High-End "nicht zu unserem Vorteil"... sicher, was soll er auch sonst sagen. Man würde, wenn man nur könnte; aber man kann halt nicht.
Kannst du das bereits begründen?
 
  • Gefällt mir
Reaktionen: Alesis
Vigilant schrieb:
Bei den CPU´s hat es ja auch bestens funktioniert.
Das ist für mich eine Fehleinschätzung. Ryzen 1000 konnte nur deswegen punkten, weil Intel zu diesem Zeitpunkt schon 2 Jahre nicht die angekündigten 10nm liefern konnte. Deswegen konnte die überall als schlecht bezeichnete GloFo Fertigung in 14nm nicht ganz so schlecht aussehen. Und mit Ryzen 3000 konnte AMD sich die TSMC Fertigung sichern, weil GloFo die versprochenen mit hohen Takt 7nm nicht liefern konnte. Intel musste weiterhin in 14nm liefern und war dabei noch nicht einmal so schlecht, wie es AMD über zig Jahre war.
Das war genau die Zeit, die AMD praktisch geschenkt bekommen hat. Die CPU Architektur ist ja nicht schlecht bei Intel, es hapert an der eigenen Fertigung, die man dann wieder perfekt auf die eigenen Produkte zuschneidet. Wenn also 18A gelingt, sehe ich dunkle Wolken am AMD Himmel. Und wenn Intel weiterhin einen 12 Monate Rhythmus beibehält, inkl. ihrer eigenen Fertigung, sehen die 20-24 Monate für eine neu Serie bei AMD schlecht aus.

Deswegen sehe ich es als richtig und wichtig an, dass AMD erst einmal ein paar Schritte weniger macht, um mehr Ressourcen in den wichtigen Markt setzen zu können. Schließlich muss AMD am Ball bleiben, denn der Markt für Konsolen und Handheld kann schnell verloren gehen, wenn Intel besser wird im GPU Sektor und oder auch ARM zum Zug kommt mit Nvidia.
Vor allem ist es auch wichtig, im Notebook Markt mal wieder GPU Chips zu verkaufen.
Vigilant schrieb:
Mir ist das jedoch zu defensiv und zu wenig ambitioniert.
Weil dein falsch interpretiertes Thema, bei CPUs hat es doch auch funktioniert, du auf die Grafiksparte ummünzen willst.
 
  • Gefällt mir
Reaktionen: Apocalypse
Feierbiest schrieb:
Warum gibt man die Info nicht vorab raus.

Warum gibts dann doch schon während der CES Presse-Briefings, zwischen Tür und Angel (oder um genau zu sein in einem Hotel-Zimmer).

AMD's Marketing lässt einen mal wieder kopfschüttelnd zurück!
Um vermutlich im Gespräch zu bleiben.
Seit dem event kommt täglich news zu AMD und RDNA und viele posten, obwohl bereits AMDoomed…

Langsam ist das wie ein Autounfall, alle sagen wie schrecklich aber können nicht wegsehen.
 
  • Gefällt mir
Reaktionen: Orok91
Alesis schrieb:
Weil dein falsch interpretiertes Thema, bei CPUs hat es doch auch funktioniert, du auf die Grafiksparte ummünzen willst.
Ist nur ein Beispiel. Und klar ist damit mehr Wunsch verbunden, als eine valide Einschätzung aktuell realistischer Chancen.

Aber noch mal: Jemand, der die Spitze dominiert, kann auch in der Regel alles andere darunter durch Skalierung dominieren. Es führt kein Weg daran vorbei, sich nicht nur über den Preis abzugrenzen und Marktanteile abzugreifen, in dem Sinne, dass man die verbleibenden Krümel aufsammelt. Das Spiel kann auf Dauer nicht gewonnen werden.
 
Vigilant schrieb:
Na ja, Nvidia ist primär groß durch ihre Server-KI-Hardware. Und zuletzt durch den technischen Vorsprung bei Gaming-GPUs, ein mittlerweile vergleichsweise kleineres Geschäftssegment.
Und das sehe ich ein bisschen anders. Der große Vorsprung oder Vorteil von NV ist Software! Ganz klar und eindeutig und noch vor irgendwelchen technischen Aspekten. Software sells Hardware ist das Motto der Stunde.

Ich glaube nicht, dass AMDs Engineers schlechter sind oder weniger Ideen haben als NVs. Sie haben allerdings wahrscheinlich deutlich weniger Ressourcen auf personeller und finanzieller Ebene.

Auch war es, nach allem was wir natürlich nur aus der Gerüchteküche wissen, ja eine ganz bewusste Entscheidung von AMD die großen Chips für RDNA4 zu streichen. Diese existierten ja und N48 wäre eigentlich nur der 3 größte Chips geworden.

Es ist also nicht so, dass AMD nicht in der Lage gewesen wäre mit RTX 5080 und darüber zu konkurrieren. Warum man wohl relativ früh die größeren Designs gestrichen hat, werden wir wahrscheinlich nie erfahren. Klar könnte das auch technische Gründe gehabt haben. Vielleicht war frühzeitig klar, dass die angepeilte Leistung bei Verbrauchsfenster X nicht erreicht wird oder die Chips einfach zu teuer werden, aber eigentlich liest man als Speku nur rein wirtschaftliche Gründe.

Begrenzte Wafer Kapazitäten und das verschieben eben weg von RDNA4 zu Produkten die sehr viel höhere Margen und auch Umsatz bedeuten. Dazu wohl der Plan mit UDNA die unterschiedlichen Architekturen wieder zusammenzuführen.

RDNA4 ist halt nur so eine Zwischengeneration bevor wieder was ganz Neues kommt und ja ich glaube wieder mit einem neuem Namensschema. Öfter mal was Neues. 👍😄
 
  • Gefällt mir
Reaktionen: Schumey, eXe777, floTTes und 2 andere
D0m1n4t0r schrieb:
Und dann kommt noch hinzu dass es RDNA 4 ist, d.h. es wurde optimiert. Wie genau das in der Praxis aussieht weiss man nicht, daher setze ich das mal mit +10% an also mit Faktor 1,1.
Rechne das mal lieber als fette Nullnummer mit 1.0. Es wird nun endlich einfach nur Fair sein Quality Preset von DLSS mit FSR gegenüber zu stellen, anstatt Balanced vs Quality. Schneller wird da nix, nur besser aussehen.
 
maggel schrieb:
ich hoffe das bei den 9070 xt oder non xt mal wieder ein 550watt netzteil reichen kann, dass wäre klasse.
Wird wohl schwer bei der xt wenn man schon customs mit 3x 8pin sieht..
 
  • Gefällt mir
Reaktionen: floTTes
MoD23 schrieb:
Und das sehe ich ein bisschen anders. Der große Vorsprung oder Vorteil von NV ist Software!
Das meinte ich übrigens mit internen Synergie-Effekten.
 
  • Gefällt mir
Reaktionen: MoD23 und Slim.Shady
Benni16it schrieb:
Wird wohl schwer bei der xt wenn man schon customs mit 3x 8pin sieht..
Es gibt aber auch diverse mit 2x 8-Pin 🙂
 
  • Gefällt mir
Reaktionen: Rockstar85, maggel und Holgmann75
AMD wird abwarten wie die konkreten Benchmarks von NVIDIA sind. dann den Preis so einstellen, dass er wettbewerbsfähig ist. aktuell laufen sicher die internen Diskussionen heiss.

they have their trousers full ;-)
(fehlerhaft aus dem Deutschen übersetzt)
 
  • Gefällt mir
Reaktionen: floTTes
maggel schrieb:
ich hoffe das bei den 9070 xt oder non xt mal wieder ein 550watt netzteil reichen kann, dass wäre klasse.
Kommt halt auf den Rest deines Systems an. CPU, HDD/SSD, etwaige Steckkarten.
Heutzutage kleistern sich die Leute ja auch noch ein Dutzend RGB Lüfter ins Case, dazu noch AIO-Pumpen.
Und wenn dann noch zig USB Geräte übers Board versorgt werden sollen summiert sich der ganze Kleinmist schon zusammen.
Ein NT dann laufend an der Lastgrenze betreiben ist auch nicht ideal. Wirkungsgrad, Temperatur, Lautstärke usw...
 
  • Gefällt mir
Reaktionen: Zarlak
Tritom73 schrieb:
AMD wird abwarten wie die konkreten Benchmarks von NVIDIA sind. dann den Preis so ek stellen, dass er wettbewerbsfähig ist.
Was allerdings auch nicht beliebig möglich ist, wenn man noch ein paar Taler verdienen möchte.
 
p4z1f1st schrieb:
Naja, NV gibt diese Monsterkarten auch nur als "Ausschuss" der echten AI-Monster-Konfigurationen aus.
Sonst hätten die das wohl auch kaum mehr...
Darum UDNA bei AMD ab der nächsten Generation. Eine eigene Gaming Architektur rentiert sich einfach nicht mehr.
 
AMD wurde bei den CPUs mit kleineren Chips im Chiplet Design erfolgreich. Sind die AI Chips größer, oder kann AMD einfach keine großen Chips mehr?
 
Viele scheinen hier ein schlechtes Gedächtnis zu haben, AMD hat das jetzt schon etliche Male gemacht, nur Mittelklasse Karten zu releasen.

GCN 4.0 - RX 480/580/590
RDNA 1 - RX 5700 XT/5700
TerraScale RV670 - HD 3870/3850
GCN 3.0 - R9 285/380/380X war auch erst nur Mittelklasse und erst später kamen die Fury Karten

Ich denke dank FSR 4 werden die Karten in einigen Spielen bessere Leistung bringen als die alten Radeon und vielleicht sogar besser als die neuen Nvidia Karten.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Holgmann75
BAR86 schrieb:
Natürlich kann man die GPUs günstig verkaufen, man wird sie aber nicht günstig verkaufen, weil man so NETT ist, sondern ganz einfach weil die Leistung nicht reicht einen höheren Preis zu rechtfertigen.

Das stimmt halt so auch nicht.

Er gibt ja auch unter anderem gute Gründe dafür, was in vielen Industriebereichen auch ist.

Oftmals müssen die Mittelklasse-Produkte eben die Entwicklung für Highend-Produkte mittragen und erhöhen dadurch die Kosten der Mittelklasse. Wenn man sich die Entwicklung der Highend-Produkte spart und Volumenprodukte entwickelt, so kann man die Preise drücken, da hier Entwicklungskosten entfallen, die sonst auf die Mittelklasse umgelagert werden..für die sogenannten Halo Produkte.
 
  • Gefällt mir
Reaktionen: Rockstar85, Teeschlürfer, Schumey und eine weitere Person
AMD hat mit
aldaric schrieb:
Oftmals müssen die Mittelklasse-Produkte eben die Entwicklung für Highend-Produkte mittragen
Was dann die unangemessenen Preise bei 12GB VRAM, oder bei 8GB VRAM einer 4060 Ti bestätigt. Sparen beim Speicherinterface, bei der VRAM Bestückung und obendrauf dann auch noch teurer verkaufen.
 
Zurück
Oben