News AMD Radeon RX 9070 (XT): Frank Azor verspricht RDNA-4-Event und attraktive Preise

Nick.Bo schrieb:
Trotzdem empfinde ich es als "längerfristig" Marktschädigend wenn AMD sich völlig aus dem High-End Bereich verabschiedet. Es wird sicher nicht so schlimm wie zu Zeiten mit dem 7700K aber sicher ähnlich. (Nur wesentlich teurer).
Von längerfristig aus diesem Marktsegment zu verabschieden hat keiner gesprochen.
Vielleicht mal für eine Gen.
Geld verdient AMD in der Mitelklasse der GPU, mit HPC und AI Beschleunigern als Profilösungen,
mit CPUs für Endkunden und Servern und mit APUs für Endkunden und für Konsolen.

Ich sehe es also auch nicht ein, dass AMD Oberklasse GPUs baut, nur um die NV Preise zu drücken
um dort drauf zu zahlen, dass die Kunden dann am Ende doch NV GPUs kaufen. Diese Kundschaft soll NV
kaufen und bluten bis es weh tut! Irgendwann sehen sie dann vielleicht, was sie dem Markt damit antun.
Ergänzung ()

BAR86 schrieb:
Wenn die Daten zu 300W usw stimmen, heißt das aber leider dennoch, dass das nicht ist, weil man es von vornherein so will, sondern auch, weil man es einfach nicht besser hinkriegt.
Sollte es stimmen und wir haben eine "Mittelklassekarte" um 300W weiß ich echt nicht mehr wohin die Reise gehen soll...

Es ist dir aber schon aufgefallen, dass Mittelklasse wie die RTX 5070 heute bei 250W los geht?
RTX 5070 TI 300W.

Meine RX580 OC war 225W, 6700XT/6750XT als OC war schon bei 230-250W, der Nachfolger 7800XT ist bei 263-288W.
Alles dieselbe mittlere Chipklasse wie jetzt auch die RX 9070XT.

Da hab ich jetzt nicht das grosse Problem damit, wenn sie bei einer Custom Karte ein Silent Bios mit sagen wir 265W anbieten und mit einem OC Bios 330W voll ausfahren, solange der Kühler das locker stemmen kann, kein Problem. UV gibt es immer noch.

Und mehr Leistung ist wie man überall sieht, nur noch mit mehr Verbrauch zu erreichen.
Um das auszugleichen kommt die Fertigung nicht mehr hinterher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Rockstar85, CadillacFan77 und eine weitere Person
TomMÆC schrieb:
Grafikkarte ist da schon was UMFANGREICHER (komplexer)
Oh Mensch, da hast du Recht. Die Komplexität eines Produktes entscheidet über die Marketingstrategie ;) Ansonsten alles gute an dich, was auch immer dir weh tut.
 
Na ich bin wirklich mal gespannt wie die Welt im Februar aussehen wird.
Ich hab eine 6800XT, die m.M.n. mit am besten gealtert ist, häufig immer noch schneller als die 7800XT ist und 60% Mehrleistung einer 7900XTX oder 4080S ist für mich zu wenig Argument, einen umstieg in Betracht zu ziehen. Daher bin ich wirklich wahrlich gespannt, wie die tatsächliche Praxisperformance aussehen wird.
 
  • Gefällt mir
Reaktionen: Apocalypse, Windell, simosh und eine weitere Person
Also eins verstehe ich überhaupt nicht.
Wie kann es möglich sein, dass AMD bei den Ryzen 9000 und nun RDNA4 auf eine 4nm aber weiterhin auf GDDR6 Speicher setzt, was ja an auch auch dicke reicht aber Nvidia ihre neue Gen immer noch in ihrem verbesserten custom 5nm Verfahren aber dafür mit GDDR7 Speicher ausstattet! 🤔
Wäre es nicht wesentlich besser auf 4nm und GDDR7 zu gehen für Nvidia?
Klar, ich kann's mir denken, es geht wie immer um die Kohle und ihr custom 5nm Verfahren ist günstiger als 4nm aber wozu dann GDDR7 wenn auch GDDR6X gereicht hätte? Ah ja stimmt wahrscheinlich wegen Ai und den professionellen Karten 🤔 mag sein aber dennoch doch nur halbe Sachen. Wahrscheinlich setzt man in anderen professionellen Bereichen sowieso nicht so sehr auf die Effizienz wie die Gamer Gemeinschaft, die auch möglichst wenig für den Strom zahlen möchte vor allem in Europa bzw Deutschland bei den hohen Strompreisen.
Oder sie lassen sich das 4nm Verfahren noch für die RTX 6000er offen, da sie in dieser Generation von der Konkurrenz sowieso nichts zu befürchten haben und diese Performance Steigerung vollkommen ausreicht, um entsprechend Absatz zu generieren.
 
Bin ja der Meinung AMD tut gut daran den Preisbereich über 1.000€ zu ignorieren.
Siehe 4080 welche von Anfang an zu teuer war, 5080 mit nur 16GB für noch mehr Kohle???
Über 2.000€ für eine 5090? Wer es nötig hat kann da ja gerne bei NVIDIA kaufen.
Den Karten um 5070/5070ti Stirn zu bieten finde ich gut, auch hier scheint NVIDIA zu denken sie können machen was sie wollen. Feature technisch ist das vllt auch ein Vorteil von grün, wenn AMD hier allerdings mit Rohleistung überzeugt, FSR4 soll ja Gerüchten zu glauben ganz gut werden, das ganze preislich noch attraktiv macht kann das nur gut sein.
Den Mittelklasse Bereich bei Nvidia finde ich nämlich enttäuschend für die angegebene Preise.
Bin sehr gespannt auf erste Tests der AMD Karten.
 
  • Gefällt mir
Reaktionen: SweetOhm und dermatu
Ich sehs so: Die einzige wirkliche Konkurrenz die AMD hat ist die GTX 5070ti.
Denn, die 5070 hat zu wenig Speicher. Bei Karten im Preisbereich ~650 Euro, erwarte ich mindestens 16 GB Speicher.
Die 5070ti ist von der Speicheraustattung her ok, dagegen muss man konkurrieren. Die 9070XT wird wohl eine ähnliche Leistung haben, da könnte man dann über den Preis kontern.
Die 5080 wiederum ist für das was sie kann zu teuer. Selbe Speichermenge wie die 5070ti, Rechenleistung vermutlich um die 20% mehr, aber das rechtfertigt den Preis nicht. Der Unterschied zwischen 5070ti und 5080 ist relativ gering, viele werden da eher zur 5070ti greifen.
Und die 5090 spielt eh in ner ganz anderen Liga, dagegen muss man nicht konkurrieren.

Wenn AMD Clever ist, dann verkaufen sie die 9070XT für unter 650 Euro um so gleichzeitig die 5070 und die 5070ti als Konkurrenz zu verdrängen. Argument gegen die 5070 wäre: Mehr Speicher+Schneller und gegen die 5070ti: Günstiger bei ca. selber Leistung.
Ne UVP von 499 $ + 19% Steuern könnte z.b. in nem Straßenpreis von 599,- bis 649,- Euro bei uns resultieren.

Wenn AMD das macht, sähe es so aus, dass theoretisch alles unterhalb der 5080 an AMD geht, also der Großteil des Marktes. Natürlich wirds weiterhin auch Leute geben die Nvidia kaufen weil Nvidia draufsteht, aber da könnte AMD mit der 9070XT diesmal echt Punkten, solange die günstiger als die 5070 ist.
 
  • Gefällt mir
Reaktionen: SweetOhm, Koslowski04, Windell und eine weitere Person
ETI1120 schrieb:
War es denn tatsächlich ein Verkaufsargument oder bloß ein Kostentreiber?
both.gif

:lol:
 
  • Gefällt mir
Reaktionen: ETI1120
D0m1n4t0r schrieb:
Wenn AMD das macht, sähe es so aus, dass theoretisch alles unterhalb der 5080 an AMD geht, also der Großteil des Marktes.
Immer unter der Prämisse, dass Nvidia nicht entsprechend reagiert und nachsteuert.
 
danyundsahne schrieb:
Wäre mir aber schlussendlich lieber dass sie im volumenträchtigen Markt sehr starke Konkurrenz machen, als dass sie 1000€+ und aufwärts GPUs herstellen.
Die beiden Dinge haben doch gar nichts miteinander zu tun. Wenn ich den Highend Bereich auslasse, bin ich deshalb doch nicht im Mittelklassebereich besser. AMD hat keinerlei Vorteile von ihrer Strategie. Das ist erstmal alles aus der Not heraus geboren. Das Marketing wird natürlich etwas anders sagen, das ist klar.
danyundsahne schrieb:
Denn diesen 20% Markt können sie gerne NV überlassen.
Schaut man sich die Verkäufe auf Mindfactory an, sind es eher 1/3 und da man mehr ROI im High End Markt hat, wären das letztendlich schon eher Richtung 50% des Umsatzes, die einem durch die Lappen gehen. Die 4090 wurde verkauft wie geschnitten Brot.
LamaMitHut schrieb:
AMD tut gut daran, den Bereich über 1000€ in Zukunft komplett zu ignorieren.
Du frisst AMD wirklich bei jeder Marketingsaussage völlig aus der Hand, während bei Nvidia alles böse und gelogen ist. Muss man auch erst einmal hinbekommen. Wenn AMD das macht, dann werden sie immer weniger konkurrenzfähig werden, weil GPUs in Zukunft mehr als 1000 Euro kosten werden müssen.
LamaMitHut schrieb:
Die 3080 mit ihren 10 GB war ein schlechter Scherz,(...)
Hat sich besser verkauft als die 6800XT und ist auch heute noch schneller als selbige.
Speicherknappheit kann man in den meisten Titeln mit wenigen Optikeinbußen beheben ist also alles nicht so schwarz-weiß.
LamaMitHut schrieb:
4080 zum Release viel zu teuer(...)
Hat sich wesentlich besser verkauft als die 7900XTX, kann also nicht "zu teuer" gewesen sein.
LamaMitHut schrieb:
, 5080 mit 16 GB im Jahr 2025 auch wieder grenzwertig.
Mit nicht so viel mehr Mehrleistung zur 4080 braucht die Karte den RAM allerdings eher weniger.
LamaMitHut schrieb:
Warum? Man muss nicht krampfhaft auf jeder Hochzeit tanzen.
LamaMitHut schrieb:
Natürlich sind die CPUs nicht nutzlos oder so, aber wenn das jetzt der Anspruch der fanboys ist...
Natürlich sind die AMD GPUs nicht nutzlos oder so, aber wenn das jetzt der Anspruch ist... blabla.
Merkste selber oder? Bitte etwas mehr Neutralität.
 
Zuletzt bearbeitet:
Wenn die 9000 bessere RTX Leistung bringt...
 
D0m1n4t0r schrieb:
Ich sags mal so: Wenns RTX 4080 Leistung für weniger als 600 Euro gibt, dann finde ich das ein ziemlich gutes Produkt.
Die 9070XT soll doch eher bei 649 Euro liegen (das Preisniveau der 7900GRE wurde ja genannt) und die 9070 bei 499/549 Euro (Preisniveau 7800XT). AMD will daran Geld verdienen...
 
Quidproquo77 schrieb:
Die beiden Dinge haben doch gar nichts miteinander zu tun. Wenn ich den Highend Bereich auslasse, bin ich deshalb doch nicht im Mittelklassebereich besser. AMD hat keinerlei Vorteile von ihrer Strategie. Das ist erstmal alles aus der Not heraus geboren. Das Marketing wird natürlich etwas anders sagen, das ist klar.
Nein bin ich eben nicht der Meinung. Warum kann AMD kein sehr gut aufgestelltes Mittelklasse Angebot ggü NVs Mittelklasse bieten?
Nur weil NV eine schnellere High End Klasse anbieten kann? Für 1000- 2500€!?

Du siehst ja wie verkümmert NVs Mittelklasse ggü deren Speerspitze ist.
Warum bietet denn deiner Meinung nach NV keine bessere Mittelklasse an?
Sicher nicht wegen AMD, sondern weil sie kostenoptimierte Sparflammenprodukte trotzdem teuer verkaufen.

Aber nur weil AMD keine High End Karte bringt heißt das doch nicht automatisch im Umkehrschluss, dass sie in der Mittelklasse nichts gutes und konkurrenzfähiges bringen können/dürfen/müssen.

Ich seh dafür keine brauchbaren Argumente.

Quidproquo77 schrieb:
Schaut man sich die Verkäufe auf Mindfactory an, sind es eher 1/3 und da man mehr ROI im High End Markt hat, wären das letztendlich schon eher Richtung 50% des Umsatzes, die einem durch die Lappen gehen. Die 4090 wurde verkauft wie geschnitten Brot.
Naja, wenn man hier im Forum mindfactory als Martverteilungsbenchmark hernimmt, dann wird man immer zerrissen dass das nicht den Weltmarkt abbildet.
Das solltest du eigentlich mittlerweile wissen ;)

Glaube kaum dass NV 1/3 der high end Karten weltweit verkauft ;)
Und und ob das nun 80/20 oder 90/10 sind, darum geht's mir nicht.
Aber klar ist der ROI bei den hochpreisigen Karten höher. Bei einer 2500€ Karte sowieso :D
Die wohl nur 500€ in der Herstellung kostet
 
  • Gefällt mir
Reaktionen: SweetOhm und eXe777
Auch ich finde den Weg weg von high end gut. Das gross der Karten verkauft sich in der Mittelklassehotel. Hier muss man Konkurrenzfähig sein um mehr Anteile zu bekommen, bevor man wieder angreift.
Finde gefühlt die Masse der Versionen hätten eh überhand genommen. Zu Ati Zeiten gab es auch nur eine 9600, 9700 und 9800 und ggf. Pro Modelle.
Kein Mensch braucht ein lineup in dem mehr als 3 (6) verschiedene Varianten vorkommen
 
danyundsahne schrieb:
Warum kann AMD kein sehr gut aufgestelltes Mittelklasse Angebot ggü NVs Mittelklasse bieten?
Warum sollten sie es nicht können?
danyundsahne schrieb:
Nur weil NV eine schnellere High End Klasse anbieten kann? Für 1000- 2500€!?
Dein Punkt war doch, weil sie High End weglassen, können sie bessere Mittelklasse anbieten. Den Zusammenhang verstehe ich nicht.
danyundsahne schrieb:
Warum bietet denn deiner Meinung nach NV keine bessere Mittelklasse an?
4070 und 4060 Ti haben sich doch prima verkauft und hatten genügend Vorteile gegenüber der Konkurrenz. Sehe das Problem nicht.

danyundsahne schrieb:
Naja, wenn man hier im Forum mindfactory als Martverteilungsbenchmark hernimmt, dann wird man immer zerrissen dass das nicht den Weltmarkt abbildet.
Bildet es hinsichtlich der Marktanteile auch nicht ab, aber sehr wohl wie viel Leute bereit sind auszugeben. Und da wurden viele 7900XT(X), 4070 Ti und aufwärts verkauft.
 
Zuletzt bearbeitet:
Serandi schrieb:
Wäre es nicht wesentlich besser auf 4nm und GDDR7 zu gehen für Nvidia?
Nvidia benutzt "4N", AMD nutzt "N4". Beides sind optimierte Variante von N5 und dürften praktisch gleichwertig sein, gehören alle in die Familie der 5nm-Prozesse. Erst die 3nm-Prozesse sind wirklich ein grundsätzlich neuer Node
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Serandi
Frank Azor hat nun endlich in einem Interview bei PCWorld zugegeben, dass AMD Nvidia den Vortritt lassen wollte. Ich glaube er ist sich (inzwischen?) bewusst, dass sie sich auf sehr dünnes Eis begeben haben. Wenn man einen Spannungsbogen aufbaut muss man auch etwas liefern.

whyme schrieb:
Egal was AMD mach, manche Leute finden immer Gründe keine AMD zu kaufen. Je weiter oben in der Leistung desto schlimmer.
*)
DevPandi schrieb:
Ich will da aber mal fest halten, dass das nicht nur auf AMD zutrifft, sondern auch auf Nvidia und Intel.
...

Diese "Fanwars" sind schon richtig alt und werden immer wieder geführt. :)
Dieses kleinkarierte Gezänke füllt die Foren und beschert den Artikeln die das Gezänk antriggern sehr viele Klicks. Auf den Absatz hat dieses Gezänk in den Foren nur einen marginalen Einfluss. Auch die 5 Hansel die aus irgend einem Prinzip keine Intel CPU oder keine Nvidia GPU kaufen, gehen in der Masse unter.


*) So ist die Welt nun Mal. Leute kaufen die Marken immer wieder, mit denen sie zufrieden sind.
Leute wechseln die Marke wenn
  • sie mit dem Produkt unzufrieden sind,
  • eine andere Marke ein deutlich besseres Angebot macht
    Wobei bei deutlich besser jede Person andere Massstäbe hat.
  • oder die bisherige Marke nicht das anbietet was sie benötigen bzw. was sie wünschen.
Und anstatt zu sagen, ich bin mit meiner aktuelle Nvidiakarte zufrieden, und will deswegen wieder eine Nvidia Karte haben, werden eben Gründe vorgeschoben.


Der GPU Markt ist in den letzten 20 Jahren immer weiter zugunsten Nvidia gekippt. Und je weiter er kippt desto schwerer ist es für AMD langfristig wieder Boden gut zu machen. Der Grafikkartenmarkt ist heute dadurch geprägt, dass die Mehrheit der Käufer nur Grafikkarten mit Nvidia GPU kauft. Das nennt sich Markenbindung, das gibt es in jeder Branche.

Intel wurde groß und mächtig, weil es wichtiger war, dass der PC eine Intel CPU hatte, als wer den PCs zusammengesteckt hat. Intel Inside wurde zum wichtigsten Label auf einem PC. Intel wurde zum Synonym für PC. Das hat dazu geführt, dass ein PC ohne Intel CPU zu verkaufen ein schwieriges Unterfangen war. Es gab immer ein paar Querulanten die Intel nicht mochten. Aber die Konkurrenz von Intel hat sich immer nur um ein paar Brotkrumen geprügelt.

Nvidia ist es ebenso gelungen die eigene Marke dem Markt für Grafikkarten und GamingPC aufzuprägen. Um eine Nvdia GPU zu verkaufen muss man nicht viel machen. Eine AMD GPU zu verkaufen ist erheblich schwerer.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und CadillacFan77
stefan92x schrieb:
Nvidia benutzt "4N", AMD nutzt "N4". Beides sind optimierte Variante von N5 und dürften praktisch gleichwertig sein, gehören alle in die Familie der 5nm-Prozesse. Erst die 3nm-Prozesse sind wirklich ein grundsätzlich neuer Node
Ok danke dir für mehr Klarheit 👍🏻
 
  • Gefällt mir
Reaktionen: SweetOhm
ETI1120 schrieb:
Was erzählst Du da?
Und weiter?
Kann AMD von jetzt auf gleich 3x so viele Chips bestellen? Nö.
Ergänzung ()

modena.ch schrieb:
Es ist dir aber schon aufgefallen, dass Mittelklasse wie die RTX 5070 heute bei 250W los geht?
RTX 5070 TI 300W.
Tut es, muss es aber nicht. Einen etwas größeren Chip handzahm zu betreiben und schon ist man bei der halben Wattzahl.
Du kannst auch eine 4090 ohne größere Performanceabstriche bei 300W betreiben und dann bist du bei "schon gar nicht mehr so Mittelklasse" trotz 300W.

Ich finde im unteren Segment braucht es diese enormen Verbräuche nicht. Man könnte also auch aufhören, die Chips deutlich über dem Sweet Spot zu betreiben oder eine 10% langsamere "Efficient Edition" anbieten. Ich würds kaufen, die FPS mekrst du nicht, die Hitze schon.
modena.ch schrieb:
Meine RX580 OC war 225W
Schlechter Vergleich, da die Radeons seit knapp 10 Jahren nunmal oft als "fresser" bekannt sind. Die gleich schnelle Geforce 1060 hat nur 120W Verbrauch, Igor hat sie mit 75% betrieben bei immer noch 90% der Leistung.

modena.ch schrieb:
Da hab ich jetzt nicht das grosse Problem damit, wenn sie bei einer Custom Karte ein Silent Bios mit sagen wir 265W anbieten und mit einem OC Bios 330W voll ausfahren
gerne ein Silent Bios mit 150W statt 250. OK.
modena.ch schrieb:
Und mehr Leistung ist wie man überall sieht, nur noch mit mehr Verbrauch zu erreichen.
nein eben nicht, das sind die Märchen die einem die Hersteller weißmachen, sonst wär eine 4090 bei 300W nicht fast genauso schnell.
 
Zuletzt bearbeitet:
Zurück
Oben