News AMD Radeon RX 9070 XT: Anzeige untermauert Verschiebung und zeigt MBA-Design

DaysShadow schrieb:
Marketing aka Werbung soll normale Nutzer abholen und du hast zwar viel geschrieben, aber nichts konkretes in dieser Hinsicht. „Ja wenn das Produkt gut ist, dann muss man das mit Werbung zeigen“. Schön, aber wie? „Hol dir jetzt deine RX 9070 XT um deine Gegner in Fortnite mit 500 FPS glatt zu rasieren 🤪“ so? Oder ernster? Oder ist’s am Ende doch egal?
Ja du hast Recht ich habe nichts konkretes geschrieben. Habe mich auch damit nicht konkret befasst. Werde dafür auch nicht bezahlt.
Und ja Mundpropaganda ist wichtig. Das Problem ist nur das Nvidia als Konkurrenz viel zu gut ist. Und nicht so ein Saftladen wie Intel ist der seit 2017 fast nichts mehr gebacken bekommt. Und wenn tsmc nicht wäre immer noch den Ryzen hinterherlaufen würde.
AMD könnte den Ansatz von Samsung fahren und so massiv Werbung machen das Nvidia da untergeht. Dann braucht es Produkte die fast gleichwertig sind. Und man müsste z.b. sowas wie MFG für die Masse der Spieler als Marketingkniff mal entkräften. Weil es nur für die Leute taugt die Singleplayer unbedingt mit 240fps zocken wollen. MFG hilft niemandem mit zu wenig FPS.
Wie auch immer das Marketing von Radeon ist scheiße dazu kommt noch das man die Einführung der Produkte immer wieder vermasselt. Dazu kommt noch die fehlende Innovation in den letzten 6 Jahren. Die man aufgrund von zu wenig Mitteln nicht leisten könnte. Auch wenn AMD mit so wenig Geld in R&D bei GPUs sich trotzdem gut schlägt als Zwerg neben Nvidia.
 
  • Gefällt mir
Reaktionen: SweetOhm und Baal Netbeck
K1LL3RC0W schrieb:
Aber nicht in der UVP, da waren es nie 50 %... anfangs sind bei nah bei einander, wobei AMD stehts günstiger ist.... die großen Unterschiede ergeben sich meist erst über eine gewisse Zeit. (Marktmechanismen)
Was oder wen interessiert eine UVP ?!?
Allein was ich auf den Tresen legen darf ist ausschlaggebend ...
Ergänzung ()

Botcruscher schrieb:
Lol nein. AMD hat einen seichten Vorsprung von ein paar Prozent bei Raster. Mit RT liegt NV bei Preis/Leistung vorn und dann reden wir noch nicht mal über die Randbedingungen wie Stromverbrauch. Die Differenz dort macht über die Jahre im Extremfall mal schnell den Kaufpreis einer Karte aus.
Die paar RT Titel machen den Bock doch nicht fett ! ca. 98,3 % aller Games laufen in RR.
Stromverbrauch von Ampere schon verdrängt ? Da war es noch nicht so wichtig, gelle.
Deinen Stromanbieter möchte ich nicht haben, wenn die Differenz zwischen einer 4080 (320 Watt /1200 €) und einer 7900XTX (355 Watt / 900 €) nur mit den paar Watt an Stromkosten egalisieren möchtest ... :daumen:
Ergänzung ()

Rockbreak schrieb:
Hat auch der 4080 Super nicht das Wasser reichen können. Der 4080 für 1200? Definitiv, der 4080 Super für 999? Absolut nicht. Rasterperformance wenige Prozent schneller, sobald aber einigermaßen anspruchsvolles Raytracing dazu kam war die 7900xtx weit hinter der 4080.
Die 7900XTX liegt vor einer 4080 Super im RR Bench und kostete schon mal ca. 800 € zum Tiefstpreis, sowie die 999 € für die 4080 Super es waren (just ca. 1100 €).
RT, meinst Du dieses "Gimmick" jenes vermutlich erst zwei Gen später mal halbwegs vernünftig (FPS) läuft (ohne dem ganzen Fake Gedöns) ?
Rockbreak schrieb:
Kannst du gerne so sehen, ich sehe das entschieden anders.
Siehe Anhang
 

Anhänge

  • 7900XTX  800 €.jpg
    7900XTX 800 €.jpg
    285,2 KB · Aufrufe: 20
  • Bench RDNA3 vs Ada.jpg
    Bench RDNA3 vs Ada.jpg
    322,5 KB · Aufrufe: 21
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
blauescabrio schrieb:
Hast du zu den 99 % irgendeine belastbare Quelle oder ist der eher gefühlt?
Ja, ich habe meine RX6800 von XFX für 369€ bei Mindfactory gekauft damals.
Und hier siehst du zb die Preise im Jahr 2023 von meiner Karte im vergleich mit der günstigsten RTX 3070.
RTX 3070 vs RX6800.png
 
  • Gefällt mir
Reaktionen: SweetOhm
KlaasKersting schrieb:
Wieso werden bei Nvidia die Preise immer großzügig aufgerundet?

Die 5070 Ti kostet 879€ und abgesehen vom Mining Boom hat man Midrange-Karten auch für UVP bekommen.

Das wären dann maximal 679€ und nicht 700-800€.
Dann schaust Du Dir allerdings KEINE VK Preise an, was für Custom Modelle nach Release aufgerufen wird !
Die UVP ist für den Poppolores ... :rolleyes:
Ob Du es wahr haben willst oder auch nicht, es wird 5070Ti Modelle für 1000 € geben, die auch jemand kauft.

p.s. die 200 € musst von den VK Preisen einer Custom OC 5070Ti (900 - 1000 €) abziehen = 700 - 800 €,
nicht von der UVP.
 
Zuletzt bearbeitet:
T3Kila schrieb:
Bei so einem Durcheinander frage ich mich schon wie weit oben diese kurzfristige Verschiebung abgenickt wurde.
Und dann so schlecht durchgeführt ...
Wenn da mal keine Köpfe rollen

Das würde mich nicht wundern, wenn da jemand entlassen wird.
 
SweetOhm schrieb:
Was soll ich an dem Anhang sehen? Dass die 7900xtx einen Preisverfall hatte da 999$ aka 1200€+ zu viel für die Karte waren und Amd deswegen wie immer überteuert startete um anschließend die Preise im Nachhinein senken zu müssen? Wie jetzt schon wieder mit der 9000er Serie was der Grund für den Rückhalt ist? Die 820€ kommen nciht daher weil AMD uns gute P/L geben wollte sondern weil sie die Karten nicht anders losgeworden wären. Danke für die Bestätigung meiner Aussage.
 
Rockbreak schrieb:
Was soll ich an dem Anhang sehen?
Der Benchmark Anhang widerlegt Deine Aussage, da dort ganz klar ersichtlich (o.k. für Dich anscheinend nicht),
Dass die AMD Karten zu ihren NV Gegenspieler schneller und günstiger sind !
Rockbreak schrieb:
Die 820€ kommen nciht daher weil AMD uns gute P/L geben wollte sondern weil sie die Karten nicht anders losgeworden wären. Danke für die Bestätigung meiner Aussage.
Nicht 820 € sondern 802,99 € (lesen nicht so Deine Stärke ?)
Jene wurde aus dem gleichen Grund so "günstig" angeboten, weshalb NV die 4080 SUPER nur noch für 999 USD/€ verlangt hat. Danke für die Bestätigung meiner Aussage.
 
SweetOhm schrieb:
Der Benchmark Anhang widerlegt Deine Aussage, da dort ganz klar ersichtlich (o.k. für Dich anscheinend nicht),
Dass die AMD Karten zu ihren NV Gegenspieler schneller und günstiger sind !
Absolut nicht, sondern einfach nur dass PCGH im Mittel mehr ältere Spiele oder Spiele ohne Raytracing dort eingebaut hat.

SweetOhm schrieb:
Nicht 820 € sondern 802,99 € (lesen nicht so Deine Stärke ?)
Jene wurde aus dem gleichen Grund so "günstig" angeboten, weshalb NV die 4080 SUPER nur noch für 999 USD/€ verlangt hat. Danke für die Bestätigung meiner Aussage.
Dumme Fanboys bleiben dumme Fanboys, warum verschwende ich bloss meine Zeit immer wieder mit solch sinnlosen Diskussionen. Ignorierliste wächst halt wieder um ein Mitglied. Und ja lesen ist nicht so meine Stärke, kann nicht einmal bis 3 Zählen, gut dass du das erkannt hast, lasse den Text deswegen von meiner Mami schreiben.
 
Rockbreak schrieb:
Dumme Fanboys bleiben dumme Fanboys
Eben kam die Mitteilung, das nur dumme Fanboys dumme Fanboys schreiben dürfen so lange sie im Wald stehen ...
 
  • Gefällt mir
Reaktionen: MaverickM
Video von RedGamingTech über die nächste Radeon Karte nach der diesjährigen RDNA 4.
Er erwähnte in diesem Video, dass zwei Quellen sagten, dass (UDNA 1/RDNA5) wieder nur Midrange sein wird und wieder monolithisch wie RDNA 4.
Ich fände es nicht schlimm. Aber wird sicher wieder viele traurige Gesichter geben wenn man dann immer noch nicht mit 4090 mithalten kann.
 
Nighteye schrieb:
und wieder monolithisch wie RDNA 4.
Da frage Ich mich, ob AMD den Chiplet Ansatz bei den GPU wegen Problemen einstampfen musste und deshalb die kommenden Gens nur als Midrange Karten bringt…
 
Schlechte Nachrichten/Gerüchte bzgl. AMDs RDNA5/UDNA1 und zwar soll es da laut Red Gaming Tech (der sich auf den Leaker Kepler und eine andere Quelle bezieht) nur monolithisch zugehen und der große Chip (wie bei RDNA4) wieder gestrichen werden (oder nur für den professionellen Bereich per Chiplet-Design kommen):


Zu hoffen bleibt, dass sich das Gerücht/Leak bzgl. RDNA5/UDNA1 nicht bewahrheiten wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Chismon schrieb:
Gut möglich, dass es Huynhs Entscheidung war oder die vom AMD Marketingoberfritzen (vermutlich mit Wissen von Huynhs und Su).
Letztendlich ist es die Verantwortung von Jack Huynh. Die Marketing Leute (David McAfee, Frank Azot) unterstehen ihm.

Lisa Su wird sich etwas gedacht haben als sie Jack Huynh auf den Stuhl von Rick Bergman gesetzt hat. Davor war Jack Huynh für das SemiCustom Geschäft verantwortlich.

Ich war zuerst ein bisschen genervt als Jack Huynh mit dem Spruch "Software rückt für AMD ins Zentrum" auftrat. Dann kam ja der große Auftritt auf der Funktausstellung mit der Midrangestrategie, gegen den die Ankündigung von UDNA schier unterging.

Im Zuge der Diskussion um RDNA4 habe ich mir alles noch Mal genau angesehen. Alles was Jack Huynh zu UDNA gesagt hat ergibt Sinn. Ob es Jack Huynh mit der Midrange Strategie ernst meint oder sie nur ein Ablenkungsmanöver war, wissen wir es wenn wir Performance und Preis von RDNA4 kennen.
Chismon schrieb:
Die AMD CES 2025 Präsentation schien ja auch noch einmal kurz vorher ungekrempelt worden zu sein (evt., weil man mehr Details über die nVidia CES 2025 Präsentation vorher noch in Erfahrung bringen konnte?), zumindest hatte ich den Eindruck.
Oder bei irgend jemanden hat der Verstand eingesetzt. Wenn ich nur zwei Dies habe und beim Lauch all in gehen muss, lasse ich meinem Konkurrenten der 5 Dies hat den Vortritt.
Chismon schrieb:
Naja, Marketing und GPU-Marktstarts waren bisher noch nie wirklich AMDs Stärke
Das ist eine Untertreibung.
Was Marketing angeht hat AMD mit Xilinx massiv Expertise ins Haus bekommen.

Bei den GPU-Marktstarts gibt es ein ganz verrücktes Konzept, das Produkt zu releasen wenn es fertig ist. Das Problem ist, dass den vermurksten Marktstart fast alle mitbekommen. Die nachgeschobenen Verbesserungen nur wenige.

Chismon schrieb:
, da kannst Du gerne noch weiter zurück gehen als zu RDNA3 (bspw. zu Fury oder Polaris, selbst RDNA1 mit der Preisanpassung im Nachhinein war da wohl suboptimal).
Gerade RDNA1 habe ich im Kopf. AMD hat die 5700XT und 5700 vorgestellt bevor Nvidia die 2000 Super vorgestellt hat. Scott Herkelman wollte ja mit seinem Jebaited andeuten, dass AMD absichtlich einen höheren Preis genannt hätte, wohlwissend dass Nvidia entsprechend die 2070 Super und 2060 super platziert.


RDNA 3 hat AMD abgesehen von der fehlenden Performance und verschwundenen Effizienz dadurch vermurkst, dass die unbedingt die 999 USD wollten. Deswegen die unpassenden Produktnamen.
Chismon schrieb:
Ja, es sollten wohl 3 Chips werden, aber (Big) Navi 41 wurde wohl zusammen gestrichen (wegen MCM Design mit gemutmasst ähnlichen Schwachstellen noch wie bei RDNA3, die nicht mehr korrigierbar waren).
Ich habe gestern Abend mir Mal die CDNA3/RDNA4 Diskussion auf Anandtech angesehen.

Der Patentantrag US20220320042A1 "Die stacking for modular parallel processors" wurde dort im Januar 2023 als ein Patent zur MI300 interpretiert. Es gibt Unterschiede, es gibt Gemeinsamkeiten.

Alle gingen bis zum August 2023 davon aus dass RDNA4 mit einem GCD kommt, so wie RDNA3.
Die Geschichte mit dem Multi GCD Chip kam erst dann auf, als es darum ging die gecancelten Dies zu erklären.

Und dann machte der Patentantrag US20220320042A1 als Vorlage für das Topmodell Navi 41 die Runde, insbesondere Bild 7:
1737752258479.png

Es gibt eine Konfigurationsdatei aus der hervorgeht dass AMD bis zu 9 Shader Engines für RDNA4 geplant hätte. Das Monster da oben hat 3 Base Dies, 9 Shader Dies, 2 Bridge Dies und einen Multimedia & IO Die.

Als ich mir den Patentantrag im Herbst 2022 angesehen habe, war ich noch im Chiplet Fieber und war hin und weg. AMD hatte bis dahin mehrere Patentanträge mit Active Bridge Dies gestellt.

Im Laufe von 2023 ist mein Chiplet Fieber abgeklungen. Maßgeblich dabei geholfen hat zu überlegen, wie AMD die 4 Active Interposer Dies/IODs der MI300 verbindet. Da ist mir das breite Grinsen bewusst geworden, dass alle AMD Leute sich nicht verkneifen konnten, sobald sie auf Ponte Vecchio oder Sapphire Rapids angesprochen wurden. Als klar wurde dass AMD bei der MI300 im Gegensatzt zur MI250 einen Silizium Interposer verwendet, hat es mich letztendlich nicht mehr überrascht.

Obwohl AMD mehrere Patentanträge mit Active Bridge Dies gestellt hat, bin ich inzwischen sehr skeptisch ob diese jemals umgesetzt werden. Das Monster da oben ist viel zu teuer für eine Gaming GPU.

Rick Bergmann und David Wang haben im März 2023 erklärt, dass AMD keine Grafikkarten für mehr als 1000 USD machen kann außerdem hat David Wang erklärt warum AMD bei RDNA 3 kein Multi-GCD gemacht hat.
...
Herr Bergmann:
Technisch gesehen ist es möglich, eine GPU mit Spezifikationen zu entwickeln, die mit denen von NVIDIA konkurrieren können. Wenn wir jedoch eine GPU mit einer TDP (Thermal Design Power) von 600 W und einem Referenzpreis von $1600 (ca. ¥219.000) auf den Markt bringen würden, würde sie vom durchschnittlichen PC-Gaming-Fan akzeptiert werden? — Wir haben darüber nachgedacht und uns entschieden, eine solche Strategie nicht zu verfolgen.
...
Herr Bergmann:
Wir haben nicht wie unsere Konkurrenten (NVIDIA) in den letzten Jahren eine '1600-Dollar-GPU' für PC-Gaming-Fans geplant. Stattdessen konzentrieren wir uns auf GPUs, die ein ausgewogenes Verhältnis zwischen Leistung und Kosten bieten und in der 1000-Dollar-Klasse liegen.
...
Herr Wang:
Chiplet-Architekturen können verwendet werden, um Hochleistungsprozessoren zu liefern und gleichzeitig die Herstellungskosten zu senken.

Wie Sie wissen, enthalten die heutigen High-End-GPU-Kerne mehr als 10.000 arithmetische Kerne (Gleitkomma-Recheneinheiten). Das ist mehr als das 1.000-fache der Zahl der CPU-Kerne. Würden GPU-Chips miteinander verbunden, wäre die Zahl der Verbindungspunkte so groß, dass eine zuverlässige Übertragung elektrischer Signale nicht gewährleistet werden kann. Daher ist es derzeit nicht nur vom Arbeitsaufwand, sondern auch von den Kosten her schwierig, den GPU-Die auf die gleiche Weise wie den CPU-Die miteinander zu verbinden. Es gibt wahrscheinlich nichts, was nicht machbar wäre, aber .......

Stattdessen ist es derzeit effizienter und kostengünstiger, eine große GPU (Core) zu bauen. Daher haben wir bei der aktuellen Generation (RDNA 3-Architektur) beschlossen, keinen "Multi-GPU-Die" zu realisieren.
...
Herr Wang: Wir planen, die aktuelle Raytracing-Pipeline in absehbarer Zukunft weiter zu verbessern. Beim Update von RDNA 2 auf RDNA 3 konnten wir die Leistung des Raytracing-Prozesses um bis zu 60 % verbessern, indem wir die Hardware-Verarbeitung von Rayflags, die Hardware-BVH-Neuordnung (Bounding Volume Hierarchy) und die Hardware-Verwerfung nicht benötigter Texturen eingeführt haben. Durch die Neuordnung der BVH (Bounding Volume Hierarchy) und den Hardware-Verzicht auf nicht benötigte Texturen konnte die Leistung des Raytracing-Prozesses um bis zu 60 % verbessert werden.

Die RDNA 4-Architektur (vorläufiger Name), die in Zukunft veröffentlicht werden soll, wird die aktuelle Raytracing-Pipeline ebenfalls verbessern, um die "Ausführungseffizienz zu erhöhen" und "ein hochflexibles Verarbeitungssystem zu realisieren". Allerdings werden wir natürlich das Gleichgewicht zwischen den Kosten und der Menge an "dedizierter Hardware" berücksichtigen, die für die funktionale Erweiterung installiert werden muss. Wie wir schon oft gesagt haben, liegt der Schwerpunkt darauf, einen High-End-Grafikprozessor für 999 Dollar verkaufen zu können (lacht).
...
Übersetzung aus dem japanischen mit DeepL, ein bisschen holprig, von mir nachbearbeitet.
Eine GPU wie in US20220320042A1 gezeigt, lässt sich nicht in einer 999 Dollar Grafikkarte realisieren. Alle Phantasien mit 9 Shadereinheiten, 150 oder gar 200 CU sprengen den Rahmen von 999 Dollar.

Falls es so eine HyperSuper-GPU tatsächlich jemals gegeben haben sollte, war sie im März 2023 schon begraben. Bevor Jack Huynh übernommen hat. Und in diesem extrem unwahrscheinlichen Szenario wäre der offensichtliche Grund zum Streichen gewesen, dass AMD angesichts des AI Hypes keine extrem knappen CoWoS Ressourcen für Gaming GPUs verwenden wollte.

Als im letzten Sommer auf CB über RDNA4 und das verschwinden der großen Dies und das auftauchen von Navi 48 diskutiert wurde, habe fand ich einen Fehler in RDNA4 erheblich logischer als diese Multi Die Geschichte. Und wenn es einen Fehler gab, war es für mich naheliegend, dass es mit dem Problem von RDNA3 zusammenhängt.

Aber da wir alle hier den wahren Grund nicht wissen, können wir nur spekulieren.
Weitere plausible Gründe sind IMO:
  • AMD musste Ressourcen für UDNA freischaufeln
  • AMD hat erkannt dass RDNA4 eine höhere AI Performance braucht und hat das Design nochmal angepasst. Die großen Dies verworfen, nur den kleinsten Die umgesetzt und dessen Design verdoppelt.
  • AMD hat erkannt dass RDNA4 eine höhere Raytracing Performance braucht uns hat das Design nochmal angepasst. Die großen Dies verworfen, nur ...
 
  • Gefällt mir
Reaktionen: Baal Netbeck, SweetOhm und Chismon
Nighteye schrieb:
Video von RedGamingTech über die nächste Radeon Karte nach der diesjährigen RDNA 4.
Er erwähnte in diesem Video, dass zwei Quellen sagten, dass (UDNA 1/RDNA5) wieder nur Midrange sein wird und wieder monolithisch wie RDNA 4.
Ich fände es nicht schlimm. Aber wird sicher wieder viele traurige Gesichter geben wenn man dann immer noch nicht mit 4090 mithalten kann.
Woher soll der das denn wissen? Andere behaupten wieder anderes und sagen es ist monolithisch und High End. Es dauert noch lange bis die rauskommen, da sind momentane "leaks" sowieos nicht vertrauenswürdig. Der RedGamingTech Channel sieht für mich so seriös aus wie GamerMeld, der postet auch jeden Tag anderen Rotz und falsches Clickbait dass sich die Balken biegen. Seriösität sehe ich bei diesen kleinen 0815 Tech Channels jedenfalls 0%
 
Chismon schrieb:
Schlechte Nachrichten/Gerüchte bzgl. AMDs RDNA5/UDNA1 und zwar soll es da laut Red Gaming Tech (der sich auf den Leaker Kepler und eine andere Quelle bezieht) nur monolitisch zugehen und der große Chip (wie bei RDNA4) wieder gestrichen werden (oder nur für den professionellen Bereich per Chiplet-Design kommen):
Zu Red Gaming Tech siehe unten.

Kepler geht seit ein paar Monaten mit der Geschichte hausieren, dass AMD die große RDNA 4 Chips gestrichen hätte, weil AMD geglaubt hätte, die 5090 mit beinahe 800 mm² wäre schneller als die große GPU.

Gestern hat Kepler wieder herumgetönt wie bescheuert AMD doch gewesen wäre. Kepler hat keine Ahnung und versteht nicht, dass Nvidia die 4090 bei Games nicht auslasten konnte und auch die 5090 bei Games nicht auslasten kann. Nvidia hat genügend Abnehmer im professionellen und semi professionellen Bereich die GB202 bzw. die 5090 auslasten können. Wieso sollte es AMD gelingen eine Monster-GPU, wie sie angeblich geplant war, bei Games auszulasten? AMD hat aber außer den Gamern keine anderen Abnehmer für solch eine Monster GPU.

Ich weiß nicht warum man Kepler überhaupt noch ernst nimmt. Kepler hat auf einem Discord Channel gehört hat dass ein 96 Kern Turin bei SPECInt 50% schneller wäre als ein 96 Kern Genoa. Da die Turin SKU eine 20 % höhere TDP hat Kepler den Zuwachs auf 40 % ISO Power umgerechnet und dann herumposaunt der Zen 5 Kern hätte bei SPECInt eine IPC Steigerung von 40 %. Beim IPC Tipp hat Kepler allerdings nur auf 30 % getippt.

Chismon schrieb:
Zu hoffen bleibt, dass sich das Gerücht/Leak bzgl. RDNA5/UDNA1 nicht bewahrheiten wird.
Ich nehme das sehr ernst, was David Wang und Rick Bergman in dem Interview in Japan erzählt haben.
Denn es ist die realistische Einschätzung dessen was für AMD möglich ist.

Es wird so schnell keine Gaming Multi GCD GPUs von AMD geben.
Rockbreak schrieb:
Woher soll der das denn wissen? Andere behaupten wieder anderes und sagen es ist monolithisch und High End. Es dauert noch lange bis die rauskommen, da sind momentane "leaks" sowieos nicht vertrauenswürdig.
Zwei Punkte:
  1. Ich habe 2019 einmal ein Video von Red Gaming Tech komplett angeschaut und trauere der verschwendeten Zeit heute noch nach. Hohles Geschwalle.
  2. Es gab Mal Leaks, aber die sind rar geworden. Alles was es heute noch gibt sind Gerüchte oder Funde in Treibern, Konfigs oder Datenbanken. Die Funde in den Treibern sind durch die Umstellung des GPU Treibers drastisch zurückgegangen.
 
  • Gefällt mir
Reaktionen: SweetOhm
ETI1120 schrieb:
Eine GPU wie in US20220320042A1 gezeigt, lässt sich nicht in einer 999 Dollar Grafikkarte realisieren. Alle Phantasien mit 9 Shadereinheiten, 150 oder gar 200 CU sprengen den Rahmen von 999 Dollar.
Das klingt plausibel, wenn man glaubt längerfristig diese bis 999 US$ Strategie bei AMD fahren zu wollen/müssen und mögliche Chips darüber nur für den professionellen (K.I.) Bereich vordergründig hergestellt werden (bei dem die Kaufkraft und Preise/Margen für die Hersteller natürlich um einiges höher sind).

Trotz kleinerer Strukturgrößen in der Fertigung sehe ich - zumindest bei größeren Chip Dies - bisher auch nicht, dass es günstiger wird, da die Fertigungsverfahren immer kostspieliger werden und TSMC nur noch wenige folgen können (in der Annahme, dass Intels 18A (für die hauseigenen Panther Lake Mobil-CPUs und anderes) gelingt und man dann auch noch weiter mithalten kann; bei Samsung ist das ja auch schon länger fragwürdig, auch wenn es Gerüchte gibt, das nVidia als nächstes wieder von TSMC auf Samsung Fertigung umsteigen könnte bei den GeForce Karten).

Wenn man allerdings 2 dGPU-Generationen in Folge bei AMD (was es vorher noch nicht gab) ohne High-End Karten gedenkt auskommen zu können, wird man sich u.U. wohl damit abfinden müssen einige - vorher auch für AMD High End Grafikkarten offene - Kunden damit evt. komplett an nVidia zu verlieren.

Da die UDNA Karten aber auch weniger spezialisiert für Gaming entwickelt sein dürften (ähnlich wie GCN damals vor RDNA), dürfte es ohnehin schwierig sein mit nVidia im High End konkurrieren zu können, auch wenn letztere zunehmend auf Software/K.I. zu setzen scheinen und weniger auf große Leistungszuwächse per weiterentwickelter Fertigung und Grafikkartenarchitektur (wie aktuell an RTX 5000er Blackwell Karten jedenfalls ersichtlich).

Gesünder finde ich so einen Ansatz von AMD aber trotzdem und auch weniger spaltend für die Spielerschaft, was die Leistungsunterschiede und Erschwinglichkeit von Grafikkarten angeht. Das wird die Early Adopter und Hobby-Enthusiasten, die im High-End unterwegs sind und bei RTX 5090 Preisen um 2500 Euro herum (auch weil es von AMD mittelfristig keine Konkurrenz geben dürfte) nicht wirklich glücklicher machen, wenn nVidia da preislich weiter zulegen kann und inwiefern das für die 80er Klasse nVidia Karten gelten wird, muss man abwarten (wo sich dann AMDs Mittelklasse-Chip wird einordnen können, aber ich gehe da eher von maximal 70erTi (unterer Ober-)Klasse Leistungslevel aus).

Momentan sind das ja alles noch Gerüchte, aber vielleicht ist es nicht verkehrt von RDNA5/UDNA1 nicht zu viel sich zu erträumen (bspw. kostengünstiges, gut skalierendes Chipletdesign auch im absoluten High-End/Halo-Bereich), sonst wird man evt. noch ziemlich enttäuscht von AMD sein und das vermutlich auch wegen der eigenen überzogenen Erwartungshaltung, denn letztendlich muss sich das Ganze natürlich auch für AMD rechnen und die eigene Marktpositionierung Sinn machen (auch wenn einige sich die anders erträumen würden).

Schauen wir einfach 'mal, was werden wird, denn bis UDNA2 ist ja noch einige Zeit hin (vorher wird ein Aufrüsten bei mir jedenfalls vermutlich sowieso nichts, auch weil vorher noch kein durch die Bank (60 fps) flüssiges und halbwegs erschwingliches Pathtracing in 4K/UHD bei AMD möglich sein dürfte, und vorher lohnt es sich wohl auch nicht wirklich für mich komplett mit neuer CPU, neuem Board und DDR6 RAM aufzurüsten, aber jede/r hat da evt. andere Prioritäten/Vorstellungen, wann sich ein Aufrüsten wieder lohnen wird).
Ergänzung ()

ETI1120 schrieb:
Nvidia hat genügend Abnehmer im professionellen und semi professionellen Bereich die GB202 bzw. die 5090 auslasten können. Wieso sollte es AMD gelingen eine Monster-GPU, wie sie angeblich geplant war, bei Games auszulasten? AMD hat aber außer den Gamern keine anderen Abnehmer für solch eine Monster GPU.
Zumindest ist das eine ganz schöne Weile her, wenn man sich an die Radeon VII, Frontier Edition oder davor gar die Radeon Pro Duo (mit zwei Fiji Chips) erinnert und bei nVidia kursieren zumindest aktuell noch Gerüchte um eine RTX5000er Titan-Ausgabe für den (semi-)professionellen Markt (da das dort auch wahrscheinlicher ist).

Bei AMD käme das eher "out of nowhere" mittlerweile, auch wenn es vorstellbar wäre, dass man ein semi-professionelle Kartenausgabe mit gleichem Chip wie eine Halo-Spiele-Monster-Karte (die vermutlich die geballte Leistungskraft aber nicht auf die Straße bekommt bzw. im Spiel ausfahren kann) auflegen könnte bei AMD, aber ob sich so etwas wirklich rechnen würde für AMD?

Letzteres ist dann doch eher zu bezweifeln und am Ende bliebe dann maximal ein wenig Prestige übrig, von dem man sich nichts kaufen können dürfte.

Vielleicht werden wir ja noch überrascht, aber evt. geht die Reise in eine andere Richtung (auch wenn man sich den absoluten Verbrauch einer RTX 5090 jetzt schon anschaut, der die Karte zumindest für mich komplett disqualifiziert, auch wenn man per Undervolting die Karte noch unter 500W prügeln kann), siehe Software/K.I-Ausrichtung oder ausgefeiltere Stapel-/3D-Fertigung.

Manchmal ist weniger (oder effizienter) eben mehr, insbesondere, wenn man zunehmend an die technischen Grenzen stösst und nur noch die Brechstange bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Chismon schrieb:
Das klingt plausibel, wenn man glaubt längerfristig diese bis 999 US$ Strategie bei AMD fahren zu wollen/müssen und mögliche Chips darüber nur für den professionellen (K.I.) Bereich vordergründig hergestellt werden (bei dem die Kaufkraft und Preise/Margen für die Hersteller natürlich um einiges höher sind).
Wir haben Inflation und somit könnten die 999 USD mit der Zeit steigen.
Chismon schrieb:
Trotz kleinerer Strukturgrößen in der Fertigung sehe ich
Es wird praktisch kaum noch kleineren Strukturgrößen geben. 3 nm, 2 nm und A16 verwenden AFAIU denselben Metal Pitch. Deshalb benötigt TSMC kein High-NA EVU. Erst bei A14 wird TSMC den Metal Pitch wieder verkleinern. Die Zeiten größerer Schritte sind vorbei. Die Dichtesteigerung kommt AFAIU von neuen Transistorarchitekturen.

Chismon schrieb:
- zumindest bei größeren Chip Dies - bisher auch nicht, dass es günstiger wird,
Ohne Beiträge vom Advanced Packaging wird es nicht gehen. Hier muss Hybrid Bonding billiger werden und die Silizium Interposer müssen durch Glas Interposer ersetzt werden.
Chismon schrieb:
da die Fertzigungsverfahren immer kostspieliger werden und TSMC nur noch wenige folgen können
Neben dem Beherrschen der Prozesse ist das Problem vor allem dass außer den Halbleiterspeicherhersteller niemand das Wafervolumen von TSMC hat.
Chismon schrieb:
(in der Annahme, dass Intels 18A (für die hauseigenen Panther Lake Mobil-CPUs und anderes) gelingt und man dann auch noch weiter mithalten kann;
Schauen wir Mal was 18A tatsächlich für Parameter bieten kann. 18A soll bei der Performance vorne sein aber bei Power und Dichte hinten liegen.

Es wird sich zeigen ob Intel sich eine eigene Chipfertigung noch leisten kann. Es war fatal dass Bob Swan auf das Ende der Halbleiterfertigung hingearbeitet hat und dann das Board kalte Füße bekam und doch Pat Gelsinger geholt hat um doch die Halbleiterfertigung zu retten.

Aktuell hat Intel das riesige Problem, dass die eigene Halbleiterfertigung nicht ausgelastet ist und wegen der Verträge die Bob Swan mit TSMC angeschlossen hat, sehr viel bei TSMC fertigen lässt. Dadurch fließt sehr viel Geld zu TSMC. Die Zahlen am nächsten Donnertag werden sehr interessant.
Chismon schrieb:
Samsung steht bei den Logik-Prozessen erheblich schlechter als Intel da. Auf welchem Node will Nvidia bei TSMC fertigen lassen? Nicht Mal den Exynos 2500 hat Samsung fertigen können und lässt nun alle Galaxy 25 von Qulacomm ausstatten.

Auch das Speichergeschäft von Samsung läuft nicht rund. Da ist es schon ein Lichtblick dass AMD in der MI300 HBM von Samsung verbaut.
Chismon schrieb:
Wenn man allerdings 2 dGPU-Generation in Folge bei AMD (was es vorher noch nicht gab) ohne High-End Karten gedenkt auskommen zu können, wird man sich u.U. wohl damit abfinden müssen einige - vorher auch für AMD High End Grafikkarten offene - Kunden damit evt. komplett an nVidia zu verlieren.
Jetzt ist die Frage was ist High End? Die Navi 48 ist kein Die für eine 1000 USD Grafikkarte. Navi 48 ist ein etwas größer als Navi32 und die ging mit einem MRSP von 499 USD an den Start.
Chismon schrieb:
Da die UDNA Karten aber auch weniger spezialisiert für Gaming entwickelt sein dürften (ähnlich wie GCN damals vor RDNA)
Diesen Eindruck hat AMD gerne erweckt. AFAIU besteht der Hauptunterschied zwischen GCN und RDNA dass GCN 64 work-items (threads) in einer wavefront zusammen fasst und RDNA 32 work-items in einer wavefront zusammenfasst. Eine Wavefront wird jeweils in einem Durchgang abgearbeitet. Wenn man nicht genügend Threads zusammenbekommt um die Wavefront komplett zu füllen (RDNA 32/CDNA64) wird die Hardware nicht voll ausgelastet. Das war das Problem mit GCN bei Games.

Es ist allerdings nicht gesagt, dass eine Wavefront mit 32 work-items für HPC und AI schlechter als eine mit 64 ist. Nvidia arbeitet generell mit 32 Threads.

Der zweite Unterschied ist, dass RDNA keine Matrixkerne hat. Bei RDNA3 wurde die Matrixberechnung über die Shader optimiert. Aber es war zu wenig. Lassen wir uns überraschen wie AMD die AI-Leistung drastisch steigern konnte
Chismon schrieb:
Das wird die Early Adopter und Hobby-Enthusiasten, die im High End unterwegs sind und bei RTX 5090 Preisen um 2500 Euro herum nicht wirklich glücklicher machen, wenn nVidia da preislich weiter zulegen kann
Und, die würden so oder so nie eine AMD-Grafikkarten kaufen.

Die 5090 war für alle die in ihr eine Gaming Karte sehen keine Offenbarung. Aber für Rendern, HPC und AI dürfte es deutlich anders aussehen.

Eine Karte der 5090-Klasse ist nur dann finanzierbar, wenn sie auch professionell und semiprofessionell eingesetzt wird. Nur mit Gamern und Gameentwickler geht es nicht.
Chismon schrieb:
Momentan sind das ja alles noch Gerüchte, aber vielleicht ist es nicht verkehrt von RDNA5/UDNA1 nicht zu viel sich zu erträumen (kostengünstiges, gut skalierendes Chipletdesign auch im absoluten High-End/Halo-Bereich), sonst wird man
Schau dir bitte nochmal das Zitat von David Wang an. Es wird auf absehbare Zeit kein kostengünstiges Chipletdesign für GPUs geben. Eine GPU in viele Chiplets aufzuspalten funktioniert nur mit Silizium Interposer. Bei zwei Chiplets kann ich mir noch eine Siliziumbrücke vorstellen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Zurück
Oben