News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht

@Marflowah Keine Ahnung wo es jetzt nen Unterschied machen würde dass die Karte 8070(XT) oder 9070(XT) heißen würde. Kommt ans Ende aufs gleiche Hinaus: Jahrelang wurden die Modelle an der 100er-Stelle unterschieden (ggfs. mit ner 50 oder nem XT/XTX), und nun kopiert AMD nun offenbar das Namensschema von NVidia, welches seit GTX200 verwendet wird (und damit insgesamt drei AMD-Namensschemen überlebt hat).

Ergibt keinen Sinn - außer die Unterscheidbarkeit für unbedarftere Käufer zu erschweren.

Keine Ahnung, wo da ein BadMove meinerseits liegen soll. 🤷‍♂️
 
Nighteye schrieb:
Ich verstehe dich. Doch leider ist es nur eine Minderheit die Radeons kauft laut Steam.
Das habe ich nie bestritten, die Verteilung des Marktes ist ganz klar.
Nighteye schrieb:
Wie du bei Steam siehst, die Masse viel mehr Geld für eine teurere Geforce ausgegeben
Die 3090(ti) ist hier auch ähnlich schwach wie z.B. die 7900XT vertreten, es ist klar, wer HighEnd will, kauft seit zwei Jahren i.d.R. keine Radeon, da es schlicht keine gibt.

Es fokussiert sich halt alles was >1500€ für ne GPU ausgeben kann und will auf die 4090.
Wie viele davon in BTO-Systemen stecken, die von armen Schluckern finanziert werden, will ich an dieser Stelle gar nicht wissen, aber es werden wohl einige sein.

Die häufigsten Nvidias sind eben auch "günstige" deren überproportionale Menge aber aus einem nicht unerheblichen Teil an OEM-Systemen kommt.

Deine Aussage "arm=AMD" lässt sich auch so nicht belegen, die Korrelation dazu existiert nur in deiner Welt und findet außerhalb keine Indikation.
 
The1whoknocks schrieb:
Die häufigsten Nvidias sind eben auch "günstige" deren überproportionale Menge aber aus einem nicht unerheblichen Teil an OEM-Systemen kommt.
Das sollte man eben nicht vergessen. Der DIY PC Markt ist sicherlich kleiner als 10%. Der Kauf einer Nvidia GPU ist daher für die allermeisten Leute keine bewusste Entscheidung. Die günstigen Fertigsysteme der großen Anbieter wie Lenovo, Dell, HP oder Acer sind praktisch ausschließlich mit Nvidia GPUs bestückt. Das ist der Hauptgrund, warum die Nvidia 60er GPUs derart stark im Steam Survey vertreten sind.
 
  • Gefällt mir
Reaktionen: Rockstar85, Czk666, DerToerke und eine weitere Person
The1whoknocks schrieb:
Die 3090(ti) ist hier auch ähnlich schwach wie z.B. die 7900XT vertreten, es ist klar, wer HighEnd will, kauft seit zwei Jahren i.d.R. keine Radeon
Da die 3090ti viel teurer war, und sogar eine Generation älter ist und beim Corona & Mining Wahnsinn auch für über 3600€ verkauft wurde ist es kein wunder.
1735126035997.png



RX7900XTX zur gleichen Zeit.
1735126107659.png


Es ist also eher kein Wunder dass die RTX 3090ti wenig verkauft wurde.
Vor allem da sie langsamer als eine RX6800XT in einigen Spielen (ohne Raytracing) war.
400€ Radeon vs 2000€ Geforce (2020).jpg

400€ Radeon vs 2000€ Geforce Part 2.jpg

Und hey, die RTX 3090 ohne ti wurde immerhin trotz ihrer Schlechten Leistung und trotz ihres Preises von 1600-2000€ öfter Verkauft als jede Radeon der RX7000 Familie.
1735126581391.png
 
Der GraKa-Markt ist ein Duopol (vergesst Intel mit den paar Promill...), wo ein Anbieter A (NVIDIA) 90 % Marktanteil besitzt. Dieser Anbieter hat eine sehr hohe Marktmacht.
ES IST KEIN POLYPOL-Markt bei dem sich ein einzelner Anbieter durch Preissenkung die (bisherigen) Marktanteile anderer Anbieter so einfach nehmen könnte. (Beim Polypol können sich die vielen Anbieter nicht direkt oder indirekt "absprechen". Da bildet sich ein für den Abnehmer vorteilhaft niedriger Gleichgewichtspreis aus.)

Ein Duopol neigt zu Parallelverhalten (Kollusion) der Anbieter zueinander, sodass beide für sich jeweils max. Gewinn machen. Der Anbieter A mit 90% Marktanteil kann dem anderen Teilnehmer "indirekt" das Preisniveau diktieren.

Warum?

Hebt der mit 10% Marktanteil (Anbieter B) den Preis über das Niveau an -> findet er gar keine Abnehmer mehr, 100 % Marktanteil für A, Anbieter B verschwindet aus Markt...

Senkt B sein Preisniveau deutlich unter das von A (z. B. 9070 XT für 450 € inkl. MwSt.) -> Parallelverhalten von A, d. h. A senkt seine Preise temporär ebenso stark wie B ab um seine Marktstellung zu behalten. Resultat: Marktanteile bleiben gleich bei 90% A : 10% B, aber B gerät durch die geringeren Margen pro Stück viel stärker als A unter betriebswirtschaftlichen Kostendruck, neigt eher zur Insolvenz als A. B muss ja auch technologisch langfristig halbwegs mit A schritt halten, dafür braucht es Investitionen in einer ähnlichen Größenordnung wie bei A, ohne (mindestens bescheidene Gewinne) ist das nicht möglich. A kann dieses Preisniveau somit VIEL länger als B durchhalten. Langfristig scheidet B so auch aus dem Markt aus.

--------------
AMD kann also gar nicht anders als "das Spiel mit NVIDIA mitzuspielen" und sich weiterhin preislich minimal unter NVIDIA einzufinden (wegen fehlendem DLSS usw.). Nicht schön, aber so ist es eben.
 
  • Gefällt mir
Reaktionen: DF86 und Sun-Berg
fortknox schrieb:
AMD kann also gar nicht anders als "das Spiel mit NVIDIA mitzuspielen" und sich weiterhin preislich minimal unter NVIDIA einzufinden (wegen fehlendem DLSS usw.). Nicht schön, aber so ist es eben.
AMD hat auch einfach nicht die Möglichkeit Nvidia noch deutlicher im Preis zu unterbieten, weil sie die hohen Entwicklungskosten lediglich auf ein Zehntel der Stückzahl umlegen können. Das ist auch der Grund warum sie nicht mehr im High-End mit Nvidia konkurrieren. Sie können sich das Auflegen des großen Chips bei den geringen zu erwartenden Verkaufszahlen einfach nicht leisten.
Wenn z.B. das Auflegen eines großen Chips etwa 500 Millionen Dollar kostet, dann wären das bei 2 Millionen verkauften Grafikkarten 250$ pro Karte, aber bei 20 Millionen lediglich 25$.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Nighteye und fortknox
Nolag schrieb:
AMD hat auch einfach nicht die Möglichkeit Nvidia noch deutlicher im Preis zu unterbieten
Kamen gerade eben neue Leaks zu den Preisen raus.
Die Radeon RX 9070 soll sich demnach preislich an der Radeon RX 7800 XT orientieren, während sich die Radeon RX 9070 XT zwischen der RX 7900 XT und der RX 7900 GRE einordnen wird.
---
1735129021203.png

Also mit 500€ wie hier von vielen gewünscht wird dass wohl nichts.
Eher 650+
Damit ist sie für mich als RX6800 Besitzer viel zu schlecht vom P/L.
RX6800 gabs zwischen 329€ (Mindstar) und 369€ bevor sie vom Markt verschwanden.
1735129440004.png

Und die ist schneller als eine 7700XT in vielen Spielen wo 12GB nicht mehr reichen oder wo man vom deutlich größeren Infinity Cache von RDNA 2 Profitiert.
RDNA 2 VS RDNA 3.jpg

RDNA 4 ist überteuerte Ware wenn diese Leaks von 650€ sich bewahrheiten. Wird niemals reichen um 10% auf Steam zu bekommen.
 
Zuletzt bearbeitet:
iGameKudan schrieb:
Ergibt keinen Sinn - außer die Unterscheidbarkeit für unbedarftere Käufer zu erschweren.

Keine Ahnung, wo da ein BadMove meinerseits liegen soll. 🤷‍♂️
Unabhängig davon, wo die Karte am Ende mit seiner Performance landet, wird es mehr um die Vergleichbarkeit gehen. Beim vielen ,einfachen‘ Käufer hat sich das Namensschema von NV eingebrannt. Wenn dieser nun eine 5070 kaufen will, entdeckt er bei AMD die 9070.
Falls AMD hier aber in der Vergleichbarkeit zu sehr mogelt, schneiden sie sich sowieso ins eigene Fleisch, weil der Kunde auf Dauer denken kann, die AMD sind in Relation immer schlechter.

Ich habe meine 5700 z.b einem Kumpel geschenkt, nachdem ich mir eine 6800 gekauft habe. Und diesen musste ich erklären dass diese vergleichsweise so schnell ist wie eine 3060. Seine Referenz war damals die 3090Ti, weil er damals die Einführung der neuen NV Grafikkarte mitbekommen hatte.
Was man bei NV nicht außer acht lassen darf, ist das starke Marketing. Speziell durch den CEO.
AMD konnte sich erst mit Lisa Su bezüglich Marketing aufholen, speziell was CPUs angeht.

Kann wer hier eigentlich abschätzen wo eine 5070 und 5060Ti von der Performance her landen wird?
Habe gerade wenig lust mir Daten anzusehen :D
Von naming her erwarte ich die 9070 XT dann in der nähe der 5070 und erklärt auch, wieso NV die Ti schon so frühzeitig bringt. Beide Firmen wissen sowieso oft was die Konkurrenz ca auf den Markt bringen kann.
Klar reine Spekulation.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Kamen gerade eben neue Leaks zu den Preisen raus.
Die Radeon RX 9070 soll sich demnach preislich an der Radeon RX 7800 XT orientieren, während sich die Radeon RX 9070 XT zwischen der RX 7900 XT und der RX 7900 GRE einordnen wird.
Genau deshalb werden die Gebrauchtpreise der RX 7900 GRE auch kaum durch den Release der RX 9070 (XT) unter 500 € fallen können....
 
So die Spezifikationen der 5070 scheinen sich zu bestätigen.
Auf den ersten Blick scheint sich nicht viel verglichen mit der 4070 geändert zu haben.

4% mehr Cuda cores 6144/5888=1.04
Gleicher TSMC 4nm Prozess?
Gleiches Speicherinterface mit 192-bit mit 12GB

Die einzigen Sachen die einem ins Auge springen sind die 250W vs. 200W
und die deutlich höhere Bandbreite (+33%) die durch GDDR7 28Gbps (672GBs) vs. GDDR6X 21Gbps (504GBs) erreicht wird.

Hängt die RTX 4070 denn wirklich so extrem an der Bandbreite?
Darüber scheint es widersprüchliche Aussagen im Netz zu geben.
Hat da mal einer ein OC Bench zur Hand. (bitte nicht syntetisch, Games werden bevorzugt)

1735125183810.png
1735125595378.png
 
  • Gefällt mir
Reaktionen: Rockstar85 und DF86
ElliotAlderson schrieb:
Ich kann dir sagen warum: Kein FSR, kein FG und richtig miese RT Leistung.
FSR haben sie, FG ist selbst eine 4090 Nativ noch zu langsam eine 5090 könnte die erste werden mit der es nativ nutzbar wird. die miese RT Leistung reicht aber in aktuellen Games aus um die Speicherkrüppel der UHD Gen. 2020 in WQHD su toppen
Darkwater schrieb:
NVIDIA hat besseres Upscaling
stimmt, ist aber nur software die weil so gewollt eben nur auf Nvidia geht.
Darkwater schrieb:
müssen ihre Karten ein deutlich besseres Preis-Leistungsverhältnis haben und zwar mittlerweile im Bereich RT-FPS/€.
das hat eine 7700/7800xt auch heute schon gegenüber einer 4060ti, die chance das es diesemal auch gegen die 5070 steigt ist noch da, in Raster wird AMD wie gehabt eh besser bleiben.
https://www.computerbase.de/artikel...tt_preisleistungsverhaeltnis_der_grafikkarten
Darkwater schrieb:
Wenn die 5060TI nicht wieder nen Rohrkrepierer ist wird die beim RT nicht wahnsinnig viel schlechter sein als eine 7900XTX aber vermutlich nicht um die 600€ Kosten und die 5070TI wird zwar vermutlich deutlich teurer sein aber eben auch deutlich mehr Leistung bieten.
Der Rohkreppierer den AMD auch angeht ist die 5070, die 5060ti wird % mehr zulegen auf 4060ti.
eine 5070 wird % verglichen mit der 4070S aber weniger zulegen und die GRE und 4070S liegen heute schon nur 10% im Raster und 22% in RT auseinander
https://www.computerbase.de/artikel...rformancerating_mit_und_ohne_rt_in_2560__1440
Darkwater schrieb:
Zu dem Preis ist die Lücke für die 9070XT dann ziemlich knapp weil eine 5060TI wenn sie an die RT-Leistung einer 4070S herankommt
dann kaufe ich die auch :) wird aber nicht passieren die 4070S hat 20CU mehr sowie 192/128SI und Bandbreiten Vorteil das eine 5060ti da dran kommt bleibt Wunchdenken

für mich realistich ist
5070-12GB Raster Leistung der 4070S und im RT dann die Leistung der 4070ti-S wirkliche Leistungsvorteile gibt es nur wenn FG genutzt wird. Preis $699 oder mehr
RX9070-16GB Raster und RT Leistung der 4070S. Preis $499 oder weniger
 
Wenn sich all das so bewahrheiten sollte, dann werd ich wohl doch meine 6800XT gegen die 7900XT(X?) austauschen...Nvidia unterstütze ich seit Jahren nicht mehr!
 
  • Gefällt mir
Reaktionen: Alexander 65
ArrakisSand schrieb:
Derselbe Leaker hat nun auch einen Port-Royal-Score von 14723 gepostet.

Mit diesem Score würde man sich genau in der Mitte zwischen einer 4070Ti und 4070Ti super positionieren, bzw. genau auf dem Level einer 3090ti landen und damit sogar deutlich vor einer 7900XT liegen.

Anhang anzeigen 1560505
Also desto mehr RT, desto mehr Performancevorteil? Hypothetisch, könnte man noch RT lastigeren Titeln dann sogar ne 7900XTX schlagen. Bspw. CP2077 oder Alan Wake 2 bspw.

Abwarten.
 
Nolag schrieb:
Sie können sich das Auflegen des großen Chips bei den geringen zu erwartenden Verkaufszahlen einfach nicht leisten.
Firmen können auch mit einem Markt wo sie viel verdienen einen 2. Markt subventionieren, sowohl von den PS5 GPU Verkäufen als auch einfach von CPUs, Es wäre kein Problem für AMD pro Karte ein bisschen was oben drauf zu blechen... wenn man das 1-2 gens macht hat man auch diese geringen Verkaufszahlenproblematik nimmer.
 
blackiwid schrieb:
Es wäre kein Problem für AMD pro Karte ein bisschen was oben drauf zu blechen... wenn man das 1-2 gens macht hat man auch diese geringen Verkaufszahlenproblematik nimmer.
Das Problem ist, dass man mit jedem Node den Markanteil verdoppeln müsste, weil sich aktuell die Kosten mit jedem Node verdoppeln. Man könnte das machen, wenn es die Perspektive gäbe, dass die Kosten konstant blieben.
 
  • Gefällt mir
Reaktionen: Rockstar85
Lonex88 schrieb:
Wenn sich all das so bewahrheiten sollte, dann werd ich wohl doch meine 6800XT gegen die 7900XT(X?) austauschen...Nvidia unterstütze ich seit Jahren nicht mehr!
Ich habe zur Zeit die RX 7900 XTX und bin damit völlig zufrieden .
Etwas besseres neues ist z.Z. nicht auf dem Markt, außer ner RTX 4090 für 2.000€!
Die Neuen scheinen auch nicht viel reizvoller zu sein,
da sie keine 24 GB RAM haben!
Und dass ist mir beim MS Flight Simulator 2024 wichtig.🚨
 
  • Gefällt mir
Reaktionen: Wanderwisser, Mr.House und Lonex88
pipip schrieb:
Will jetzt nicht andeuten, dass danach alles besser wird, aber AMD hat bei Bulldozer dasselbe gemacht.
Danke, auf das wollte ich raus. Es wird aber keine Grafikvariante der Zen-Geschichte. Nvidia ist eine ganz andere Kategorie als Intel in den 2010er Jahren.

Release Date Bulldozer 12. Oktober 2011.
Mark Papermaster hat im Oktober 2011 und Lisa Su im Januar 2011 bei AMD angefangen.

pipip schrieb:
Es hieß damals auch, AMD hat den High End Markt bei CPUs aufgegeben.
Rory Read hat den Verzicht aufs High End verkündet, während Mark Papermaster und Lisa Su angefangen haben, das Come Back von AMD zu planen. Am 1. August 2012 ist Jim Keller gekommen und im April 2013 Raja Koduri. 2013 hat die Arbeit eigentliche Arbeit an Zen begonnen.

Ich hatte mich in einem meiner ersten Posts hier abfällig über Rory Read geäußert und bekam eine gepfefferte Antwort. Dann habe ich mich hingesetzt und mir Mal die Abläufe angesehen. Mir ist schnell klar geworden, dass ich Rory Read unrecht getan hatte. Er ist im Juli 2011 gekommen und hat den Scherbenhaufen den Hector Ruiz und Dirk Meyer angerichtet haben aufgeräumt. Er ist gegangen als er AMD nicht mehr weiterhelfen konnte und hat an Lisa Su übergeben. AMD brauchte nun einen CEO mit technischem Hintergrund, der den Investoren glaubhaft die Perspektive von Zen vermitteln konnte.
pipip schrieb:
AMD könnte nie wieder aufholen usw.
2015 zu der Zeit an der AMD haarscharf an der Insolenvenz vorbeigeschlittert ist, erschien eine Analyse, dass AMD langfristig keine Chance zum überleben hätte. Sie war sehr gut und schlüssig. Kern ist, dass wer nur aufholen will dauerhaft hinterherläuft. Und in einem Geschäft in dem der Sieger den gesamten Gewinn und der zweite bestenfalls ein paar Brotkrumen abgekommt, für das zum dahinsiechen und unweigerlich in die Insolvenz.

2012 waren Lisa Su und Mark Papermaster AFAIU zum selben Schluss gekommen. Wenn AMD weiter versucht aufzuholen, geht AMD zugrunde. Also haben sie beschlossen zu überholen. AMD hat die Roadmap für eine neue High End Architektur entwickelt. Mit dem Ziel Intel im Servermarkt zu überholen.

pipip schrieb:
Ich weiß noch nicht was ich von UDNA halten soll. Fand es eigentlich gut, dass Gaming eine eigene Architektur bekommen hat.
Ich fand es sehr gut, dass AMD mit RDNA endlich die Hardwareleistung auf die Straße bekommen konnte. AFAIU war die Umstellung von Wave 64 auf Wave 32 der Schlüssel die Hardware besser auszulasten. Außerdem spart RDNA Die Fläche, weil RDNA keine dezitierte Hardware für Matrixoperationen hat. Bei diesem Punkt ist es absehbar, dass dies AMD auf die Füße fällt.

Es würde mich schon interessieren ob CDNA mit Wave 32 nicht auch besser fahren würde. Nvidia hat AFAIU auch Wave 32 (Wave hat bei CUDA einen anderen Namen).

Prinzipiell war das Trennen so eine Entscheidung, die auf dem ersten Blick logisch und folgerichtig erscheint. Die sich jedoch, sobald man alle Konsequenzen erkannt hat, als falsch herausstellt.

Jack Huynh bei TH:
Wir haben es geforkt, weil man dann die Sub-Optimierungen und die Mikro-Optimierungen bekommt, aber dann ist es sehr schwierig für diese Entwickler, vor allem, weil wir unser Rechenzentrumsgeschäft ausbauen, also müssen wir es jetzt vereinheitlichen.

Die Trennung von RDNA und CDNA bedeutet: AMD hat beschlossen zwei inkompatible GPU-Architekturen zu entwickeln. Das hat es in den ersten Schritten ermöglicht, ein paar domainspezifische Optimierungen zu machen. Doch nachdem diese domainspezifische Optimierungen implementiert sind, geht es nicht weiter. Alle weiteren Performancesteigerungen betreffen beide Architekturen und müssen nun doppelt implementiert werden. Dies betrifft auch den Softwarestack der zwei inkompatible Architekturen abdecken muss.

Deshalb war AMD nicht in der Lage ROCm für RDNA bereitzustellen. Viele Leute im AI und HPC umfeld beklagen diese Folge der Inkompatibilität. Denn damit ist es nicht möglich Software auf dem PC zu entwickeln und zu testen und dann auf den Servern auszurollen. Bei Nvidia geht das Problemlos.

Dass der Wechsel auf domainspezifischen Architekturen spätestens nach zwei oder drei Generationen keinen weiteren Vorteil bringt und sich dann die Nachteile bemerkbar machen ist ein allgemeines Phänomen. Da sich die Entwicklung der Transtordichte verlangsamt, hieß es, dass nun domainspezifische Archtekturen eine Chance hätten.

Raja Koduri hat erwähnt, dass jedes Jahr die Effizenz des GPU-Softwarestacks, um den Faktor 3 gesteigert wird (bezogen auf dieselbe Hardware). Das ist einer der Gründe warum so gut wie alle Start ups mit toller AI optimierte Hardware gegen die Wand laufen und AFAIU warum Intel Gaudi aufgibt.

pipip schrieb:
Der Treiberaufwand soll aber für AMD zurzeit zu groß gewesen sein.
Der Aufwand für die Treiber ist eine Folge dessen, dass die GPU Generationen nicht kompatibel sind.

Jack Huynh bei TH
JH: Also, eines der Dinge, die wir tun wollen, ist ... wir haben einige Fehler mit der RDNA-Seite gemacht; jedes Mal, wenn wir die Speicherhierarchie, das Subsystem, ändern, muss die Matrix der Optimierungen zurückgesetzt werden. Das will ich nicht. Wir denken also nicht nur an RDNA 5, RDNA 6, RDNA 7, sondern auch an UDNA 6 und UDNA 7. Wir planen die nächsten drei Generationen, denn sobald wir die Optimierungen haben, will ich nicht die Speicherhierarchie ändern müssen, und dann verlieren wir eine Menge Optimierungen. Wir erzwingen also gewissermaßen das Problem der vollständigen Vorwärts- und Abwärtskompatibilität. Wir machen das heute auf der Xbox; es ist sehr machbar, erfordert aber eine fortgeschrittene Planung. Es ist viel mehr Arbeit, aber das ist die Richtung, in die wir gehen.

Für den Softwarestack und die Treiber bedeutet die Inkompatibilität zwischen den Generationen, dass für jede Generation jede Menge Software angepasst werden muss. Für AMD bedeutet es im Klartext, sie haben nicht nur einen Rückstand im Softwarestack auf Nvidia, sie haben auch viel mehr Aufwand um den Softwarestack an die neuen Generationen anzupassen.

Raja Koduri hat im Juli eine Vortrag über die Performance von GPUs gehalten. Auf Twitter hat er eine Zusammenfassung gepostet. U. a. schreibt er:
Ein weiterer Aspekt von CUDA, der nicht allgemein geschätzt wird. Das CUDA Programmiermodell ist eine echte Abstraktion des NVIDIA GPU HW-Ausführungsmodells. Die Hardware und die Software werden gemeinsam entwickelt und sind an der Hüfte verbunden.
Deshalb sind die Nvidia GPUs über mehrere Generationen hinweg kompatibel. Deshalb hat CUDA eine so gute Performance. Und deshalb haben alle Probleme CUDA kompatibel zu sein. Wenn die Hardware nicht passt wird es ineffizient.


Unter CDNA und RDNA wieder zusammenführen kann man sich viel vorstellen. Die Punkte die Jack Huynh bei TH erwähnt hat, betreffen Haar genau den Schwachpunkt der aktuellen GPU Architekturen von AMD. Ich hoffe AMD macht dieses Mal das richtige und entwirft eine Architektur, die die nächsten 15 bis 20 Jahre skaliert.

Auf der Softwareseite war HIP eine gute Idee. Da HIP an CUDA anzulehnen, das Protieren von Software einfacher macht und es für die Programmierer vertrauter ist. Allerdings bedeutet es Nvidia hinterherzulaufen. Wer nur hinterherläuft kann nie überholen.

Ohne dass AMD bei der Software eine Lösung präsentiert die CUDA obsolet macht, wird es sehr schwer. In seinem Vortrag hat Raja Koduri einen Weg angerissen wie CUDA abgelöst werden kann.

Eine Randbemerkung zu Rala Koduri:​

Raja Koduri ist Software Entwickler. Er hat nie Hardware entwickelt. Erst als er aufgestiegen ist, bekam er auch die Verantwortung für die Hardwareentwicklung.

Noch eine Randbemerkung:​

So wie ich Lisa Su einschätze war sie über RDNA3 "not amused". Ganz besonders dürfte ihr die Vorstellung von Navi 31 missfallen haben. Alles was sie präsentierte, wurde bei den unabhängigen Tests als Schönfärberei entlarvt.*)

Aber es ging ja scheinbar alles wie gewohnt weiter. Es gab nur Meldungen zu Umstrukturierung bei der RTG in China. Gestern bei einem Spaziergang ist mir bewusst geworden, dass es bei AMD nicht wie gewohnt weiterging.

AMD hat am 4 April 2023 Jack Huynh zum Senior Vice President und General Manager der Computing und Graphics Group eingesetzt. AMD hat erklärt dass sein Vorgänger Rick Bergman noch bis Ende des 2 Quartals bleibt und dann in den Ruhestand geht. Rick Bergman war damals 60 und ist heute CEO Kymeta.

Im September 2023 hat Scott Herkelman der damalige General Manager der Graphic Business Unit verkündet, dass er AMD im Dezember 2023 verlässt. Ich habe nichts dazu gefunden wer seinen Posten übernommen hat. Ich denke das werden wir am 6. Januar erfahren. Scott Herkelman ging nicht zu Intel, wie einige gemunkelt haben.

Die beiden Manager, die für die Markteinführung von Navi 31 verantwortlich waren, waren 1 Jahr später nicht mehr bei AMD. Zufall? Oder ohne große Nebengeräusche entfernt?

---
*) Auf dem Architecture Day zu Zen 5 hat AMD Performance Zahlen präsentiert, die in den unabhängigen Tests nicht bestätigt wurden. AMD hat in Folge einiges getan um diese Abweichungen klären bzw. zu beheben.

pipip schrieb:
Eine 9070 RX auf 7900XT Performance mit RT einer 4080 und bei etwas niedrigeren Verbrauch wäre ein Mittelklasse-Hit gewesen.
Warten wir doch in Ruhe ab was die Tests ergeben. Es zählt so oder so einzig und alleine was Nvidia mit der RTX5000 auffährt.

Darkwater schrieb:
Bingo, die Karte wäre damit nicht schlecht aber deutlich zu teuer - die müsset unter 500€ kosten um sich so gut zu verkaufen...
Die 9070XT ist wie es der Name suggeriert Nachfolger der 7700XT. AMD hatte die 7700XT für 449 USD bzw 489 € auf den Markt gebracht. Ich bin Mal so und werte dies als ein Fingerzeig.

AMD hat die unsinnigen Bezeichnungen 7900XTX, 7900XT und 7900GRE nur wegen der angepeilten Preispunkte gewählt. AMD wollte dem Vorwurf der Preistreiberei aus dem Weg gehen und hat statt dessen die Bezeichnungen des RDNA 3 Line ups vermurkst. Als Folge gab es Gelästere wegen des geringen Zuwachs zwischen den Generationen.

Darkwater schrieb:
Eben nicht, da wird von einem ähnlichen preis wie der 7900GRE ausgegangen und das ist eben deutlich zu teuer.
Wer geht denn von so etwas aus?

Also Du glaubst AMD wählt die Bezeichnung 9070XT und provoziert mit voller Absicht einen Shitstorm weil sie die Preise um 200 USD gegenüber der 7700XT angehoben haben.
Ergänzung ()

Nighteye schrieb:
@WinstonSmith101
@riOrizOr
Die meisten % Verbreitung auf Steam haben halt noch diese 199€ Polaris Karten unter Radeons.
Sollte garnicht abwertend gemeint sein.
Ein einfaches "Bitte entschuldigt, ich habe mich in meiner Wortwahl vergriffen" hatte es auch getan.

Aber nun machst Du dich einfach nur lächerlich weil Du einfach nicht kapieren willst, dass es viele Gamer gibt denen es in erster Linie ums Gameplay geht und erst in zweiter oder gar dritter Linie um die Grafik.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, H1ldegunst, pipip und eine weitere Person
Icke-ffm schrieb:
FG ist selbst eine 4090 Nativ noch zu langsam eine 5090 könnte die erste werden mit der es nativ nutzbar wird
FG kann auch eine 4060 ganz normal in nativer Auflösung nutzen, warum auch nicht?
Lern endlich mal was FG ist oder schreib nicht andauernd solchen Schwachsinn…
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
Nolag schrieb:
Das Problem ist, dass man mit jedem Node den Markanteil verdoppeln müsste, weil sich aktuell die Kosten mit jedem Node verdoppeln.
Wie kommst du darauf das hängt von vielen Faktoren ab, erstens sind die Kosten einer Node nicht konstant, die Yieldrate steigt z.B. was es billiger macht, und wenn man so wie jetzt absolute Lowend chips produziert brauchen die nicht billiger sein.

Nimm doch nur den Intel Chip der ist so groß fast wie ne rtx 4070 deutlich größer wie 7700 oder 7800 von amd. Damit ist die Yieldrate auch höher... bzw man kann es noch weiter erhöhen in dem man die teil-defekten Chips als eine Stufe kleiner verkauft.

Wenn das was du sagst stimmen würde müsste ja jede gen doppelt so teuer werden...
 
Zurück
Oben