News AMD Radeon RX 8000: Neue Gerüchte umreißen Infinity Cache von 3 Navi-48-GPUs

Seh ich das richtig? Eine 7900XTX (immer noch mindestens 930€) schafft in SW:O trotz FSR-Balanced (was schon etwas anstrengend ausschaut) und ohne Raytracing in 1440p nichtmal >90FPS?

In 3440x1440 (meine Auflösung) wirds dann sicher nochmal etwas schlechter.

Und die schnellste RDNA4 wird wohl nicht schneller als eine 7900XTX in Raster.

Das wird leider nichts für mich.

edit: Da hab ich falsch gelesen. Sorry.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Und wo soll diese Leistung herkommen ? Aus mickrigen 4096 ALUs ohne dedizierte RT-Hardware ?

Wie bei jeder Generation aus einem Mix aus Takt und Architekturverbesserungen. Zwischen einer 5700XT und 6700XT mit gleicher Anzahl an Alus liegen z.B. 35%-40%, bei gleicher Fertigung mit kleinerem Speicherinterface. Was sich genau an der Architektur ändern wird, wird sich zeigen. Aber einfach mal 35% aus der Luft gegriffen auf die 7800XT draufgerechnet, dann landet man zwischen einer 7900XT und 4080 in der Rasterleistung. Eine 7800XTX ist bei gleicher Anzahl an Alus ca. 25% schneller als eine RX6800 und da ist der Taktsprung kleiner als zwischen RDNA und RDNA2 ausgefallen. Wenn die Taktraten durch die neue Fertigung gut gesteigert werden können, sind ~35% jetzt basierend auf den letzten Generationssprüngen nicht komplett unrealistisch. Das heißt nicht, dass es so kommen wird, nur das anhand der Zahlen die aktuellen Leistungsgerüchte nicht völlig unrealistisch sind. Die RT Einheiten sollen wohl bei RDNA4 verdoppelt werden, was den Boost in dem Bereich erklären könnte. Aber anhand von reinen technischen Daten kann man einfach nicht wirklich viel ableiten.

ETI1120 schrieb:
Ansonsten geht es darum wie Navi 48 zur 5070 und zur 5060/5060TI liegt. D. h., letztendlich bestimmt Nvidia den Preis der Navi 48 Derivate.

Ja daran wird sich RDNA4 messen lassen müssen. Wie gut die Karten werden kann man erst einschätzen, wenn auch Nvidia was am Markt hat. Da ist natürlich die Frage, wann kommt die Mittelklasse bei Blackwell. Das dauert bei Nvidia traditionell ja etwas zwischen Oberklasse und Mittelklasse. RDNA4 könnte daher selbst wenn Blackwell und RX8000 Anfang 2025 kommen noch einige Monate gegen die 4000er Karten antreten. Man kann dann aber besser einschätzen, in welche Richtung Blackwell und eine mögliche Mittelklasse mit der Architektur.

Bislang siehts ja auch so aus, als wenn es bei Blackwell auch nicht viel mehr Recheneinheiten gibt, zumindest abseits des GB102 Chips.

Wie gut RDNA4 ist könnte durchaus beeinflussen, wie Nvidia die Mittelklasse konfiguriert. So ein Sprung wie zwischen einer 3060Ti und 4060Ti will man nicht unbedingt wieder sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schmuppes
ThirdLife schrieb:
Und wo soll diese Leistung herkommen ? Aus mickrigen 4096 ALUs ohne dedizierte RT-Hardware ? Hart gelult.
Die Mehrleistung würde nach Gerüchtelage aus rund 7% mehr Shadern und rund 3Ghz Takt kommen. Dass das mit dem Prozess geht, hat NV ja bereits gezeigt.

Takt skaliert ziemlich linear, also selbst wenn die Shader exakt gleich wären, sind das schon gute 30% mehr Leistung - das ist dann leicht über der 7900xt. In Bezug auf die RT-Leistung wird es deutlich mehr werden, dann passt das doch.

Sicher kein High-End, aber eine gute P/L-Alternative. Natürlich wird auch diese Karte ein Flop werden, weil AMD den Start verkacken wird und mit einem zu hohen Preis in den Markt geht.

Sollte man sich nicht wünschen, aber vielleicht ist das dann auch AMDs letzter Versuch etwas zu erreichen in dem Markt.
 
  • Gefällt mir
Reaktionen: ThirdLife
DerRico schrieb:
Die Mehrleistung würde nach Gerüchtelage aus rund 7% mehr Shadern und rund 3Ghz Takt kommen. Dass das mit dem Prozess geht, hat NV ja bereits gezeigt.
Dass was womit geht ? Was mit N4 möglich ist ? Vielleicht 10-15% Mehrleistung ggü. N5. Und was AMD bisher gezeigt hat ist, dass ihnen N4 anscheinend einen Furz hilft wenn man den missglückten Zen 5 Launch betrachtet.

Klar, andere Sparte, aber ich würde hier nicht mal eben so "yay 30-50% Mehrleistung easy peasy" als gesetzt sehen.

DerRico schrieb:
Takt skaliert ziemlich linear, also selbst wenn die Shader exakt gleich wären, sind das schon gute 30% mehr Leistung - das ist dann leicht über der 7900xt. In Bezug auf die RT-Leistung wird es deutlich mehr werden, dann passt das doch.
Wird dann aber auch locker 30% mehr verbrauchen - großartig bessere Effizienz verspricht N4 nämlich nicht. Womit wir bei 325W wären. Da werden die Meisten wohl lieber zur 7900XT greifen und nochmals 4GB mehr VRAM mit schnellerer Anbindung mitnehmen.

Ich seh einfach kein geiles Produkt dahinter sondern einen milden Refresh. Das Produkt dürfte sicher ok sein - wenn der Preis stimmt.
 
Die Größe des cache sagt nur das amd am last level cache design an sich nix geändert hat und lediglich die L0 und L1 cache Größen vergrößert hat das bietet auf etwa 5% chipfläche zusätzlich mehr dual issue, sram skaliert nicht.
ich vermute das man zusätzlich die tmu verdoppelt hat also 1 rop -4 tmu
Die tmu berechnen die bvh somit dxr stark beschleunigt wird.
Daher ist die Annahme von mir die dual issue wegen des größeren cache auf 34% steigt was am ende grob 64*64*2,68*3ghz =32tf etwa rx7900xt perf
Es schwankt beim Takt vom node her sind 2,8-3,1ghz drin (sf4x)
Das lässt sich quasi aus amd gcn (vega samsung 14n vs n7) ableiten.

Bliebe die Preisfrage der samsung node dürfte grob 10000$ kosten der chip um die 230mm² groß werden und die tbp grob 260w sein.
Das macht ein min preis im Einkauf grob 320$ endkundenpreis min bei 379€
Wenn amd ernst meinen würde, aber ich ahne das man eher den Marktpreis nur geringfügig unterbieten wird womit eine uvp bei 599$ sein wird 659€
Das gute rx7900xt raster perf für 649€ das schlechte die dxr perf der rtx4070 super für 50€ mehr
nvidia Reaktion darauf wird spannend den die gb205 rtx5070 grob 305mm².
Sku ab 500$ endkundenpreis ab 599€ sind möglich die perf. grob rtx4070ti aber ich vermute eine uvp von 629$ 679€.
In dxr leicht schneller als amd rx8800xtx 649€ uvp das gute die sku wird effizient maxed 180w tbp
Das mal anmerken rtx4070ti 285w rtx5070 gleiche perf. 180w. Und das beim gleichem node

Dann ist wieder amd 260w vs nvidia 180w
Wieso schafft es amd immer einen haken zu haben

Der wirklich interessante Bereich ist der unter 500€ und da wird es kaum besser die Konsole wird einen preisrutsch verursachen aber so bald keine alternativen geben maximal fällt der preis der rtx4060ti 16gb auf 349$=379€.
Die rtx4070 gddr6 maximal auf 459$ = 489€
rx7600xt 269$= 299€
rx7700xt 349$= 379€ eol
perf. technisch wird sich bis q2 2025 nix tun abseits den Preisanpassung wegen der ps5 pro (499$/539€)
Die Konsole wird definitiv so schnell wie die rtx4070 super und in dxr etwa auf level der rtx4070
Das erhöht maximal die P/L auf 10% bei gpu bis 500€
Dazu wird auch die ps5 billiger 359$ digital, 409$ Disk

Der sprung im entry kommt mit rtx5060 (130w tbp) und amd Resteverwertung des n48 mit 48cu rx8700xt (195w tbp)
+15-+30% perf bei 430€-480€

So gesehen lohnt das warten auf rtx5060 leider hat amd nix das wirklich dagegen halten kann und das nur weil man auf sf4 geht mit n4x wäre man bei 3,4ghz und der n44 würde vs der rtx5060 bei 32cu gegenhalten
Und man könnte da extrem aggressiv angreifen da die sku maximal bei 299€ machbar ist
Das warum das amd nicht tut nun amd braucht die n4 Kapazität für die cpu/ai chips

rdna5 wird aber auf tsmc n3 kommen da es ein cowos design ist
Ein gcd 224cu und ein gcd 112cu die jeweils auf ein aktiven interposer (Silizium) sitzt
Dieser ist cache und SI in einen das reduziert den Takt um 25% aber man hätte mit n3 grob 4,0ghz sprich es wird 3,0ghz Takt geben mit der ipc von 2,68
Sprich zwei mcm die die
n51 208cu (107tf) 2025 3 sku 512bit
n52 104cu (53tf) 2026 4 sku 256bit

Währenddessen 2026 amd am6 start apu bis 30tf bei 250w tdp (60cu) gibt.
Das läutet das ende der entry lvl gpu ein
2027 Rdna6 wird die alu per cu verdoppeln das wird die apu bei doppelten alu kommt also 60cu 128alu per cu bis 60tf in ner apu mit 256bit si ddr6 12000 (384gb/s) möglich machen.
2028 rdna7 wird nochmal die cu vergrößern auf 96cu und apu bis 98tf ermöglichen bis dahin bei ddr6 12gt/s
inklusive hbm4 4gb

Nun zu den Konsolen
ps5 pro grob 23tf okt 2024
ps6 grob 107tf 104cu 2027 okt 2027

Dass der Plan sofern mir bekannt der Sinn ergibt, sicher ist nur das am6 alle apu sind und die Plattform camm2 mit bis zu 512bit SI kommt 256bit zum start
am6 wird grob lga bei 2900 pins haben etwa 6*6cm sein fasst threadripper size
Es macht für amd Sinn alles aus einer hand zu machen und nur noch high end dgpu zu verkaufen

Mir wäre zwar ein umkämpfter 300-500€ gpu Bereich lieber aber das passiert nicht
Die letzte 60 class wird die rtx6060 die quasi die rtx5070ti (60sm) ist
Die letzte x600 wird diese kommende rx8600 werden danach wird amd keine entry mehr bringen.
Die letzte x700 ist 9700xt mit dann den vollen cut n52 80cu
Danach also ab 2027 wird es nur noch x900 und nvidia ab der 80 class geben

ich kann daneben liegen aber die letzten Jahre waren für amd und nvidia zwar erfolgreich aber sie mussten den altbestand abverkaufen und saßen auf chips fest amd hat diese abverkauft bekommen nvidia nicht und musste viele chips in kleinere sku verbauen (ga106 ga104 auf eine klasse gpu druntr ad102 ad103 ad104 auf kleinere sku drunter). Das kostete geld daher ist anzunehmen das amd sowie nvidia auf den entry markt komplett verzichten da zu risikoreich und zu kleine marge
Zumal die asp von damals vor Krisen beginn 2020 bei 300$ war und heute bei 600$ liegt Tendenz steigernd.
zwar spielt die inflation ne rolle ist aber nicht Haupttreiber.
Der markt wird sich Richtung Konsole, apu system und High end entwickeln.
Bis dahin muss man das beste sich heraussuchen
Danach bleibt nur die Wahl amd apu system oder gebr alte high end dgpu.
 
Uff, sieht nach ein lauwarmen Refresh aus. Sind ja aber bisher nur Gerüchte^^ Schade eigentlich - aber die Hoffnung stirbt zuletzt :D
 
  • Gefällt mir
Reaktionen: A.Xander
Ozmog schrieb:
Oder ist das mit den Treibern doch nur aus hörensagen aus vergangenen Zeiten?
Yupp so sieht es aus, mit der 5700XT und der RX 580 gab es Treiberabstürze noch wesentlich öfter.
Mit der 6700XT gab es das dreimal in 2,5 Jahren und jedesmal kam der Fehler vom System oder einer installierten Software. Hab auch das Gefühl das es wesentlich weniger wurde seit AMD den Support für alte Karten gekappt hat. Aber das ist nur meine subjektive Meinung.

Momentan ist das für mich alles Geschichte, aber so ganz problemlos läuft es mit NV auch nicht immer. Dasselbe Spiel wie mit AMD hatte ich auch schon einmal mit dem NV Treiber der 4070, wieder war der Treiber nicht dafür verantwortlich. Die FPS sind dabei halt einfach eingebrochen als der Treiber abgestürzt ist, ist jetzt auch nicht besser als der übliche Back to Desktop bei AMD.
Die läuft auch erst seit einem guten Jahr.
Es gilt halt:
Wer zu faul zum suchen ist schiebt es halt auf das offensichtliche egal ob grün, rot oder blau.

Bei der Kartenoptimierung gefällt mir persönlich, AMD Adrenalin besser als die Möglichkeiten die es bei NV gibt.

Besonders imposant liest sich das was man angeblich mit RX 8000 bekommt jetzt nicht.
Bin trotzdem neugierig auf den Release und die Tests, auch wenn ich trotz Stalker 2 Release keinen Bedarf für mich sehe, lasse mich aber gerne überraschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius
Wir müssen halt langsam mal vorwärts gehen. Allein weil der Monitormarkt weiter vorranschreitet.
3440x1440 ist schon sehr häufig geworden ~200-300 Euro.

Ich habe das komplett übersprungen. 4K (HDR!) oder 5K kommen nur noch ins Haus. 5120x1440 sind die Ultrabreiten.

Jetzt rächt sich auch das man kein Crossfire mehr fahren kann. Zwei medium Karten zusammenschließen wär sogar noch gegangen vom Hitzeniveau aber das wird nicht ausreichend unterstützt von den Anwendungen.
Die Profile kann ich mir auch gerne zusammenzimmern mit einem Profil. Das ist immer noch besser wie zu 290X Zeiten. 😄
 
Laphonso schrieb:
Statt Nvidia im Hig End zu attackieren (was auch schön wäre), ist der Fokus auf die Mittel- bis High- Klasse vielleicht wesentlich cleverer. Wenn der Preis stimmt.
Naja, DORT muss der Preis stimmen, denn auch in diesem Segment muss AMD über den Preis punkten.
Und High-End findet wohl erstmal nicht mehr statt baw.
Ergänzung ()

Shoryuken94 schrieb:
Bitte nicht, wer will sich das Geruckel denn heute noch freiwillig antun. Macht auch wenig Sinn wenn man so langsam Chiplets ans Laufen bekommt, dann lieber einzelne karten die gut nach oben skalieren. Da müssen wir aber noch ein oder zwei generationen warten.
Ja nun, wenn die MCM gebacken bekommen, dann sollte das mit mehreren GPU die ja auf MCM basieren auch besser funktionieren. Ist ja "prinzipiell" das Gleiche.
Die Technik blieb ja nicht stehen.
Ergänzung ()

Chismon schrieb:
Damit bist Du wohl nicht der einzige der sich das wünscht oder davon träumt und zudem sowas leakt:
Wie süß. :D
 
Zuletzt bearbeitet:
Neodar schrieb:
Enthusiastenleistung muss es auch nicht zwingend sein.
Viel wichtiger wäre, dass AMD die Leistungsaufnahme deutlich reduziert.
Wobei AMD primär in der (höheren) Mittelklasse zulegen muss. Zwischen 7900 XTX und RTX 4080 liegen nur 30 W.

AGB-Leser schrieb:
AMD sollte sich vom monolithischen Aufbau verabschieden und das aus mehreren kleinen Einheiten zusammenstecken.
Hast wohl verpasst, dass AMD das schon mit RDNA3 erreicht hat?
Ein MCM-Design, das hingegen noch weiter geht, ist kein Zuckerschlecken. Im Gegensatz zu dem, was du glaubst, ist AMD bei GPUs nicht nur Vorreiter, sondern im Desktopmarkt der "Einzige", der schon etwas erreicht hat!

Shoryuken94 schrieb:
Ein MCM Design GPU Design auf Basis der Logik Dies hast im Consumerbereich bislang nur Apple.
Was hab ich verpasst? Ich kenne nur die Zusammenlegung von zwei Mx Max Dies zu einem Mx Ultra Die.

Shoryuken94 schrieb:
1440p ist am Ende doch deutlich genügsamer. Da muss man dann auch nicht jede Generation mitnehmen.
Ich persönlich würde lieber gleich auf einen 4K gehen wollen, wenn man diese Auflösung im Desktop vernünftig nutzen kann. In Spielen kann man auch unabhängig von DLSS/FSR2/XeSS/TSR auch spatiale Upscaler verwenden und da tut es auch FSR1.

Perdakles schrieb:
Ein Puzzlestück dieser Gleichung könnte sein, dass AMD bei Navi48 auf ein PCIe 5.0 x8 Interface setzt.
Sicher nicht. Für PCIe 5.0 muss es erstmal genug Mainboards geben, die auch gekauft wurden!
Alle drei Hersteller sehen sich Zahlen an, wie weit etwas verbreitet ist. Du kannst korrekterweise auch anmerken, dass günstige Grafikkarten schon mit PCIe 4.0x8 draußen sind, obwohl beiweiten nicht alle diesen Standard verwenden. Aber es ist noch ein langer Weg, bis 5.0 überhaupt in die Nähe von 4.0 kommt, wenn die neuere Version nur von High-End (oder knapp darunter) gekauft wird.

Sun-Berg schrieb:
Seh ich das richtig? Eine 7900XTX (immer noch mindestens 930€) schafft in SW:O trotz FSR-Balanced (was schon etwas anstrengend ausschaut) und ohne Raytracing in 1440p nichtmal >90FPS?
Wo hast du das eigentlich her? Auf CB schafft die 7900 XTX in 1440p FSR2 Balanced mit Raytracing maximal knapp 80 fps. Das Spiel gibt es nicht ohne Raytracing.
Auf HUB ist RTXDI aktiv, also nicht vergleichbar und wie Raytracing mit dem Ultra preset eingestellt ist, konnte ich nicht herausfinden, dort erreicht die 7900 XTX knapp 90 fps mit Quality FSR2. AMD Grafikkarten sind so oder so nicht gut aufgestellt, aber wenn, sollte man Zahlen verwenden, die auch korrekt und im richtigen Kontext sind.

Sun-Berg schrieb:
Und die schnellste RDNA4 wird wohl nicht schneller als eine 7900XTX in Raster.
7900 XT Leistung wäre schon gut, wenn der Preis stimmt. Das wirklich wichtige ist die RT Leistung, wo RDNA4 (deutlich - hoffentlich) ansteigen wird. Die Rasterleistung ist so oder so kein Problem bei AMD. Mit besserer Effizienz in der Mittelklasse könnten sie damit in Laptops auch was bieten. Aber ohne konkurrenzfähiges RT wird das mit der Zeit immer schlimmer, je mehr visuell anspruchsvolle und ansprechende Spiele herauskommen. SW:O ist nur das neueste unter ein paar wenigen.
 
  • Gefällt mir
Reaktionen: A.Xander
paganini schrieb:
wie schlecht ist das dann bitte? AMD verliert nur noch mehr Boden und Nvidia kann die Preise weiter anziehen. Echt schade dass AMD keinerlei Konkurrenz mehr sein wird (wenn alles so kommen sollte, was ich nicht hoffe)
Gar nicht schlecht, denn damit drohen zumindest bei AMD Karten nicht unbedingt weiter ausartende Preise und was hätte Dir und anderen denn ein Navi41 Chip gebracht, welcher architekturtechnisch mit RDNA3 Schwächen daher kommt und mindestens teilweise eine wirkliche Weiterentwicklung der dGPUs eingeschränkt hätte und womit dann AMD der Buhmann medial zugeschoben worden wäre von den Besserwissern und selbsterklärten Experten.

Wen interessieren denn die Halo/High-End AMD Karten noch wirklich, die kann man doch fast schon an einer Hand in diesem (von Enthusiasten durchzogenen) Forum abzählen?

Soll nVidia die Preise der eigenen Oberklasse- und High-End-Karten mit Blackwell-Einführung doch verdoppeln, das wäre mir (und vermutlich auch vielen anderen) sowas von egal, denn ich bin jedenfalls nicht markenhörig/-süchtig (im Gegensatz zu anderen).

Solange es keine Grafikkarten, die Pathtracing ausgereift - also komplett und flüssig (mit mindestens 60 fps) mindestens in WQHD - darstellen können und die unter 500 Euro kosten, gibt , solange bekommt weder nVidia Geld für solche Grafikkarten, die darauf herum reiten und vorgaukeln es lange/lohnend genug zu leisten, von mir noch die Spielentwickler, die sich dafür sponsorn lassen und solche Extrawurstspiele für diese Klientel entwickeln, die ich nicht einsehe mit zu finanzieren für etwas welches nur (ansatzweise bis eingeschränkt) genutzt werden kann von denjenigen, die das teuer bezahlen, so einfach ist das.

Zum Glück gibt es ja noch AMD und Intel, die auch Grafikkarten mit halbwegs akzeptablen Preisen für vergleichsweise "normale" Nutzer verkaufen, nicht die High-End-dGPU Elfenbeinturmfraktion, und nicht die Preistreiber spielen (aber auch nicht die Wohltäter, wovon einige vielleicht noch träumen, denn die alten Billig-dGPU Zeiten sind lange vorbei).

Eine RTX 5090 für 3000(+) Euro wäre mir sowas von egal und wenn das dann für einige Vorzeige-Enthusiasten und nVidia-Fans nicht mehr finanziell stemmbar sein könnte, entlockt mir das maximal ein Achselzucken und null Mitleid, so sieht es aus.

Man kann auch 'mal nicht kaufen/konsumieren anstatt alles (preislich) mitzugehen, das sollte zumindest noch eine mögliche Option sein und bleiben ... notfalls rüstet man (noch) weniger oft auf anstatt jedem (Mainstream-)Hype oder Trend hinterher zu laufen, nur um "mitreden" zu können.

Wenn ein eher durchwachsen optimierter Titel wie Black Myth Wukong dann nicht wie gewünscht butterweich (inkl. Anwendung von "Schummeltechniken") mit allen z.T. überbewerteten bis unsinnigen (unausgereiften) Grafikfeatures - für die man u.U. viele Hunderte Euro für eine dGPU extra gezahlt hat oder soll mit meist minimalem bis kaum spürbarem Mehrwert im Spielfluß - in 4K/UHD läuft, dann ist das eben so und die Welt geht davon auch nicht unter (genauso wie zu Crysis Zeiten).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schmuppes
Was beim Infinity-Cache noch zu beachten wäre, ist seine jeweilige Bandbreite. Diese konnte AMD beim Sprung von RDNA 2 auf RDNA 3 deutlich anheben. Das heißt die Speichergröße allein sagt nicht alles über die spätere Leistungsfähigkeit in Spielen aus.
 
Deinorius schrieb:
Hast wohl verpasst, dass AMD das schon mit RDNA3 erreicht hat?
Ein MCM-Design, das hingegen noch weiter geht, ist kein Zuckerschlecken. Im Gegensatz zu dem, was du glaubst, ist AMD bei GPUs nicht nur Vorreiter, sondern im Desktopmarkt der "Einzige", der schon etwas erreicht hat!
Ja, hast recht, ist komplett an mir vorbei. Ich habe nur eine 6900xt, der ich einen Wasserkühler verpasst habe, ich kenne nur rdna2. Da die schon Erfahrungen haben, könnten die das doch fortführen und dem Kunden die Entscheidung lassen, wie viele 8900xt die kaufen, um eine 5090 einzuholen
 
  • Gefällt mir
Reaktionen: Deinorius
@Deinorius

Danke dass du das klar gestellt hast. Wer lesen kann ist klar im Vorteil. Ich passe meinen Beitrag an.
 
  • Gefällt mir
Reaktionen: Deinorius und A.Xander
Wenn das bei AMD so weiter geht, seh ich schwarz. Noch eine Generation wo die X800XT keinen Leistungssprung macht, dürfte die Käufer nicht locken.
Na zum Glück tut es meine 6800XT noch ein Weilchen
 
@rocka81 die 7800XT hat deshalb keinen Leistungssprung gegenüber der 6800XT gemacht, weil die 6800XT gegenüber der 3080 gelaunched wurde und die 4070 auf selbigen Leistungsniveau rangierte, wo die 7800XT als Konter von AMD gebracht wurde
 
Die rdna3 gen war anders geplant als es gelaufen ist

Das liegt maßgeblich am design Fehler beim sram dieser wurde verkleinert und hat dadurch eine höhere packdichte und taktet deswegen geringer da der elektrische widerstand größer wurde als gedacht
Die folge man musste die spannung so anheben das die daten konsistent blieben womit die geplanten 3,3-3,6ghz für das design nie erreicht wird.
man taktete zwischen 2,0 bis 2,4ghz mit mcm und dem halb gefixten design beim n33 auf 2,7ghz rum was nebenbei dem node entspricht.
Das wird man auch mit n48 erreichen also 2,7*1,15 vom n5 node =3,1ghz im maximum ich gehe fest von 3,0ghz aus.
Der n4 node falls verwendet wird nur für die Effizienz genutzt -22%
Da aber von sf4 ausgegangen wird wird es aber eher 3,0ghz und etwas mehr tbp zwar effizienter aber dennoch etwa 260w mit tsmc wären es 250w
Die nodes geben sich kaum was bei samsung wäre man bei grob 2,9ghz tsmc sicher bei 3,0ghz
amd hat Spielraum bei der chipfläche je physisch größer der sram desto mehr Takt.
Es ist dasselbe wie bei den pcb leiterbahnen sie müssen physisch stabiler sein um die spannung somit Daten konsistent zu halten und mehr wärme ableiten womit die Verlustleistung sogar sinkt. Weniger spannung erforderlich. Der haken es kostet chipläche da sram wie das Si nicht kleiner wird.
ich gehe fest von etwa 5% aus die addiert werden zum n6 node beim n33 der schon den shrink vom n5 beseitigt hat.
Dazu komme 5% für die größeren L0 und L1 cache das macht maximal 5mm² aus daher sind die grob 240mm² bis 245mm² drin maximal wird der chip bei etwa 250mm² sein
je nachdem wie amd das entwirft

bald ist state of Play (20-9-24) und cerni stellt den ps5 pro chip vor das wird einiges erklären
Womit ein release der rdna4 sku ab nov möglich wird.
 
Deinorius schrieb:
7900 XT Leistung wäre schon gut, wenn der Preis stimmt.
Nvidia legt den letztendlich Preis fest, also wir er schon stimmen.

Die 7900 XT Performance wäre nur dann gut, wenn sie auch mit wesentlich weniger Power als bei der 7900XT einhergeht.

Deinorius schrieb:
Das wirklich wichtige ist die RT Leistung, wo RDNA4 (deutlich - hoffentlich) ansteigen wird.
Angeblich soll ja AMD einiges bei RT tun. Aber Nvidia wird nicht stehen bleiben.

Das Problem für AMD ist, dass Nvdia hier die Richtung vorgibt. AMD kann nur folgen. Wer folgt kann bestenfalls den Abstand verkürzen. Es sollte allerdigs deutlich mehr sein als bei RDNA3, die nur wenige Prozentpunkte gutmachen konnte

Deinorius schrieb:
Die Rasterleistung ist so oder so kein Problem bei AMD.
Bei RDNA2 in Bezug auf Ampere stimmt das.

Aber nicht bei RDNA3 in Bezug auf Ada. Hier ist enttäuschend, dass sich die 7900XTX (Navi 31, 96 CUs) gerade so vor die 4080 (AD103, mit 76 CUs) setzen kann, obwohl Navi 31 deutlich mehr Die-Fläche hat.

Und es ist letztendlich ein massives Problem für AMD, da die 7900XTX billiger als die 4800 angeboten werden muss.

Deinorius schrieb:
Mit besserer Effizienz in der Mittelklasse könnten sie damit in Laptops auch was bieten.
AMD hat keine Chance nennenswerte Stückzahlen in Notebooks abzusetzen.
In Notebooks kann AMD nur über die iGPUs punkten.

DerRico schrieb:
Sicher kein High-End, aber eine gute P/L-Alternative
Aber dafür muss RDNA4 bei der Raster Performance je CU bzw. SM ziemlich nahe bei Blackwell sein. Wenn die Lücke ähnlich groß wie bei RDNA3 sein sollte, wird es für AMD ungemütlich.

Es ist für AMD ein Problem, dass AMD mit RDNA4 nicht den Markt bis 1000 USD abdecken kann.
Leute, die eine Navi 21 Karte ersetzen wollen, greifen nicht zu einer Karte mit Navi 48. Sie lassen diese Generation aus oder wechseln zu Nvidia.

DerRico schrieb:
Natürlich wird auch diese Karte ein Flop werden, weil AMD den Start verkacken wird und mit einem zu hohen Preis in den Markt geht.
Die Karte wird sich bei weitem nicht so gut wie die Konkurrenzprodukte von Nvidia verkaufen.
  • Ein Großteil der Käufer schaut die Karte gar nicht erst an, weil sie keinen Chip von Nvidia hat.
  • Viele der Käufer die sich die Karte anschauen, haben schon beschlossen eine Karte mit einem Chip von Nvidia zu kaufen.
  • Viele die sich die Karte mit tatsächlichem Interesse anschauen, finden die Preisdifferenz zu Nvidia zu klein.

DerRico schrieb:
Sollte man sich nicht wünschen, aber vielleicht ist das dann auch AMDs letzter Versuch etwas zu erreichen in dem Markt.
Wieso sollte es der letzte Versuch sein?

AMD benötigt RDNA für die iGPUs in den Mobilprozessoren und für die Konsolen.

Wenn AMD überlegen würde auszusteigen, hätte AMD RDNA 4 komplett eingestellt.
 
ETI1120 schrieb:
Es geht darum, dass angeblich die GPUs aus mehreren GCDs bestehen sollte.

Wieso sollte AMD Memory Controller und Infinity Cache wieder ins GCD inkludieren?*)
Ein Chip in mehrere Chiplets zu teilen macht nur dann Sinn, wenn man entweder sehr viele verschiedenen Varianten haben möchte oder der Chip ansonsten so groß wird, dass die Ausbeute bei der Herstellung darunter leidet. Bei RDNA4 ist beides nicht der Fall. Es sieht nach nur zwei Chips aus, die mit max. 3xx mm² bestenfalls mittelgroß sein werden. Ein Chiplet-Design würde da nur zusätzliche Kosten und Leistung kosten.

ETI1120 schrieb:
Und falls AMD das tut, wieso sollte AMD es auf eine Weise tun dass ein einzelnes GCD nicht in einer GPU verwendet werden kann? Abgesehen davon dass es viel teurer ist zwei GCDs zu entwerfen als einer.
Daran arbeitet AMD. Wäre RDNA4 wie ursprünglich geplant gekommen, hätten wir ein solches Design, aber nun wurde das auf die nächste Generation verschoben und RDNA4 ist mehr oder weniger nur ein Lückenfüller um die Zeit bis dahin zu überbrücken.

Shoryuken94 schrieb:
Wie bei jeder Generation aus einem Mix aus Takt und Architekturverbesserungen. Zwischen einer 5700XT und 6700XT mit gleicher Anzahl an Alus liegen z.B. 35%-40%, bei gleicher Fertigung mit kleinerem Speicherinterface. Was sich genau an der Architektur ändern wird, wird sich zeigen.
Da ist der Haken. RDNA4, wie es ursprünglich geplant war, wurde gestrichen bzw. nach hinten verschoben. RDNA4, wie wir es jetzt bekommen ist ein Notlösung, praktisch RDNA3 in monolithisch, mit Die-Shrink und den Verbesserungen bei RT, die für die PS5 Pro entwickelt wurden. Daher erwarte ich abgesehen von RT keine wesentlichen Leistungssteigerung durch die Architektur.

ThirdLife schrieb:
Dass was womit geht ? Was mit N4 möglich ist ? Vielleicht 10-15% Mehrleistung ggü. N5. Und was AMD bisher gezeigt hat ist, dass ihnen N4 anscheinend einen Furz hilft wenn man den missglückten Zen 5 Launch betrachtet.
Das muss man mMn differenzierter sehen. Das Problem lag ja hauptsächlich daran, dass Zen 5 die Erwartungshaltung zu hoch getrieben hat und diese dann zumindest für Games und Desktop-Anwendungen nicht erfüllen konnte. Bei dem Test von Ryzen 9600X/970X bei Phoronix, dessen Fokus mehr auf professioneller Software lag, kamen 20-25% mehr Performance im Vergleich zu den direkten Vorgängern bei gleichzeitig deutlich niedrigerem Stromverbrauch heraus. Desktop und Gaming waren offensichtlich nicht die Priorität bei der Entwicklung von Zen5. Hier hätte AMD einfach nur ehrlich sein müssen. Die Gamer hätte es zwar auch dann enttäuscht, aber zumindest wäre der Shitstorm dann vielleicht kleiner geblieben.
 
  • Gefällt mir
Reaktionen: Tuchanka und ThirdLife
rocka81 schrieb:
Noch eine Generation wo die X800XT keinen Leistungssprung macht, dürfte die Käufer nicht locken.
Kommt drauf an, von wo man kommt. Mit meiner Vega 56 bin ich mittlerweile so weit hinterher, dass ich mir über den Vergleich der kommenden Chips mit der 7000er Serie gar keine Gedanken machen muss. Ich warte noch die ersten Tests ab und kaufe dann die schnellste AMD-Karte in meinem Budget.
 
  • Gefällt mir
Reaktionen: TheHille und rocka81
Zurück
Oben