News AMD Radeon RX 8000: Hinweise auf Varianten mit 16 und 12 GB Speicher zum Start

Rock Lee schrieb:
Ist einfach eine unrunde Zahl im Verhältnis zum Speicherinterface.
Ist in meinen Augen ein schwaches Argument. Der Cache und die daraus resultierende Hitrate ist erstmal vom Speicherinterface unabhängig.

Im Endeffekt rechnet man von der effektiven Bandbreite die man am Ende haben möchte und der nominellen Bandbreite aus die Hitrate aus. Dann nimmt man die erwartete Dateigrößen und die Effizienz der eigenen Alghorimtik und bestimmt darüber die benötigte Cache Größe.

Damit die Daten aus den Gerüchten so hinhauen müsste die Alghorimtik von IF Cache Gen 3 deutlich besser sein, der Cache wachsen oder es werden doch 24 Gbps Module statt 20 Gbps Module. Immerhin gibt es mittlerweile 24 Gbps GDDR6 Chips auf dem Markt. Das macht mich an den Gerüchten sehr stutzig, warum hier noch auf alte Chips gesetzt werden soll.
 
  • Gefällt mir
Reaktionen: Shoryuken94
ThePlayer schrieb:
Du schreibst doch, dass sie zu wenig Raytracing Leistung hat. Gleichzeitig schreibst du auch, dass du eine 8000er kaufen würdest, selbst wenn nur Raytracing schneller wäre als bei deiner 7900XTX. Du hättest beides schon haben können, wenn du einfach Nvidia gekauft hättest.
Oder muss es bei dir aus irgendwelchen Gründen zwingend AMD sein?

Ich selber habe auch eine AMD (6900XT), aber für mich spielt Raytracing einfach noch keine Rolle.
 
@Simonte
Ähm gerade durch High-End verdienst du Geld. Das ist überall so, Mercedes verdient mit einer A-Klasse auch kaum Geld sondern mit der S-Klasse. Mittelklasse und Low-End sind nicht wirklich profitabel
 
paganini schrieb:
@Simonte
Ähm gerade durch High-End verdienst du Geld.
Kannst Du das an konkreten Zahlen belegen oder ist das nur so dahin gesagt? Ich denke nämlich auch, dass die Grafikkartenhersteller eher im Massenmarkt Geld verdienen (falls überhaupt mit GPUs). Das meiste Geld wird ja mittlerweile eh ganz woanders verdient.
 
  • Gefällt mir
Reaktionen: Simonte
@paganini Die Marge ist bei High End besser. In Zeiten wo Mittelklassekarten 500 bis 600€ kosten, kann man aber auch da ganz okay was verdienen, wenn der Chip nicht zu groß wird, besonders wenn man z.B. auch noch Kompromisse wie GDDR6 eingeht. Am ende kommt es auf eine Kombination aus Marge und Verkaufszahlen an. Eine Top Marge nützt nichts, wenn man zu wenig Einheiten verkauft, genauso wie viele verkaufte Einheiten zum Selbstkostenpreis nichts bringt.

Wenn AMD es mit der Leistungsaufnahme nicht übertreibt und einen typischen Mittelklasse Die von der Größe auflegt, könnte der Produktionspreis als monolithischer Ansatz sich im Rahmen halten.

Aber mal abwarten, wie die Preise sind, wie komplex die Karten sind und vor allem, wie viele AMD abgesetzt bekommt. Letzteres ist ja auch immer ein kritischer Punkt, besonders bei AMD.
 
  • Gefällt mir
Reaktionen: conglom-o und Simonte
paganini schrieb:
@Simonte
Ähm gerade durch High-End verdienst du Geld. Das ist überall so, Mercedes verdient mit einer A-Klasse auch kaum Geld sondern mit der S-Klasse. Mittelklasse und Low-End sind nicht wirklich profitabel
Gutes Beispiel, aber du hast die falschen Schlüsse draus gezogen. Die S-Klasse ist gut für Forschung und Entwicklung, Prestige und hohe Margen. Hohe Umsätze und somit Gewinne machen die mit den Verkäufen wegen der relativ niedrigen Stückzahlen nicht.
 
Wenn du die schnellste beste karte hast laufen die ganzen Lemminge einfach dir nach un dkaufen auch die kleineren Produkte. Siehe Nvidia. Da kannst du in der mittelklasse noch soviel geilen shit haben.

Mann hört ja immernoch von den ach so schlechten Treibern etc bei AMD das hält sich seid wie lange? 15 jahren. Intel is immer besser bla bla.

Wird nicht passieren aber AMD müsste ein Brett an GPU knüppeln das die 5090 wie restmüll dasteht. Dann die Presse richtig überall weltweit dafür werben und dann.. evtl... 10% mehr marktanteil.
 
Bruhtang schrieb:
Der Cache und die daraus resultierende Hitrate ist erstmal vom Speicherinterface unabhängig.
Jein. Das Verhältnis von Gesamt L3-cache zu Gesamtspeicherinterface ist unabhängig, ja. Innerhalb des Chips besteht jedoch eine Hierarchie zwischen den einzelnen aktiven PHYs und L3-Abschnitten. Reduzierst du bei RDNA3 und 2 die aktiven PHYs im Chip, reduziert sich der L3-Cache proportional mit. Das ist bei RDNA3 so (7900XT, 7900GRE und 7700XT), was verständlich ist, da die Anzahl der aktiven MCMs auf denen sich der IC befindet sich ebenfalls reduziert. Aber auch bei den RDNA2-Monolithen ist das der Fall. Siehe 6700 10GB vs 6700XT 12GB. (80MB vs 96MB).

Der springende Punkt meiner Argumentation (und deshalb habe ich auch etwas mehr geschrieben, als den Teil, den Du zitiert hast ;) ) ist, dass die mittelfristige Historie eher zu weniger Cache ging und man, sofern technisch möglich(!) lieber auf teure Chipfläche verzichtet.

Grundsätzlich ist es natürlich möglich, dass wir ein Verhältnis von 3 zu 8, statt 1 zu 4 bei Navi48 sehen.
Ich halte meine Version von 64MB jedoch für wahrscheinlicher.

Bruhtang schrieb:
Damit die Daten aus den Gerüchten so hinhauen müsste die Alghorimtik von IF Cache Gen 3 deutlich besser sein, der Cache wachsen oder es werden doch 24 Gbps Module statt 20 Gbps Module. Immerhin gibt es mittlerweile 24 Gbps GDDR6 Chips auf dem Markt. Das macht mich an den Gerüchten sehr stutzig, warum hier noch auf alte Chips gesetzt werden soll.
Oder der Bedarf an Speicherbandbreite wird durch bessere Kompression reduziert. Oder die interne Taktrate und damit die maximale Bandbreite des IC wird erhöht. Es gibt da diverse Möglichkeiten.
Die 24Gbs-Chips dürften relativ teuer sein. Daher denke ich, dass (sofern die 20Gbs Gerüchte stimmen) AMD aus Kostengründen eher auf Massenware setzt.
 
  • Gefällt mir
Reaktionen: M11E
Shoryuken94 schrieb:
Unterschätz mal den Preis von 32 GB nicht
Also heuer konntest schon eine W6800 PRO mit 32 GB für 1380 € käuflich erwerben.
Das konntest für eine 4080 mit 16 GB auch schon auf den Tresen legen ...
Ergänzung ()

DaBas schrieb:
Eigentlich müssen sie das sogar.
Wenn jetzt eine 8800 so ungefähr die Leistung einer 7800XT bieten wird. Das ist dann irgendwie sowas von Gähn, weil es genau diese Leistung bei AMD seit fast 4 Jahren in Form der 6800XT schon gibt. Wen will man damit locken ?
All jene, die diese Leistung noch nicht haben.
Die 8800XT soll in RR ca. zwischen einer 7900GRE und 7900XT und bei RT zwischen einer 4070Ti und 4070Ti SUPER landen/liegen. Bei weniger €uronen und weniger Verbrauch. Da finden sich sicherlich ein paar ...
 

Anhänge

  • 32 GB.jpg
    32 GB.jpg
    279,3 KB · Aufrufe: 51
Zuletzt bearbeitet:
Ich hoffe auf einen würdigen Nachfolger meiner RX580 die bis Dato treue Dienste verrichtet. Wenn die neuen Karten auf Niveau der 7800XT + liegen und dabei deutlich effizienter werden, bin ich zufrieden :).
 
  • Gefällt mir
Reaktionen: SweetOhm und Nighteye
@Mr Bombastic Also durch Frame Gen hast du eig schon mit RDNA 2 genau das gehabt was du dir wünschst.
Ich konnte mit meiner Polaris damals keine 50fps in Star Citizen erreichen.
Bin quasi auch nur wegen dem Spiel von meiner Polaris auf RDNA 2 gewechselt. Es war unspielbar.
Die RDNA 2 macht bei 130W folgendes bei 1440p.
(In Hauptstädten Average aber nur 220 fps wegen CPU Limit)
 

Anhänge

  • 577 fps space.jpg
    577 fps space.jpg
    250,3 KB · Aufrufe: 39
  • Gefällt mir
Reaktionen: SweetOhm
Sunjy Kamikaze schrieb:
Das sehe ich anders.

eine AMD karte die sagen wir mal 20% schneller als eine 5090 wäre und im RT und Featureset überlegen ist zu einem preis den Nvidia fast nicht halten kann
Dazu 4 Dinge
  1. @latiose88 hat Recht, so etwas wird nicht passieren. AMD kann den Vorsprung von Nvidia bei RT und den Features nicht in einer Generation aufholen. Nvidia entwickelt RT und die Features ständig weiter. Als dominierender Marktführer kann Nvidia sehr einfach neue proprietäre Features etablieren. AMD muss froh sein wenn ein paar ihrer Opensource Funktionen verwendet werden.
  2. Nvidia kann den AD102 in professionellen Grafikkarten absetzen. Da AMD mit RDNA3 auf die 4900 keinen Druck ausüben konnte, verwendet Nvidia den Vollausbau des AD102 nur in margenträchtigen Profi-Produkten. Da Nvidia erheblich mehr Spitzenchips absetzen kann und für viele eine bessere Marge als im Gaming erzielt, fällt es Nvidia leicht diese riesigen Chips zu refinanzieren.
    AMD hat in den lukrativen Profisegmenten praktisch keinen Absatz und deshalb kann AMD Nvidia nur bedingt folgen. Rick Bergmann und Davd Wang haben in einem Interview in Japan ziemlich klar gemacht, dass AMD momentan nicht über 1000 USD raus gehen kann.
    Eine Lösung für das Problem wäre im Prinzip eine Multi GCD GPU. Aber dies umzusetzen ist für GPUs schwieriger als für CPUs. Und auch teurer.
  3. Nvidia hat bei den GPUs eine bessere Kostenstruktur als AMD. Wenn AMD für den Geschmack von Nvidia zu viele Grafikkarten absetzt, schiebt Nvidia spielend eine Super-Reihe ein. Da sich Nvidia mehr Dies als AMD leisten kann, fällt es Nvidia nicht schwer zu reagieren.
  4. Die Game Developer auf dem PC entwickeln überwiegend auf Nvidia Grafikkarten. Das alleine sorgt schon dafür, dass die meisten Games besser für Nvidia optimiert sind und besser für Nvidia getestet sind. Oben drauf kommt noch dass Nvidia mehr Applikationsingenieure im Feld hat, die die Programmierer beim Optimieren und Anwenden der Features unterstützen.
    Einen solchen Fehlstart wie bei FSR 3, wäre bei Nvidia undenkbar.
So wie es aussieht muss AMD über viele Generationen liefern, um auch nur ein wenig Marktanteil zurückzuholen.

Wenn AMD GPUs nur für Gaming Grafikkarten entwickeln würde, stände die Frage im Raum wann AMD aufgibt. Aber AMD verwendet GPUs in sehr vielen Produkten und deshalb ist das keine Option.
 
Nighteye schrieb:
Sommer 2017 kam zwar Vega, (Davon auch eine mit 16 GB HBM2) aber die war Schweine Teuer.
Hab für meine "Vega" (RADEON VII) mit 16 GB (HBM2 / 1024 GB/s) 666 € bezahlt.
Allerdings erst 2019 ...
 

Anhänge

  • 1080Ti vs  R VII.jpg
    1080Ti vs R VII.jpg
    160,6 KB · Aufrufe: 46
  • Gefällt mir
Reaktionen: Nighteye
@SweetOhm Das ist verglichen mit heute ja echt günstig und dürfte sich mega gelohnt haben.
Die war ja auf RX6700 nonXT Niveau. Also könnte man heute noch wunderbar mit Zocken.
Ich hab damals 2022 (Also lange bevor es Frame Gen gab) mit einer RX6700 nonXT Star Citizen gezockt und 170fps in Stationen und 230fps im Weltall gehabt bei 1440p. (Hab 2 Videos davon Online)
Das hätte deine Vega dann auch gepackt. Vorallem durch den größeren Vram.
Meanwhile RTX 4090 user packen nichtmal die Leistung einer RX6700 nonXT ohne frame gen in SC :D
RTX 4090 lol.jpg

Meine Leistung mit Framegen 1440p ist:
fps RX6800.jpg

SC 700 Hours average fps.jpg

Und in Hauptstädten
218 fps area 18.jpg

Und Lorevile bei 100% CPU Auslastung.
SC CPU Load 5800X3D.jpg

Und meine Karte läuft um 500mhz Untertaktet und ich bin im GPU Limit.
Wenn ich die default laufen lasse hab 30-40fps mehr.
Also dass hier sind Super Silent Underclocking und Stromspar Ergebnisse einer 4 Jahre alten 370€ Radeon. Die ganzen RTX 4090 nutzer glauben meine fps nie weil die selbst bei 500W verbrauch nichtmal 1/3 meiner fps packen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Raidiri und SweetOhm
  • Gefällt mir
Reaktionen: Nighteye
Brrr schrieb:
Oder muss es bei dir aus irgendwelchen Gründen zwingend AMD sein?
Ja muss es. Ich hatte immer wieder mal eine Nvidia Karte im Rechner. Hab jetzt im Wohnzimmer PC eine 1660 Super drin. Nur war mir das ganze was Nvidia so anstellt und wo ich mich bei ihnen als Kunde mittlerweile empfinde, nicht das was ich mir vorstelle. Außerdem bin ich auch nicht bereit die Nvidia Steuer zu bezahlen. Wobei die 7900xt glaube genausoviel jetzt kostet wie die gleichwertige Karte von Nvidia. Habe aber jetzt über 1 Jahr die Preise nicht verfolgt. Solange hab ich jetzt meine 7900xt.
Wenn die Gerüchte stimmen wird RDNA4 die Lücke zwischen AMD und Nvidia bei RT deutlich verkleinern. Dann bliebe nur noch DLSS aber da komme ich bisher immer Recht gut ohne aus. FG ist bei AMD besser das finde ich auch interessanter.
 
  • Gefällt mir
Reaktionen: Nighteye und Brrr
Shoryuken94 schrieb:
Das Erwartungsmanagement muss jeder selbst für sich übernehmen.
Ich habe deine Posts mit Freude verfolgt und sehe das sehr ähnlich. Und manch einen Hype kann ich noch nicht verstehen. Wobei ich es auch nicht ganz so schwarz sehe mit der Positionierung von AMD, da es aktuell beim GPU-Markt zwei Lücken gibt, die man klar besetzen kann. Aber den Zahlen nach (bei den prozentualen Vergleichen beziehe ich mich mal auif die 1440p-Liste von CB):

  • 256bit, 20 Gbps, 64CU (8800XT?)
  • 256bit, 18 Gbps, 56CU (8800?)
  • 192bit, 19 Gbps, 48CU (8700XT?)
Dazu die Gerüchte, dass ein ordentlicher Taktsprung möglich wäre und man v.a. bei der RT-Leistung schrauben will, wo man aktuell schon 20-30% teilweise nachhängen kann bei sonst vergleichenbaren Karten im Rasterizer. Der Taktsprung würde sich aus meiner Sicht nur ergeben, wenn man die aktuellen Probleme der 7000er gelöst hat, wo man mit viel Verbrauch die Probleme in der ROPs lösen müsste wenn die Gerüchte stimmen und eben irgendwann nicht höher konnte.

Bisserl mehr Takt, ähnlicher Verbrauch, gleiche CUs brachte beim letzten Sprung von RDNA 2 auf 3 20% mehr Leistung. Dazu bekommt das "Topmodell" nun ~6,6% mehr CUs, womit wir einfach mal optimistisch sagen: Die neue 8800XT ist maximal 25% schneller als die 7800XT wenn wirklich alles wie geschmiert läuft. Davon gehe ich aber ehrlich gesagt nicht aus, man wird sich unter der 4070 Ti Super einordnen, eher Richtung 4070 Ti.
Umgekehrt müsste das für RT eigentlich heißen, dass man hier fast an eine 7900XTX rankommen müsste, was auch nicht realistisch ist. Aber wenn man hier wirklich einen Fokus gelegt hat, müsste man hier überproportional wachsen, also im allerbesten Fall 30%, was dann etwas unter einer 4070 Super liegt.

Schafft man das und kuckt man sich die Preise an, so kann die Karte die, auch in Gerüchten genannten, 600EUR + Steuern nicht lange halten, da müsste sie dann schon am Ende im Laden im Bereich um die 650 EUR brutto fallen. Aber das sind immerhin über 150 EUR mehr für einen nicht wirklich größeren Chip als die 7800XT, womit dann auch wieder bei der Marge mehr möglich wäre für AMD, solange die Entwicklungskosten nicht allzu groß waren.
So sehe ich es dann auch mit einer etwaigen 8700XT. Der Chip ist kleiner als die 7700XT, man hat bisserl mehr Bandbreite und wird hier eher den Platz besetzen wollen, ähnlich wie bei 7800XT gegen 6800XT, was im Prinzip ja gleiche Leistung mit schlankerem Design war um auch hier die Marge wieder größer zu machen. Und durch die große Lücke kann man irgendwo bei 550EUR dann noch eine 8800 platzieren und hat ein konsistentes Lineup mit ähnlicher RT-Leistung gegenüber Nvidia und einem ordentlichen Rastersprung um mit er Karotte wedeln zu können auf die andere Seite des Zaunes.
Und sollte ich mich zu weit nach oben verschätzt haben, so hat man bei den Preisen auch locker noch 50-100 EUR nach unten ohne große Schmerzen aus meiner Sicht und wenn sich das aktuelle Portfolio bei der Marge einigermaßen trägt.

Denn nun die beiden Lücken aktuell wo durchaus was geht: Einerseits im Bereich 4060Ti. Hier muss man aktuell viel Geld hinlegen für wenig Leistung in Relation, weil da durch Anbindung etc. nach oben die Puste fehlt, man aber halt auch mal 100W weniger nimmt als eine 7700XT. Auch die Idee einer 8700XT auf 7700XT-Level mit einfach mal 70W weniger Verbrauch wäre da schon ein gehöriger Schritt um da etwas anbieten zu können, vielleicht auch später eine 8700 10GB je nach Ausbeute, da man sich hier bei der Rasterleistung bereits sehen kann in der Liga und es ja nur besser wird, man dann durch die Anbindung auch bei RT mir der Nachbesserung mehr aufholen kann in Relation.
Die zweite Lücke ist die 4070. Schnell, 200W mit nur einem Stecker, eigentlich zu teuer durch die Super-Version und mit den 12GB am Punkt, wo bei 1440p schon erste Unkenrufe kommen. Hier die 8800 sauber eingereiht ist vielleicht schon der Grund, warum Nvidia die Karte mit langserem GDDR6 ausrüsten will, um die mehr Platz für Preissenkungen zu schaffen. AMD könnte hier die "alte" Mittelklasse wieder zurück bringen, die Nvidia durch die 4000er-Generation ziemlich frech verschoben hat. Und wenn da nun auch endlich die Effizienz bei AMD stimmt und man nicht mit mehr als 10% im RT abstinkt dann kann das eine verdammt gute Generation werden ohne Spitzenmodell.

Daher ist mir die Leistung ehrlich gesagt in der Erwartung gar nicht so wichtig. Effizienz, Aufholjagd bei RT gegen die Kritiker und Preispositionierung sind viel, viel wichtiger als der reine Wert, der am Ende unterm Strich steht. Denn die Pfründe beim Umstieg auf 1440p sind noch sehr groß, die es zu verteilen gilt. Die Steamzahlen sind eindeutig:
1724858240858.png

1724858395938.png
 
  • Gefällt mir
Reaktionen: Schmuppes, SweetOhm und Corpus Delicti
Zurück
Oben