News Navi 48 mit RDNA 4: Erste GPU für Radeon RX 8000 im Geekbench gesichtet

Iconoclast schrieb:
Die 8000er Reihe wird sowieso maximal uninteressant. Damit wird AMD nix bedienen, was man von der Leistung her nicht auch schon seit 1-2 Jahren bekommt.
Glaskugel? Sofern die RT Leistung deutlich steigen sollte, der Stromverbrauch vermindert wird, das Featuresetting besser wird und die Preise stimmig sind, ist da sehr wohl ein Markt. Die 7XXX Reihe hat einige Schwächen die man Ausbügeln sollte bzw. durchaus ein besseres Gesamtpaket schnürren könnte. Es gibt noch eine Mange Leute da draußen die noch auf GPU Generationen aus der GTX 1XXX Reihe und RX 5XX/Vega unterwegs sind und eine gute Alternative wollen.
Neu muss nicht immer schneller sein. Es muss nur insgesamt, mit allem drum und dran besser sein.
 
  • Gefällt mir
Reaktionen: Czk666
DiePalme schrieb:
Es gibt noch eine Mange Leute da draußen die noch auf GPU Generationen aus der GTX 1XXX Reihe und RX 5XX/Vega unterwegs sind und eine gute Alternative wollen.
Das stimmt. Die Erkenntnis, dass meine Vega 56 alt und schlapp ist, traf mich erst kürzlich und plötzlich. Eigentlich hätte ich gerne sofort eine 7900 GRE, aber mangels Wasserblocks für diese Karten kann ich besser entweder eine 7800 XT kaufen (ungern) oder auf eine 8800 XT warten. Vielleicht ja letzteres, als Weihnachtsgeschenk.
 
  • Gefällt mir
Reaktionen: Gaugaumera
Ich bin gerne bei AMD bezüglich Grafikkarten unterwegs aber bin aktuell mehr als unzufrieden mit dem aktuellen Line up:

Raster ist man nur bei 5-10% besserem P/L als bei NV. Bei allem anderen sieht man nicht mal mehr die Rücklichter.
DLSS, Reflex, Raytracing, Effizienz, Vram Nutzung, AI, Nvenc....

Momentan ist aus meiner Sicht keine einzige aktuelle Radeon Karte empfehlen. Am besten stehts noch mit der RX6600. Traurig.

Ich hoffe auf einen Befreiungsschlag ansonsten ist das Thema Radeon für mich bald abgehakt.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Iconoclast und stevefrogs
Witzig, dass es 11 Seiten an Diskussion gibt aber niemand die Gesamtergebnisse mal hinterfragt hat und sich die Einzelergebnisse angeschaut hat.
@Jan
Einzelergebnisse findet man hier.
https://browser.geekbench.com/v6/compute/2661917

User "Basix" im 3Dcenter-Forum hat die Einzelergebnisse mal mit einer 7800XT verglichen. Meist sind diese etwas langsamer (<5%) aber ein paar mal auch schneller als eine 7800XT. Bis auf 2 Ausreisser, die dann wohl den Gesamtscore verhageln. Vermutung meinerseits: Unfertige(oder nicht vorhandene) Treiber.
n48_geekbench.JPG


Geht man jetzt davon aus, dass der Shadertakt statt bei 2,1 Ghz im finalen Produkt bei 2,9Ghz liegt (RDNA 3,5 zeigt wo die Reise hingeht) und statt 56CUs in der Vollausstattung die kolportierten 64CUs zu Werke gehen, dann haben wir auf die Ergebnisse nochmal ~55% mehr Rohleistung. Die wird sich zwar nicht ganz in Benchmarkergebnissen wiederspiegeln, aber, dass eine 7900XT, die 30% schneller ist als eine 7800XT geschlagen wird und man in manchen Ergebnissen einer 4080 (welche genau 50% schneller ist als die 7800XT) nahe kommt, halte ich angesichts dieser Umstände für realistisch.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Jan
Ich verstehe nicht wie Leute immer chill weg lassen, wenn es um das Thema Effizienz geht. Auf lange Sicht sparst du damit mehr Strom als wenn deine Karte im Limit 30-50 Watt weniger verbraucht.
 
@Czk666 Vermutlich weil viele Leute aufgrund möglicher tReiBeRpRoBlEMe noch nie eine AMD-Karte im System hatten. Chill ist wirklich toll, wenn das Spiel gut damit umgehen kann. Gerade bei Cutscene-lastigen Sachen wie The Witcher 3 oder The Last of Us. Beim Zugucken reichen mir dann auch 60FPS. Und die Treiber bei Nvidia zicken bei mir deutlich mehr als bei AMD.

Aber selbst mit Chill konnte meine 7900 XT nicht mithalten. Die 4080 Super bringt vergleichbare Leistung bei durchschnittlich 200W auf die Straße, auch ganz ohne Framelimit. Mit AMD hatte ich sowas dann in Kombination mit Chill in den Cutscences, aber unter 280W ohne spürbaren Leistungsverlust bzw. Framelimit war mit meiner Karte nicht machbar.
 
Habu schrieb:
Aber selbst mit Chill konnte meine 7900 XT nicht mithalten. Die 4080 Super bringt vergleichbare Leistung bei durchschnittlich 200W auf die Straße, auch ganz ohne Framelimit. Mit AMD hatte ich sowas dann in Kombination mit Chill in den Cutscences, aber unter 280W ohne spürbaren Leistungsverlust bzw. Framelimit war mit meiner Karte nicht machbar.

Das sind ja auch 2 verschiedene Leistungsklassen. :)
 
@Czk666 Naja, die XT ist so nahe an der 4080 wie die 4080 an der XTX ist. Die 5-10% machen jetzt nicht den Unterschied. Außer natürlich man nimmt noch die Cyberpu...ääähh ich meine Raytracing-Performance in die Rechnung auf. ;)

Würde da eher von zwei Preisklassen sprechen, Leistung haben beide genug.

Aber es sind schon deutlich mehr als 30-50W Unterschied, gerade wenn man genügsame Spiele betrachtet. Die XT gönnt sich einfach immer. Spiele gerade Like a Dragon: Ishin und bin da in 4k/120FPS bei 100W. Das verbraucht AMD da ja schon beim Video gucken.
 
Zuletzt bearbeitet:
mae schrieb:
AMD baut auch z.B. Ryzen 3100, 3600, und 5600 aus mehreren dies und verkauft sie billig, so teuer kann das advanced packaging nicht sein.
Als Advanced Packaging werden Techniken wie zum Beispiel Fanout, Silizium Brücken, Silizium Interposer oder Hybrid Bonding bezeichnet.

AMD verwendet Hybrid Bonding für den 3D V-Cache*). Ansonsten verwendet AMD bisher bei den Ryzen, Threadripper und EPYC CPUs kein Advanced Packaging. AMD plaziert die Chiplets immer noch auf dieselben Substrate, wie sie für alle monolithischen CPUs eingesetzt werden.

Bei der Navi 31 und 32 setzt AMD Fanout ein. Mit dieser Technik kann man deutlich feinere Leiterbahnen und Kontaktflächen realisieren. Damit konnte AMD über viele Verbindungen die hohe Bandbreite bereitstellen, die GPUs benötigen.

Für eine Multi GCD GPU ist Fanout alleine nicht ausreichend. Entweder
  • wird Silizium Brücke in das Substrat bzw. in das Fanout eingebunden
    • Intel bindet bei EMIB die Silizium Brücke in das Substrat ein
    • AMD bindet bei der MI200 die Silizium Brücke ins Fanout ein
  • oder
  • wird ein Silizium Interposer verwendet
Silizium Brücken als Bauteile sich sind viel billiger als Silizium Interposer. Aber bei der Montage eines Packages mit Silizium Brücken gibt es Herausforderungen. Und diese steigen mit der Anzahl der verwendeten Silizium Brücken.

Jeder Die der platziert wird muss sowohl auf dem Fanout als auch auf den Silizium Brücken korrekt plaziert werden. Die Anordnung der Kontaktflächen von Silizium Brücken & Fanout müssen exakt zu den Kontaktflächen auf dem zu plazierenden Die passen. Beim ganzen Vorgang dürfen sich Silizium Brücken und Fanout nicht relativ zueinander bewegen. Die herausfordernde Montage dürfte der Grund sein warum AMD bei der MI300 einen Silizium Interposer verwendet.

Silizium Interposer sind teurer. Ein Kostentreiber sind die TSV. Die Montage der Dies ist einfacher und hier ist auch von Vorteil dass Interposer und Chipets denselben Wärmeausdehnungskoeefizienten habenA aber je größer der Interposer wird, desto problematischer sind die unterschiedlichen Wärmeausdehnungskoeefizienten von Silizium Interposer und Substrat.

*) Das AMD Client Segment hat ziemlich bescheidene Margen. Das beruht IMO auch auf dem hohen Anteil an X3D CPUs.

mae schrieb:
Auf der anderen Seite kostet jedes die Maskenkosten, die nach dem, was ich gelesen habe, bei $10M liegen. Wenn man davon dann wenige (z.B. nur 100000) verkauft, weil fast alle Spieler und AI-Kunden Nvidia kaufen, dann kosten allein die Masken fuer das Extra-die $100 pro Stueck; ob advanced packaging teurer ist?
Die Masken sind nur ein Teil der Entwicklungskosten, die für einen einzelnen Dies anfallen. Diese Kosten liegen deutlich höher und sind IMO der Grund dafür warum AMD je Generation deutlich weniger Dies auflegt als Nvidia.

Wegen der hohen Entwicklungskosten der einzelnen Dies bin ich skeptisch, dass AMD tatsächlich vor hatte 3 verschiedene Dies für 3 verschieden Multi GCD GPUs zu entwickeln. Es ist natürlich nicht auszuschließen, weil zwei GCD zu verbinden einfacher ist als 4 GCDs zu verbinden. Aber aus einem Die mehrere GPUs zu machen, passt IMO besser zum bisherigen Vorgehen AMD.

Auch das Entwickeln jedes Packages (GPU) erfordert einiges an Entwicklungsaufwand. Bei einer GPU reden wir von mehreren 10 000 Verbindungen zwischen den GCDs. So etwas zu entwerfen ist nicht trivial und hier muss das komplette Package simuliert und validiert werden. Dabei fällt für eine Multi GCD GPU ein erheblich höherer Aufwand an als für eine Chiplet CPU.

Zusätzlich zu diesen Entwicklungs-Kosten, die vor ab anfallen, kommen die Kosten für die zusätzlichen Prozessschritte, zusätzlichen Teile (Silizium Brücken bzw. Interposer) und des Ausschusses bei den zusätzlichen Prozessschritten. Diese Kosten fallen für jede einzelne GPU an. Auch hier sind die Kosten erheblich höher als sie momentan für CPUs anfallen. Mit der Reife der Prozesse fallen die Kosten durch Prozessoptimierung, d. h., zum Beispiel durch mehr Durchsatz oder weniger Ausschuss.

AMD ist bei RDNA3 den Schritt gegangen ist mit dem MCD Cache und Memory Controller aus der GPU zu lösen. Dadurch wurde der GCD erheblich kleiner als die monolitische GPU. Aber dies kann nur ein erster Schritt sein. Auf längere Sicht führt auch bei Gaming GPUs nichts an Multi GCD GPUs vorbei.

Wahrscheinlich ist der Punkt für Multi GCD GPUs bei AMD schon erreicht, bevor das GCD das Reticle Limit überschreitet. Durch das Ausgliedern der MCD hat AMD jedoch einiges ab Spielraum für den GCD gewonnen. Deshalb bin ich sehr skeptisch, ob AMD bereits bei RDNA4 Multi GCD GPU benötigt.

mae schrieb:
Anderswo schreibst Du, dass Navi 41-43 gecancelt wurden. Das waere ein Grund, auch eine Mittelklasse-GPU (wo wohl hoehere Stueckzahlen zum Tragen kommen) aus mehreren dies aufzubauen.
Bei der Mittelklasse hat man höhere Stückzahlen aber auch viel weniger Spielraum für zusätzliche Kosten.
Gerade bei der Mittelklasse kommt es darauf an ausgereifte Prozesse einzusetzen. Deshalb ich bin skeptisch, dass AMD gerade für die Produktion von der Mittelklasse GPUs neue komplexe Prozesse einführt.

mae schrieb:
Aber naja, alles Spekulation, wir sehen in ein paar Monaten, wie die GPUs wirklich ausschauen.
Dass wir bloß spekulieren ist doch klar. Wenn wir es wirklich wüssten, würden wir uns nicht in einem Forum über die zukünftigen GPUs austauschen :D.
 
CadillacFan77 schrieb:
AMD kann eigentlich nur mit besserem Marketing versuchen, den Markt zu erschliessen.
Warme Worte eines Werbefuzzis bringen doch niemanden dazu gezielt AMD zu kaufen. Entweder die Karten liefern ab oder nicht.
 
Habu schrieb:
@Czk666 Naja, die XT ist so nahe an der 4080 wie die 4080 an der XTX ist. Die 5-10% machen jetzt nicht den Unterschied. Außer natürlich man nimmt noch die Cyberpu...ääähh ich meine Raytracing-Performance in die Rechnung auf. ;)

Würde da eher von zwei Preisklassen sprechen, Leistung haben beide genug.

Aber es sind schon deutlich mehr als 30-50W Unterschied, gerade wenn man genügsame Spiele betrachtet. Die XT gönnt sich einfach immer. Spiele gerade Like a Dragon: Ishin und bin da in 4k/120FPS bei 100W. Das verbraucht AMD da ja schon beim Video gucken.

Und wieviel verbraucht die 4070ti? Ist doch logisch, dass das größere Modell weniger verbraucht?
100 Watt verbraucht sie nun aber auch nicht beim Video gucken.
Aber wenn du viel nebenher machst, außer zocken kann Nvidia tatsächlich die bessere Wahl sein, wenn es um Strom geht.
 
Hoffentlich passiert mal was im mittleren-hohen Preissegment von 200-500€.
 
dermatu schrieb:
Warme Worte eines Werbefuzzis bringen doch niemanden dazu gezielt AMD zu kaufen. Entweder die Karten liefern ab oder nicht.
Werbung macht nur einen kleinen Teil der Marketing Ausgaben aus.

Eine der Aufgaben des Marketings ist dafür zu sorgen, dass die Programmierer wissen, wie sie programmieren müssen, damit die AMD Karten abliefern können.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Das fällt auch unter Marketing. Ok. Dann würd es tatsächlich Sinn machen.
 
Czk666 schrieb:
100 Watt verbraucht sie nun aber auch nicht beim Video gucken.
In 4k und mit HDR kommt das schon hin. Zumindest bei meinem Setup, da kostete HDR alleine schon 40W mehr. Und auch wenn man innerhalb der Leistungsklasse bleibt und mit der XTX vergleicht, hat man da im Schnitt 50W-100W weniger bei Volllast. Mit Undervolting wird das nochmal etwas mehr, da kann man bei RDNA3 leider nicht so viel rausholen.

Forza Horizon 5 zeigt das Problem ganz gut auf. Das scheint eher eine geringe Shaderlast zu haben und den AMD-Karten ist es einfach völlig egal, die gehen direkt ins Power Limit. Das passiert bei Ada egal in welcher Leistungsklasse nur bei wenigen Titeln und auch bei RDNA2 war das noch besser.

Strom sparen ist aber maximal ein netter Nebeneffekt, mir geht es da eher um Abwärme und Lautstärke. Die XT hing auch bei vielen älteren Titeln einfach ständig im Power Limit, wenn ich nicht FPS begrenzt und das Treiber FSR genutzt habe. Das wurde dann schon unangenehm warm diesen Sommer und man sitzt nach 30Min zocken im eigenen Saft. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iconoclast
Czk666 schrieb:
Und wieviel verbraucht die 4070ti? Ist doch logisch, dass das größere Modell weniger verbraucht?
Die RTX 4070Ti und die RTX 4070Ti super laufen mit der selben Leistung wie die Stock Karten bei CB/PCGH....allerdings auf 200W optimiert. Der Vorteil zu RDNA3 ist einfach...wenn man mit 60+ FPS zufrieden ist senkt man den Verbrauch/Abwärme schon enorm.

https://www.computerbase.de/forum/t...-uhd-um-1-000eur.2132283/page-2#post-27926901
https://extreme.pcgameshardware.de/...ytracing-wirklich.648994/page-9#post-11603122
https://extreme.pcgameshardware.de/...m-wenigsten-strom.651145/page-3#post-11648425
 
DaHell63 schrieb:
Der Vorteil zu RDNA3 ist einfach...wenn man mit 60+ FPS zufrieden ist senkt man den Verbrauch/Abwärme schon enorm.
Das klappt auch mit RDNA3 sehr gut:

1724836073245.png


Der Vorteil bei der aktuellen Generation ist, dass Nvidia-Karten das Power Limit in den meisten Titeln nicht ausschöpfen müssen, um ihre volle Leistung zu bringen. Das ist bei RDNA3 nicht der Fall. Ich hoffe, die kommenden AMD-Karten kriegen das wieder in den Griff. Wenn man viele Indie-Spiele und ältere Titel spielt, ist das schon ein ziemlicher Nachteil, wenn es um Stromverbrauch und Abwärme geht.
 
Zuletzt bearbeitet:
Syrato schrieb:
@konkretor hoffentlich etwas gutes!
Schön sparsam mit doppelter 4090 Leistung 🤯...
AMD selbst erwartet nicht mal 7900 XTX Leistung... sieht man auch an dem schmalen BUS und wenigen CUs also eher 3/4 der Leistung einer 4090... mit 2/3 des RAMs.
 
Zurück
Oben