News AMD RDNA 3: Navi 31 könnte mit 3 Modellen ab Oktober starten

MasterAK schrieb:
Nvidia erhöht seine FP32 ALUs um 80% für die 4090. AMD erhöht seine FP32 ALUs um bis zu 140% für Navi 31. Beide schrauben am Takt und an den Caches. Ich sehe hier am Ende eher AMD vorn.
Ich sehe das genauso, wobei noch eine Frage bezüglich der ALUs offenbleibt: Bei RTX 3000 hat Nvidia das Verhältnis zwischen FP32 und Int32-ALUs von 1:1 auf 2:1 geändert. AMD ist mit RX 6000 meines Wissens nach immer noch bei einem Verhältnis von 1:1. Sofern bei AMD nun also ein ähnlicher Schritt gegangen wird, würde es zwar 2,4x so viele FP32-ALUs geben, jedoch nur 1,2x so viele Int32-ALUs, was unterm Strich auch nur zu ~80% mehr Performance bei gleichem Takt führen würde. Diese Zahlen sind also noch allesamt mit Vorsicht zu genießen.

Hoffnung gibt allerdings folgendes: AMD gibt RDNA 3 als >50% effizienter im Gegensatz zu RDNA 2 an. Gekoppelt mit 450 gegenüber 300 Watt wären das rechnerisch also mindestens 2,25x so viel Performance. Mit den im Artikel erwähnten 375 Watt landet man hingegen dann doch wieder "nur" bei 1,875x so viel Performance, also auch wieder nur dem, was bei Nvidia realistisch ist.

Es bleibt also nach wie vor unfassbar spannend! Meine Prognose ist aber auch, dass AMD diesmal die Nase vorne hat, vor allem bei der Effizienz! Aber ich denke, der Abstand wird nicht so groß ausfallen, wie von einigen erhofft.

AMD hat jedoch noch ein weiteres Ass im Ärmel: Das Chiplet-Design. Es gab ja im Vorfeld zahlreiche Berichte über ein Modell mit 15360 ALUs, die durch die mehr oder weniger bestätigten 12880 dann doch wieder entkräftet wurden. Jedoch gab es von Anfang an Gerüchte zu einem möglicherweise geplanten Modell, bei dem zwei GPU-Chiplets verwendet werden, wobei neue Gerüchte dabei von zwei Navi 32-Chiplets sprechen, was sogar bis zu 16384 ALUs ermöglichen würde. Da AMD mit dem Infinity-Cache ohnehin bereits ein Multi-Chip-Design verwenden wird, bliebe diese Option also tatsächlich realistisch offen, sodass AMD im Falle einer grünen Überlegenheit sehr einfach kontern und dann ziemlich sicher die Performancekrone erobern könnte.

Ich kann mich echt an kaum eine Zeit erinnern, in der ein Hardware-Release derart spannend war! :D
 
  • Gefällt mir
Reaktionen: Icke-ffm, MasterAK und Onkel Föhn
SaschaHa schrieb:
Hoffnung gibt allerdings folgendes: AMD gibt RDNA 3 als >50% effizienter im Gegensatz zu RDNA 2 an. Gekoppelt mit 450 gegenüber 300 Watt wären das rechnerisch also mindestens 2,25x so viel Performance. Mit den im Artikel erwähnten 375 Watt landet man hingegen dann doch wieder "nur" bei 1,875x so viel Performance, also auch wieder nur dem, was bei Nvidia realistisch ist.
Das Problem ist wie immer, dass die Angabe ganz allgemein für "RDNA3 vs RDNA2" gemacht wurde, aber niemand weiß, welche Karten sie dafür genau verglichen haben.

Wenn ich ne 7900XT mit 350W gegen eine 6900XT mit 300W vergleiche, könnten da z.B. +50% Perf/W rauskommen, wenn die 7900XT 75% schneller ist.

Bedeutet aber nicht, dass es bei der GPU mit 400 oder 450W vs 6900XT genauso aussieht, hier könnte der Perf/W Unterschied auch geringer werden, man weiß es nicht.

Da zum Zeitpunkt der Aussage auch bereits die 6950XT auf dem Markt war, die ineffizienter als die 6900XT ist, könnte es ja sogar sein, dass AMD diese als Vergleich genommen hat und schon bräuchte eine 7900XT für +50 Perf/W nur noch 50% schneller als die 6950XT bzw ~60% schneller als die 6900XT sein.
 
Das ist ein, wenn auch kleines, größer als Zeichen >50% auf de offiziellen Folien.

Wie sich das jetzt genau zusammen setzt, erfahren wie eh erst mit den ersten Die Shots/release.

Auf jeden Fall würde ich jetzt! Keine neue derzeit aktuelle high end Karte mehr kaufen.
 
SaschaHa schrieb:
Sofern bei AMD nun also ein ähnlicher Schritt gegangen wird, würde es zwar 2,4x so viele FP32-ALUs geben, jedoch nur 1,2x so viele Int32-ALUs, was unterm Strich auch nur zu ~80% mehr Performance bei gleichem Takt führen würde. Diese Zahlen sind also noch allesamt mit Vorsicht zu genießen.
Momentan braucht man in Games nur rel. wenig INT, so ca. 20% maximal.
(RDNA2 kann FP32+INT , aber Ampere kann nur FP32 oder INT, ... kostet also bei Ampere mehr Performance)

Ein Gamechanger könnte evtl. XeSS mittels DP4a werden, was 4x INT8 nutzen kann.
Aber auch Dafür wirds wohl reichen. Mal schauen, ob Intel im August endlich mal ein Game zeigen kann,
was XeSS unterstützt, wo dann auch Jeder mit Rot/Grün testen kann.
(ne nutzbare Techdemo wäre ja auch ausreichend, und dann bitte XeSS als OpenSource, damit die Modder...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa
kachiri schrieb:
Die "rundeste" Karte war wohl die 6800.
Von der Effizienz her, aber hat die Karte wirklich 16GB gebraucht oder hätten 12 GB nicht vollkommen ausgereicht, denn (nicht nur) besonders im RT-Raytracing ist diese GPU (durch den stark beschnittenen Chip) dann doch spürbar schwächer als eine RX 6800XT, wenn man noch ein brauchbares RT-Raytracing-Vergleichsniveau zu nVidia GPUs halten will (denn dann braucht es mindestens eine RX 6800XT).

Der MSRP/UVP ist auch - und das haben einige schon zum Marktstart damals moniert - zu hoch angesetzt gewesen für die RX 6800 im Vergleich zum größeren Bruder etwa.

Übrigens, bevor erste Tests/Benchmarks draußen waren, hatte ich auch gedacht, dass die RX 6800 als kleinste 16GB Karte (untere Oberklasse) die beste Wahl wäre, aber ich denke die RX 6800XT ist bei dem Preisverhältnis immer noch die deutlich bessere Wahl (und war beim Drop im AMD Store auch immer am schnellsten vergriffen).
Die Leistung der RX 6800 ist bspw. bei Cyberpunk 2077 schon deutlich limitierter gewesen und i.a. ist man mit einer RX 6800 nicht so weit weg von einer RTX 3070(Ti), die als Einsteiger-4K/UHD-Karten mit (Speicher- und Leistungs-)Limitierungen gelten, wohingegen die nächst größeren Karten (RX 6800XT und RTX 3080) deutlich mehr Leistungsreserven bieten ohne zu deftigen Aufpreis.

Letztendlich hängt es natürlich auch vom individuellen Nutzerprofil ab, welche Karte insgesamt am "rundesten" herüberkommt, denn für viele ist RX 6800 bspw. schon viel zu weit über dem eigenen Budget- oder auch Verbrauchslimit angesetzt und daher keine Option gewesen.
 
Momentan 6800nonXT=609€ vs. 6800XT=749€!? ... mit je 3x Games
bzgl. Verbrauchslimit gibts keine Bedenken mit der 6800, zusätzlich kann man ja ein sinnvolles Fps-Limit nutzen
(übrigens ist ne 3070Ti ist vom Verbrauch her keine Alternative und kostet derzeit 679€ ohne Games bei MF)

Net Jeder will mit ner 6800nonXT in 4k spielen und RT ist eeh für diese User uninteressant.
z.Bsp. in WQHD :
 

Anhänge

  • Watt@1440p-144fps.JPG
    Watt@1440p-144fps.JPG
    116 KB · Aufrufe: 199
  • Watts@1440p.JPG
    Watts@1440p.JPG
    58,9 KB · Aufrufe: 208
Zuletzt bearbeitet:
aemonblackfyre schrieb:
es geht speziell um die grafikkarten die eben so viel mehr in der spitze aufnehmen können. bei der 30er serie sinds 2-2,5x TDP als Spitze bei der 40er geht das wohl in Richtung 3+xTDP kombiniert mit höheren TDPs wird das schnell eng werden.
Es geht hier im Thread aber mehr um RDNA3 und als um Ada Lovelace GPUs und da dürfte man doch schon einen spürbaren Unterschied bei Effizienz/Netzteil-Belastung erwarten können, wenn man etwa den Aussagen im WccfTech-Artikel bzw. dem Netzteil Rechner von Seasonic Glauben schenkt:

Mittlerweile sind die RDNA3 Modelle vom Seasonic Rechner wieder verschwunden, aber ich mache mir dahingehend eher weniger Sorgen und selbst bei einer aktuellen RX 6950XT ist mein Focus GX 850W Netzteil noch als ausreichend angegeben (in Kombination mit meinem i7-12700, 3 SSDs und 3 Lüftern) und mehr als eine RX 7800XT (die zur Not noch undervoltbar wäre, aber ich bezweifle, dass diese soviel wie eine RX 6950XT verbrauchen wird) wird es bei mir und den meisten anderen sowieso nicht werden.

Auch bezüglich Ada Lovelace GPUs mache ich mir da keine Sorgen, zumal oberhalb einer RTX 4080 es sowieso komplett uninteressant wird für mich und die große Mehrheit, da das nur noch für eine Nische gedachte Halo-/Prestige-, evt. noch Content Creator- und nicht mehr wirklich Gaming-Karten zu den zu erwartenden absurden Preisen werden, und undervoltet (auf vielleicht 250-300W) dürfte man eine - Gerüchten nach maximal ab Werk mit 400W kommende - RTX 4080 auch noch problemlos schaffen.

Es müssen also nicht gleich immer die oftmals propagierten (deutlich teureren) 1000(+)W Netzteile sein und natürlich hängt das auch von der eigenen PC Konfiguration/den eigenen Ansprüchen ab, aber bei mir stelle ich 850W für ein Netzteil als Maximum auf, mehr Energie bin ich nicht bereit in meinem PC zu verbraten (und an Abwärme zu produzieren).
Darüber haben die Chip-Entwickler Pech gehabt bzw. entwickeln an meinen Bedürfnissen vorbei mit den teureren Produktklassen, zumal ich die Leistung auch nicht brauche.
 
Zuletzt bearbeitet:
GerryB schrieb:
Momentan 6800nonXT=609€ vs. 6800XT=749€!? ... mit je 3x Games
Genau, Momentaufnahme und vor einigen Wochen gab es RX 6800er Karten übrigens schon für 579Euro, also sind die aktuellen Mindfactory Preise alles andere als günstig.

Das Game-Bundle ist eine nette Zugabe (wenn die Spiele den eigenen Geschmack treffen), aber nicht entscheidend, ob und welche Grafikkarte ich kaufen würde und ich denke das geht den meisten so ;).

Ja klar, die RTX 3070Ti ist die leider von nVidia mit Abstand verhunzteste Ampere Karte mit nur mickrigen 8GB Speicher und mieser Effizienz auch im Vergleich zur RTX 3070, viel zu teuer angesetzt und empfehlen würde ich diese GPU keiner/keinem. Zwischen einer RTX 3060Ti und einer RTX 3080 12GB würde ich da auch nichts empfehlen von nVidia, da das alles relativ "unrund" geworden ist.

Na gut, das sehe ich etwas anders, bei 16GB Speicherausbau (die man ja auch mitbezahlt) sind uneingeschränktes 4K/UHD (mit mindestens 60fps in hoher Auflösung) durch die Bank eigentlich schon gesetzt (es ist keine 12 GB Karte für die WQHD aktuell bei AMD/RTG als ausreichend befunden werden), ebenso wie einen gewissen Gegenwert im RT-Raytracing (wpfür es auch das mehr an Speicher braucht) und das erfüllt die RX 6800 aktuell leider nicht, der größere Bruder hingegen (z.T.) schon.

Für WQHD reicht auch eine deutlich günstigere RX 6700XT aktuell noch locker aus, da braucht es nicht die aktuell ca. 150 Euro mehr (die in keiner gesunden Relation zur benötigten Leistung stehen) für eine RX 6800, es sei denn vielleicht für ganz spezielle Titel/Anforderungsprofile.
 
Mal über die Leute mit UWQHD nachgedacht?

Es gibt schon Games wo ne 6700xt zu schwach ist.
... und ne 6800xt net unbedingt erf.
(dann lieber mal inGame nen Regler benutzen, ... statt ne XT kaufen und mehr W rausballern)

btw.
Für Aufrüster ist die 6800nonXT auch bezgl. NT interessanter: ... wenn das alte NT reicht
(OCen geht dann mit UVen trotzdem noch)
 

Anhänge

  • NT vs. 6800_5900@gaming.JPG
    NT vs. 6800_5900@gaming.JPG
    109,3 KB · Aufrufe: 173
Zuletzt bearbeitet:
Versteh ich das richtig das die 12228 Shader vom 31 der größte Ausbau sind mit einem Chip ?!
Weil wen ja dann könnte AMD also später eine Chiplet Karte mit 24456 Shadern bringen irgendwie bin ich da gerade :freak:
 
Den Hauptchip 2x reinsetzen bringt bestimmt zusätzliche Latenzen und wird wohl deswegen net kommen.
AMD hat zwar ein Patent angemeldet, wie dann die Aufteilung der Last/tiles erfolgen kann, aber ist wohl noch net genug erprobt.
Derzeit gibts nur einen Hauptchip und kleinere Chips für den Cache drumherum.
 
Aber sollte doch mit der Gen Chiplet kommen oder ist damit nur das auslagern des speicherinterfaces und des Infinety Caches auf einen separaten Chip gemeint ?
Weil ja auch schon Karten mit 15000 und 16000 shadern genannt wurden ???
 
Erstmal senkt MCM jetzt Kosten weil man den 5nm-Hauptchip mit 6nm-Cache auf einem Chiplet kombinieren kann.
(und theoretisch dann kleinere Chips mit besserer Yieldrate produziert)

... würde davon ausgehen, das AMD sicherlich preislich interessant sein kann, ... ohne Verluste zu machen
ob
dann in der 450W Klasse NV schneller ist in Rastergames, who knows (hat nen eigenen N4=5nm-Prozess)
 
Zuletzt bearbeitet:
zeedy schrieb:
Die 20 CUs Version von Navi 33 ist auch Quatsch, oder wann hat AMD zuletzt eine GPU angeboten wo die Hälfte der CUs deaktiviert war?
Nativ 40 CU und Selektion mit 32 CU spricht für 5x 8CU Struktur, also Varianten 5x, 4x und 3x freigeschaltet = ab 12 WP/ 24 CU. Bei 96 statt 128 Bit dann 60% (langsame DRAM) bis 75% DRAM Transfer, was auch für 12/24 eher passt.
Bei Little Phoenix (5nm) spricht man von 4WP/8CU, also nur 1x diese Struktur.
 
Sofern eine Karte mit zwei Compute-Chips kommt, wird diese nicht auf den Vollaufbau setzen und auch nicht zu Beginn kommen. Vermutlich wird man eine solche Karte für nächstes Jahr vorbereiten, damit man noch etwas mehr als einen Refresh bringen kann. Wie bereits zuvor gesagt wird dabei auf 2x Navi 32 spekuliert, also bis zu 16384 Shader, wobei auch etwas weniger möglich sind, um die Ausbeute zu erhöhen.
 
In dem Fall kann man sogar die Reste von Navi 32 verwerten, der soundso erst nach Navi31 kommen soll.

btw.
Man darf net vergessen, das AMD auch CPU`s von dem 5nm Kontingent produzieren möchte.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Zurück
Oben