News RDNA-3-Gerüchte: Mit AMD Navi 31 stehen ein Umbruch und 15.360 Shader an

Welche Infos hat denn @patrickschur ??

Ich bin gespannt darauf wie sich MultiGPU im Chiplet Design überhaupt schlägt.
Bisherige MultiGPU Anstätze waren ja immer mit Mikrorucklern verbunden.

Da AMD die Latenzen aber bei Zen auch soweit im Griff hat, kann ich mir schon vorstellen das RDNA3 ein Brett werden kann.
 
.Sentinel. schrieb:
Auch ein blindes Huhn findet mal ein Korn und wenn man wie z.B. Mooreslawisdead nur genügend schwurbelt und zwar in alle Richtungen, kann man im Nachhinein immer irgendwas sehen oder finden, was seine "Leaks" oder Schätzungen unterstreichen könnte.

Gerade mooreslawisdead ist so ein absonderlicher, reißerischer, "verschwörungstheoretisierender" Schwurbler, das ist kaum auszuhalten. So wie die Klatschpresse über Skandale bei den Royals bullshittet, macht der das im Bereich PC-Hardware.

Eine seriöse Seite sollte dem Typen so wenig wie möglich Bildfläche bieten, gerade weil er sich mindestens einen Teil seiner "Informationen" offenbar wirklich nur aus dunklen Körperöffnungen zieht. Aber wenns explizit um Gerüchte geht, wird man ohne den kaum können, leider. Zu bekannt mittlerweile.
 
DarkInterceptor schrieb:
hat mich eigentlich immer gewundert wie amd mit der hälfte an shadereinheiten gegenüber NV so eine leistung bringen können. eine 6900xt hat ca 50% der shader, ist aber ungefähr auf augenhöhe abseits RT. je nach game mal mehr mal weniger.
Du beantwortest es selber. Nebst der Aufbereitung der Szene müssen die Shader eben auch ausgelastet werden.
Dass werden sie in RTRT Szenarien oder in hohen Auflösungen.

Beispielsweise hier:
1627384338265.png


AMD und NVIDIA haben mit ihren Karten unterschiedliche Ausrichtungen im Blick gehabt.
 
  • Gefällt mir
Reaktionen: Klever und DarkInterceptor
Mich interessiert vor allem das gesamte Lineup. RX 6000 fand ich ja technologisch sehr attraktiv, preislich leider überhaupt nicht. Aber Ende 2022 haben wir vermutlich wieder eine normale Marktsituation und einen hoffentlich starken Konkurrenzkampf. Evtl. gibt es dann auch mal wieder Grafikkarten für ~350€, die nicht auf demselben Niveau landen wie gleichteure Karten aus dem Jahr 2014.
PS828 schrieb:
3x80CUs maximal (auch wenn sie nicht mehr so heißen) und ein viertes Chiplet für IO und Infinity Cache
2x120 und der dritte (nicht vierte) DIE kümmert sich um den Infinity-Cache, ohne IO. Ein viertes Chiplet ist zumindest Stand jetzt nicht vorgesehen.
PS828 schrieb:
Allerdings darf man sich jetzt schon davon verabschieden dass diese high end Lösungen bisherigen Preisen entsprechen.
Da wär ich mir nicht so sicher. Der Trend über die letzten Jahre ist zwar ein trauriger, aber bei Zen2 hat AMD ja gezeigt, dass durch die Chiplets Prozessoren mit viele Kernen erschwinglich bleiben, weil es die Fertigung stark vereinfacht, die Ausbeute erhöht und ermöglicht, einzelne Teile in kostengünstigeren Verfahren zu fertigen. AMD hat erheblich geringere Preise für CPUs mit vielen Kernen aufrufen können. Man hat gewisse Grundkosten, also vermutlich wird AMD auf absehbare Zeit das Low End komplett streichen. Aber sollte die Konkurrenz in Form von NVidia und dann auch Intel nicht total ins Hintertreffen geraten, dürften sich bezahlbare Preise einstellen.
andi_sco schrieb:
gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?
Preis, Fläche und Wärmeentwicklung. Mehr Speicherbreite bedeutet mehr Datenleitungen und mehr Speicherchips. Diese wiederum brauchen Platz und Strom. Platz bedeutet, die Latenzen steigen und Strom produzieren Hitze. Und dass der Spaß enorm teuer ist, kommt noch oben drauf. GDDR6 ist vergleichsweise sehr teuer und die Stückzahlen gering, da 512 Bit vernünftig zu bedienen rechnet sich nicht. Der Aufpreis wird nicht durch Mehrleistung eingefangen und die Energieeffizienz leidet sehr. Im Test zu RDNA2 hat Wolfgang schonmal angerissen, warum 256Bit + IC die Wahl war.
 
  • Gefällt mir
Reaktionen: HolySkillet, fox40phil, andi_sco und 2 andere
  • Gefällt mir
Reaktionen: JackTheRippchen
Mal abwarten was am Ende bei rauskommt und wieviel so ne Karte dann kostet, falls sie überhaupt erhältlich ist.
 
chb@ schrieb:
Man munkelt AMD zieht auch an Nvidia vorbei, nicht nur beim release date ;)
Tja, Lisa Su hat nicht gelogen, als sie gesagt hat mit RDNA hat man das selbe vor wie mit Zen.

Spannend finde ich wie das dann mit kleineren Karten sein wird.

Sagen wir, wir haben die Vollversion. Zwei GPUs mit 512 MB Cache Chip
Dann die schwächere Version mit zwei GPUs und jeweils deaktivierte Shader
Wie schaut es drunter aus ? Wird es dann ein einzelner Chip sein und wird der dann einen kleineren Cache haben ? 256 MB Cache ? Weil der 512 MB Cache wäre dann ja schon viel zu teurer. (wobei wenn AMD den in Massen fertig lässt und das in einem günstigeren Prozess)
Und wie sieht es dann mit noch kleineren Chips aus, bsp die auch in Notebooks ihr Weg finden. Werden die dann einen eigenen Cache haben ?

Oder reden wir da schon von einer Fertigung, wo die Chips zwar MCM sind, aber dicht beieinander geparkt werden. Spannend.

Letzter Punkt, wie sieht das dann bei APU aus ^^ Wäre lustig eine APU mit (optional) externen Cache und der dann bis 512 MB groß ^^ Da können sie im Endeffekt die low-cost und günstigeren mittleren GPUs einstampfen wenn genug Shader vorhanden.
 
Zuletzt bearbeitet:
andi_sco schrieb:
@SV3N gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?

Die letzte 512bit-Karte noch unter GDDR5
https://cdn.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-PCB.jpg

GDDR6 ist noch ein stück weiter näher am Die. GDDR6X noch viel näher zwecks Singnalstabilität.

Irgendwo müssen noch die Leiterbahnen zum PCIe-Bus verlaufen ;)


2. Punkt ist der Stromverbrauch. Habe mal nen Wärmebildvideo von einer GPU gesehen. Die PHYs sind richtige Biester.
 
  • Gefällt mir
Reaktionen: andi_sco
PS828 schrieb:
Da wird's UVPs zwischen 1500 und 2000 Euro geben.
Der Markt hat doch gezeigt dass auch der Preis bezahlt wird.
PS828 schrieb:
und extreme Leistungsaufnahme aber hier muss man noch vorsichtig sein.
Noch mehr als die OC-Modelle der 3080 TI / 3090 von verschiedenen Herstellern? Wird es dann Kombipacks mit Klimaanlage geben :D?
melemakar schrieb:
Wäre natürlich zu schön, wenn potentiell reduzierte Kosten auch beim Käufer ankommen würden...aber ich glaube, dass das am Ende höchstens die Marge für AMD vergrößern wird
Man sollte auch die Entwicklungskosten nicht vergessen. Die sind bei so komplexen Produkten relativ hoch - und die Tendenz ist steigend da die nächste Generation noch komplexer wird.
Fighter1993 schrieb:
Es ist nie zu spät
Die Zeiten bei denen die AMD Aktie teils deutlich unter 10 Euro lag sind lange vorbei. Wobei wie du sagst kann man immer einsteigen und bei der Börse muss man das Spielgeld auch übrig haben :D.
Grundgütiger schrieb:
Wenn eine Karte aus 3 Chips besteht und schon aktuell die Mono Chips nicht lieferbar sind wird das noch lustig.
Oder besser. Bei höherer Ausbeute wegen kleiner Chips könnte die Verfügbarkeit sogar steigen. Lieferprobleme gibt es wohl auch bei anderen Bauteilen als nur den Siliziumchips ;).
PS828 schrieb:
Hört halt auf alles leer zu kaufen :D dann gibt's auch wieder was.
Für den Beitrag steinigen dich evtl. einige welche gerne im Bereich der UVP kaufen würden aber seit Wochen/Monaten leer ausgingen :mussweg:.
 
  • Gefällt mir
Reaktionen: PS828
andi_sco schrieb:
@SV3N gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?
Unwirtschaftlich, Platzgründe rund um den Sockel und viel zu ineffizient in Sachen Stromverbrauch.

Der Infinity Cache gleicht das ja sehr elegant wieder aus.

Ich halte diesen Weg für den richtigen. Im Consumerbereich werden wir ein 512-Bit-SI genau wie HBM wohl nicht mehr zu Gesicht bekommen.
 
  • Gefällt mir
Reaktionen: Zarlak, fox40phil, andi_sco und 6 andere
.Sentinel. schrieb:
zumal diese "Leaker" überwiegend nicht zu knapp daneben liegen.

Dieser "kopite7kimi" hat ja die 3080 TI in einem seiner "Leaks" auf 10496 Shader, 20GB GDDR6 und den RAM Speed auf Höhe der 3080 gesehen.

Insofern stehe ich solchen Leaks persönlich immer sehr kritisch gegenüber.
Richtig, aber er lag nicht daneben, da NV selbst auf einer Kunden-/Pressekonferenz eine 3080 mit 20GB auf den Folien gezeigt hat.

Also wenn der Leaker das nun als "Gerücht" weiterverbeitet, ist es ja trotzdem ein Fakt gewesen.
Nur weil NV das dann schlussendlich nicht so auf den Markt bringt, hat ja der Leaker dennoch keinen Quatsch erzählt. Zu dem Zeitpunkt war es aber richtig.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT und YetiSB
SoDaTierchen schrieb:
Mich interessiert vor allem das gesamte Lineup. RX 6000 fand ich ja technologisch sehr attraktiv, preislich leider überhaupt nicht. Aber Ende 2022 haben wir vermutlich wieder eine normale Marktsituation und einen hoffentlich starken Konkurrenzkampf.
Von einem großen Bauteilhändler habe ich die Einschätzung, dass sich die Nachschubproblematiken erst 2023 auflösen werden. Noch stehen wohl einige Werke still, die für die Bauteilversorgung notwendig sind.
 
  • Gefällt mir
Reaktionen: Newbie_9000, GERmaximus, Einfallslos^99 und eine weitere Person
@SoDaTierchen stimmt, 120 CU Einheiten muss ich übersehen haben. Aber ja, macht absolut Sinn :D

@I'm unknown zahlen bei der Leistungsaufnahme kann noch keiner machen aber wer weiß was da kommt. OC Modelle oberhalb von 500 Watt sicherlich nicht ausgeschlossen ;)
 
  • Gefällt mir
Reaktionen: SoDaTierchen
ghecko schrieb:
Irgendwie stecken wir schon seit geraumer Zeit bei GDDR6 fest. Erreicht das Prinzip langsam seine Grenze?
Ich hab ja mal wieder auf eine HBM-Karte mit ordentlich Compute-Leistung gehofft, aber AMD scheint dieses Feld auf dem Desktop komplett an Nvidia abzutreten. Sehr schade.
Naja, da gibts auch Entwicklung (GDDR6X), das geht aber eben alles sehr langsam. Darum ja auch der Infinity Cache, der, soweit man das beurteilen kann, bei RDNA 2 einen sehr guten Job erledigt.
johnieboy schrieb:
Diese Gerüchte kommen irgendwie viel zu früh wenn es noch über ein Jahr dauert bis diese Grafikarten auf den Markt kommen sollen.
Wenn die GPUs in einem Jahr oder etwas später kommen, ist das Design jetzt quasi fertig. Da kann es mit korrekten Leaks schon losgehen, wenn diese halt irgendwo da bei der Entwicklung sitzen. Und spätestens nach dem Tape Out gehts eigentlich nochmal so richtig los.
R4yd3N schrieb:
Na hoffentlich funktionieren Multi-Chiplet Packages besser als Multi-GPU Karten. Ich erinnere mich mit Grausen an SLI- und Crossfirelösungen die alle eines gemeinsam hatten: Mikroruckler.
Um Mikroruckler muss man sich da keine Sorgen machen. Spannender ist die frage, wie das ganze skaliert. Das ist wirklich noch völlig unklar.
Floxxwhite schrieb:
Würde mir auch hier nie Karten mit >250 Watt holen. Ich zocke gerne im Single Player ohne Headset und ich würde gern meine Games in Ruhe genießen und nicht bei 45 Dezibel :D
Dann wirst du schätze ich mal bei der Next Gen ziemliches Pech haben. Ich vermute, dass AMD und Nvidia da völlig All In gehen werden, gerade beim Strom.
.Sentinel. schrieb:
zumal diese "Leaker" überwiegend nicht zu knapp daneben liegen.

Dieser "kopite7kimi" hat ja die 3080 TI in einem seiner "Leaks" auf 10496 Shader, 20GB GDDR6 und den RAM Speed auf Höhe der 3080 gesehen.

Insofern stehe ich solchen Leaks persönlich immer sehr kritisch gegenüber.

Auch ein blindes Huhn findet mal ein Korn und wenn man wie z.B. Mooreslawisdead nur genügend schwurbelt und zwar in alle Richtungen, kann man im Nachhinein immer irgendwas sehen oder finden, was seine "Leaks" oder Schätzungen unterstreichen könnte.
kopite7kimi hat schon unglaublich viel richtig geleakt inklusive das gesamte Ampere-Portfolio diverse Monate (glaube knapp ein Jahr) vor Launch. Das ist dann kein Glück mehr. Und auch die 3080 Ti hatte er richtig, von dieser gab es nämlich wirklich viele Variationen. Natürlich ist das alles keine Garantie, aber der hat schon richtig gute Quellen.
andi_sco schrieb:
@SV3N gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?
Ein großes Speicherinterface benötigt sehr viel Platz auf dem Die und benötigt viel Energie. Das muss man mit so einem akzeptieren. Vor allem bei 512 Bit.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT, fox40phil, ThePlayer und 7 andere
Läuft, erscheint RDNA 3 eben früher als 300€-UVP = Straßenpreise-Grafikkarten der aktuellen Gen :rolleyes:
 
Da TSMC ihren N7 Kunden sanft and bestimmt ihren "6 nm" Node Nähe legt, nehme ich einfach Mal an, daß es dieser Node wird. Auch im einiges billiger als 5 nm, wenn man vielen Quellen glauben darf.
 
andi_sco schrieb:
@SV3N gab es damals dafür eigentlich gute Gründe, 512 Bit fallen zu lassen?
Wie @SV3N schon geschrieben hat ist der Infinity Cache die bessere Lösung aus Kosten (PCB Layer vs Chipfläche), Platzbedarf, Verbrauch, etc.
DarkInterceptor schrieb:
wenn nun auch noch die shader erhöht werden, dann halleluja. 8k@60/4k@120 incoming.
Eher 8k@30! FHD => 4k (4 fache Pixel) => 8k (4 fache Pixel). Es wird ja nicht nur die Breite, sondern auch die Bildhöhe verdoppelt ;).
Mister79 schrieb:
Hand auf Herz, wer hat sich hier eine maßlos überteuerte aktuelle Karte gekauft?
Hatte Glück eine 6800 und 6900 XT zur UVP abzugreifen. Ein Kumpel hat die 6800 bekommen und mich hat das Upgrade von einer Vega 56 zur 6900 XT inkl. neuem Netzteil 400€ gekostet. Mein Kumpel ist sogar noch mit Gewinn raus gegangen - die alten GPUs wurden jedenfalls nicht von Spielern gekauft ;).
.Sentinel. schrieb:
Beispielsweise hier:
Wobei man bei DX11 auch beachten muss dass AMD hier den deutlich ineffizienteren Treiber hat. Bei DX12 oder Vulkan Spielen dürften die Unterschiede geringer ausfallen.
PS828 schrieb:
OC Modelle oberhalb von 500 Watt sicherlich nicht ausgeschlossen
Da bin ich echt gespannt. Die 300 Watt der 6900 XT sind eigentlich schon über meinem Limit - nicht wegen dem Lärm (die Karte ist erstaunlich leise für den Verbrauch) sondern weil irgendwann die Abwärme in den wärmeren Monaten ein Problem ist.
 
  • Gefällt mir
Reaktionen: ThePlayer, andi_sco und Einfallslos^99
Schnellerer Speicher ist anscheinend nicht nötig, weshalb man bei dem bewährten GDDR6 bleibt dafür aber den Cache aufbohrt, hat ja schon bei Ryzen funktioniert.

Das Chiplet Design bei GPUs könnte uns endlich mal einen richtig großen Leistungssprung verschaffen.
4K und RT ist dann hoffentlich mit hohen FPS Zahlen möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Wolfgang schrieb:
Naja, da gibts auch Entwicklung (GDDR6X), das geht aber eben alles sehr langsam. Darum ja auch der Infinity Cache, der, soweit man das beurteilen kann, bei RDNA 2 einen sehr guten Job erledigt.
Wie gut/effektiv der Cache arbeitet, werden wir erst in Szenarien sehen, in welchen der VRAM an seine Füllungsgrenze kommt.
Mit Zunahme des zu cachenden Pools sinkt die hit- rate und dann zeigt sich, wie gut AMD dort "balanciert" hat.
 
Zurück
Oben