News Hopper & Lovelace (RTX 4000): Nvidias Next-Gen-GPUs sollen auf TSMCs N5-Prozess setzen

Weiß man inzwischen eigentlich mehr über die Intel Gaming Grafikkarten? Je nach Zeitplan bei AMD und nVidia könnten die direkt wieder hintendran sein...

...außer die Lieferbarkeit wäre bei Intel prima und bei den anderen wieder fatal.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Ein Erdbeben, das sitzt und zack ist weltweit Ruhe im Karton, irre.
 
bad_sign schrieb:
650 sind 600W aus dem PCIe 5 Stecker und 50W
ETI1120 schrieb:
Dann wären wir bei 1200 W
Kein normal denkender Techniker würde eine Steckverbindung dauerhaft an ihrer Spezifikationsgrenze betreiben wollen. Das macht man einfach nicht. Das machen nur Pfuscher. Von daher dürfte man bei solchem Energiehunger durchaus 2 Stecker verwenden. Schon allein wg möglichem OC.
Wird aber nicht passieren.
Ich behaupte mal, im absoluten Extremfall, höchstens 550W
ETI1120 schrieb:
Bei der 6700XT musste AMD gewaltig an der Taktschraube drehen, um die zu wenigen CUs zu kaschieren.
Die Anzahl der Workgroup Prozessoren (WGP) ist verglichen mit der 5700 XT gleich, der Energieverbrauch nahezu gleich geblieben. Und damit haben sie ~25-30% mehr Leistung herausgeholt. Finde ich nicht soo schlecht. Gut, man hätte sich in der Mittelklasse sicher etwas mehr gewünscht.
Ich denke, den Takt haben sie hoch gedreht, weil sie es können. Machen andere doch auch?
Der Chip ist so ausgelegt. Die 5700 ist mit 2000 schon fast an der Kotzgrenze.
Enigma schrieb:
AMD hat sich zum Ziel gemacht, den Fertigungsvorteil zu nutzen, um die Bewerber zu schlagen. Das ist nun nicht mehr möglich.
Sie haben ja immer noch ihr gutes Chipdesign.
Ltcrusher schrieb:
Weiß man inzwischen eigentlich mehr über die Intel Gaming Grafikkarten?
Laut 3D Center wohl ~Q2.
Ob es spürbare Stückzahlen gibt ist wohl auch noch nicht so sicher.
Die werden den Markt wohl auch nicht retten.
hurcos schrieb:
Ein Erdbeben, das sitzt und zack ist weltweit Ruhe im Karton, irre.
Wenn Du dann ein paar Karten zuhause liegen hast, kannst die in Gold aufwiegen lassen.
Muss man sich mal vorstellen, wenn da ein halbes Jahr nicht ein Chip aus der Fabrik käme.
 
  • Gefällt mir
Reaktionen: hurcos
DevPandi schrieb:
-komplettzitat entfernt-
Eben nicht! (Gerichtet an die Zitierten ;))

RDNA 3 wird auf 5nm basieren, lediglich der Interposer drumherum wird in 6nm gefertigt. 6nm kommt sogar bei AMD früher zum Einsatz für Zen 3+.

Die ganzen AMD-Hater wollten sich schon mal freuen...


Außerdem scheint AMD diesmal zufolge nicht nur Vorteile beim Prozess zu haben, sondern auch Architekturbedingt. Das wird richtig heftig im Herbst 22 :)
 
Zuletzt bearbeitet von einem Moderator:
Daluxx schrieb:
Das wird richtig heftig im Herbst 22
Im Herbst 22 kommt doch nach aktuellem Stand nur Navi 33 mit ~ 6900XT Leistung in 6nm. Die wirklichen 5nm Chiplet Designs kommen Anfang 23.
 
Nun ich glaube nicht wirklich dran das atx 3 auf dem desktop kommen wird
Dagegen spricht vieles
erstmal die irren wechsellasten das kann nicht ohne doppelten netzteilen funktionieren
also das man 2 netzteile einsetz an einen pc für jede haupkompomenteeinmal gpu dediziert und einmal fürs system
Und das in einen gehäuse bedeutet 2 stromstecker
das ginge in der eu aber nicht in USa und woanders mit nur 120v netz

Was bedeutet das
zuerst es scheint so als ob man schon jetzt weis das mcm mit directx nicht gehen wird und man quasi sfr nutzen muss
bedeutet das bild wird in teilen gesplittet und wie bei sli zusammengefügt wie einst 3dfx mit den voodoo gpu getan hat.
Die idee dahinter ist nicht neu gänzlich effektiv konnten die chips nicht ausgelastet werden ich glaub man kam bis etwa 80%
darum wurde in sli später mit afr gegengehalten wo man bis zu 90% auslastung erreicht
dann kam auf das durch die unterschiedlichen wartezyklen pro frame es zu mikroruckler kam was den mgpu den sargnagel brachte
Seitdem ist der support dessen quasi zum erliegen gekommen
Mit mcm könnte es ähnlich sein sfr wird kaum die gpu auslasten was den takt pro chip ans limit gesteigert werden muss
Was die effizienz in die tonne befördert oder man nutzt deutlich mehr chipfläche und geht in die breite
Was die kosten pro gpu stark erhöht

10240 shader =160cu was sehr wahrscheinlich ist wovon 120 aktiv sein werden
pro chiplet 80cu 60 aktiv
aktuell 80cu etwa 275w (ohne vram)
5nm Effizienz Vorteil vs 7nm 50% amd nutz davon 20% takt und 20% nimmt man mit
Und 10% gibt man für die fläche auf was die chips aber vergrößer von möglichen 60% kleiner werden dann nur 50%
275*0,8=220w für ein 80cu chiplet
2,1*1,2=2,52 baseclock boost bis zu 2,9ghz effektiv 2,7ghz
mcm dann 2*220+35+30w i/o chiplet=500w
das kann amd nicht ernst meinen
Dies lässt sich in atx 2,52 nicht umsetzen
das max sind bei atv 375w mit spitzen zu 400w
mehr tbp ist nicht drin ohne das man 2 netzteile nutzen wird mit 4x 8 pol stecker
Also min 1,6kw netzteile
Also was soll das
Anstatt die 50% effizienz zu nutzen und mehr chiplets einzusetzen also ab 3 *80cu statt 2*120cu womit wir bei 240cu bei nur 2,4ghz wären für n31
Für den n32 mit 160cu und 120cu aktiven würde das 10% mehr takt und 40% mehr effizienz bringen
275*0,6=165*2+35+30=395w tbp
2,1*1,1=2,3ghz
bei 120cu 35tf vs derzeit 21tf = +64%
allerdings ist die Erwähnung von nur 80% load dann effektiv 35*0,8=28tf vs 21tf =33% schneller
Und das mit 2 chiplets
teuerste fertigung den je
Also muss man den takt min auf 2,7ghz bringen =33tf effektiv was dann +60% wird.
Es steht und fällt mit dem wie mcm umgesetzt wird.
Klappt das ohne Verluste sind 100% mehr leistung möglich pro chiplet
Also das auch 160cu die doppelte leistung haben wird wenn nicht und ich gehe wie gesagt von 80% aus mit sfr
Dann sind diese prognose der leistung realistisch.
Anders sieht das beim monolithen aus
80cu n33 wird nur vom takt profitieren also von derzeit 2,1ghz auf 2,7ghz
und wie oben etwa 220w rdna2 vs 275w rdna3 sein
Nur wird man damit lediglich 27tf erreichen und nur 30% schneller sein.
Ich gehe fasst davon aus das amd dies am desktop als high end verkaufen wird und die mcm aktuell nur in profi segment kommen werden mit dem zweiten bsp und 395w tbp und nur 120cu mit 2,3ghz gibt

Nvidia stattdessen wird dann nur noch den ad104 als high end mit fokus auf effizienz bringen den die sku lassen sich bis zum letzten augenblick anpassen.
vermutliche einspareung vs samsung 8nm zu 5nm tsmc
Differenz von 14nm samsung zu 12nm tsmc waren 30%
samsung verbesssereung zu 14 vs 10 sind 10% von 10nm auf 8nm weitere 10% = 20%
bleibt die differenzu 12nm 10% was dessen bestätigt
7nm vs 12nm sind laut tsmc 60% und zu 5nm weitere 50% möglich
Immer mit denselben takt zu sehen
1,9ghz dann bei ner tbp von 300w (gtx1080ti) dann 120w und dann 60w bei 3584shader
differenz zu samsung seit 8nm 10% bei 12nm =330w dann 132w dann 66w bei 1,9ghz
Dies wird dann fasst komplett in den takt gelegt ich tippe auf min 20% was dann 2,28ghz bedeute
und somit 66*1,2=79w
aber sehr wahrscheinlich geht man auf 40% takt 93 w und dann 2,66ghz
und das ist nurn chip mit nur 60sm (56 aktiv)
Der kleinste lovelace wird 80sm haben und dabei 120w brauchen.
Da nvidia sicherlich sich nicht mit nur 2,6ghz zufrieden gibt wird man die 2,8ghz marke knacken wollen also die ganzen 50% effizienz verbraten am takt 2,85ghz
und tschüss effizienz den ab dann wirds zum quadrat stromhungriger
99w im sweetspot und ab dann ws etwa 1,1v sind auf 1,21v gehen 108w bei 60sm 144w
man bedenkt das der high end bei 120sm je 128shader ist
Die rechnung basiert aber auf 64 shader wie bei turing
ich hätte das auch mit 128 nehmen können wäre aber dasselbe ergebnis
rechne ich das um also 288 (144) shader beim ad102 wird das extrem 518w
daher ist der ad102 am desktop illusorisch
ad104 mit 120 aktiven shader und 144 im vollausbau
282w oder 424w was eher wahrscheinlich ist als high end mit 15360 fp16 shader
424w mit 2,85ghz

nebenbei mit 2,85ghz und 15360shader erreicht nvidia reale 65tf
und mit einer tbp um die 450w

ich glaube eher das man probleme mit dem si haben wird 384 bit und nur 24gbits sind nur 1100gb/s
das ist weit zu wenig um 65tf zu füttern
Der ausweg wäre wie amd ein cache oder hbm2e mit 1024 bis 2048bit
hbm2e etwa 1,2ghz =2450gb/s
Nur will nvidia wohl kein hbm auf dem desktop
Was eben einen release des ad 104 am desktop noch mehr unwahrscheinlicher macht außer man hat gddr7 fest geplant mit 32gbits
das erreicht mit 384bit 1536gb/s
Das würde immer noch zu nen Speicherbandbreiten limit führen
Womit nvidia vermutlich den ad106 als high end bringen wird mit 80sm und 2,85ghz =43,7tf vs aktuell 26,7tf = +64%
also sind amd mit rx7900xt +30% und nvidia mit effizienz nachteil rtx4090 +64% werden
beides dann monolithen
In zahlen dann 41tf vs 27tf
amd könnte nur mit dem mcm gegenhalten und mit dem 120cu bei 395w und dann 33tf und ebenfalls +60% schneller sein

Was am ende billiger zu fertigen ist ist abzuwarten ein 5nm wafer kostet aktuel zwischen 18000 bis 20000$
Die chipgrö0ße bei nviida wird sich um 60% kleiner bei amd vermutlich 50% sofern für den takt nicht geopfert wird
Da jeder mm² geld kostet geh ich davon aus das man das nicht tun wird.

Wie was kommt hängt also davon ab ob amd mcm am desktop bringt oder nicht wenn nicht sind 140w vs 230w wobei nvidia klar die effizienz und leistungskrone haben wird
Wird mcm kommen werden bei de um die 395w vs 144w gehen
80sm vs 120cu oder auch 10240 vs 7680
nur das nvidia hier 75% der fp16 in fp32 rechnen können und amd voll die 7680
amd kann nur im takt dagegen halten ich gehe von fasst 3,0ghz aus 47tf
ohne anpassung wird man bei 2,7ghz und nur 41tf landen vs nvidia 43tf mit nur 80sm
Das si wird amd mit gddr6+ 24gbits =1,1gb/s +etwa 1500gb/s inf cache =2600gb/s
Und nvidia mit gddr7 32gbit mit 1536gb/s was nvidia in Bedrängnis bringt
womit die 43tf auf etwa nur ein plus von 55% senken wird am ende vs ampere
Wogegen amd mit den 120cu + 65% auf rdna2 haben wird.
Dann gewinnt in leistung amd am ende mit 395w tbp vs 170w tbp
Nur das wird nvidia nicht zulassen wollen
der gau wäre wenn nvidia den ad104 bringt mit dann 450w tbp
Und eine bandbreiten problem den die vermuteten 1536gb/s reichen nicht aus um dann 65tf zu füttern dann muss man auf hbm2e am desktop bringen
Nur dann gewinnt nvidia die krone

Also stellt sich die frage wie weit ist gddr7 oder hat nvidia auch eine cache Lösung mit lovelace in der hinterhand.
amd inf cache in rdna2 ist am chiptakt gebunden und wie das SI auf 256bit
Die kommende gen rdna3 wird aber min 512bit haben auf chiptakt was dann in 1382gb/s bedeutet +1100gb/s vom SI am gddr6+=2,500gb/s
Die 512mb an inf cache helfen dazu nochin höheren auflösungen eine hitrate von 80% zu erreichen
aktuell sind es 48% auf 128mb
Das alles ist aber theorie praktisch am ende zählen fps bei derzeitigen games.
Und das CPu limit istd erzeit der größte feind.
den der wird kommen
Die schnellste cou derzeit intels alder lake mit core i12th gen bei 5,3ghz
Komend amd ryzen 6000 series dann +8%
bedeute aktuell sind das max 273 cb15 score intel amd zen3 266 cb15
danach amd 305
amd ryzen 6000 release q1 2022 oder auch zen 3d genant wie die produkte genannt werden ist offen ich gehe von ryzen 6000 aus.
zen4 kommt q4 2022 bis q2 2023
und wird stolze 30% schneller sein als zen3 cb15 dann 345
In gpu tf auslastung bedeutet das etwa
Derzeit mit 273 etwa 1080p auslastbar 20tf gpu load etwa 80%
gpu leistung 26tf danach 345 gpu load dann 100% mit 26tf und noch luft von 30%
Was dann eine gpu mit 33,8tf antreiben wird
quasi lovelace mit 80sm
darum spricht auch alles dagegen das nvidia mehr als den ad106 auf dem desktrop bringt
In 1440p etwa 33% einbruch also mehr tf benötigt
sind also derzeit 20tf auf dann 26tf was derzeit quasi das max an gpu leistung wäre
Die 80sm erreichen aber 41tf was dann zu ein cpu limit bis zu 20% in 1440p bedeutet
Und nur in 4k dann die 41tf ausgefahren werden könne bis zu 60% Einbruch vs 1080p
Was dann die 80smn einer rtx4090 zu 98% auslasten wird.

Fazit nvidia wird den ad106 als high end bringen und amd wird mit dem n32 dagegen halten
Wobei nviida klar die effizienz krone gewinnt während amd mit dem tbp limit kämpft (395w)
Die alternative wäre nur den n33 zu bringen und hoffnunglos hinterher zu liegen mit nur 35% an mehrleistung und höheren verbrauch. 220w vs 144w
amd muss den mcm am desktop bringen wenn sie die leistungskrone haben wollen
nvida kann ad104 nicht bringen weil man hoffnungslos am SI verhungert außer man setzt auf hbm2e
Und beim verbrauch über die pcie specs kommt was will man 4 mal 8pol anschließen=600w bei 431w tbp

Wogegen das CPu limit klar sagt maxed 80smn mit mehr takt bis 2,85ghz klar die lösung wäre.
Mit zen4 2023 und core i13th gen könnte sich das ändern. 345 und 330 cb15 oder +30% +15% zu jetzt
was dann das cpu limit auf 1440p aufhebt

Und dabei hab ich nicht mal intel dgpu einbezogen.
Allein die kosten werden dafür sorgen das man keine mcm dgpu am desktop bringt obwohl das möglich ist.
Nvidia vermuteter preis des ad104 1800€ amd vermuteter mcm gpu min 2300€ bis 2500€
Das sind alles aber keine realistischen massenmarkt preise
Daher wird high end gpu diese chips n33 und ad106
bei nen Preispunkt von amd 849€ und nvidia 999€
Wenn sie realistisch wären
Die kleineren sku werden alle refresh rdna2 und ampere in tsmc 6nm
Ob der ad106 nochmal cut wird steht sicher ich gehe von 72 und 60sm aus
als 4080 und 4070 bei gleichen Takt.
799€ (+50% zu ga102) und 599€ (+26% zu ga102)
Der letzte einwand wäre warum nicht 8nm samsung weiter nutzen das liegt an samsung die bauen um auf 3nm
Und da samsung nicht vorhat zusätzliche Fabriken zu bauen wird zwangsweise der 8nm kapazität sinken
Eine fabrik dauert min 3 jahre an planung eher rüstet man bestehende um als zusätzliche zu bauen
zumal samsung 3nm Bestellungen noch unklar sind das Gerücht das amd mit rdna4 und zen5 (2024) auf samsung gehen könnte ist schwach.
nvidia ist sicher bis hopper (2024) bei tsmc 5nm später 4nm ein optimierter 5nm node
tsmc baut aus hier werden kapazitäten erhöht
Das sich alles auf eine foundry konzentriert ist eigentlich schlecht aber man hat keine andere wahl
Samsung kommt nicht in gute yield rein und kann kein high end liefern und glofo ist raus aus dem spiel.
Intel ist als einziges eine wildcard da nicht klar ob intel4 mit 5nm mithalten kann
Gut wäre es
 
Zuletzt bearbeitet:
Summerbreeze schrieb:
Ich behaupte mal, im absoluten Extremfall, höchstens 550W

Da will ich nicht widersprechen.

Wir werden es sehen was sich AMD und Nvidia tatsächlich trauen. Aber wir sollten uns darauf einstellen, dass es neue Topwerte in allen Kategorieren gibt.

Summerbreeze schrieb:
Die Anzahl der Workgroup Prozessoren (WGP) ist verglichen mit der 5700 XT gleich, der Energieverbrauch nahezu gleich geblieben. Und damit haben sie ~25-30% mehr Leistung herausgeholt. Finde ich nicht soo schlecht. Gut, man hätte sich in der Mittelklasse sicher etwas mehr gewünscht.
Die 6700XT ist sicher keine schlechte Karte, aber wenn AMD von 50 % höherer Perf/Watt redet hätte man sich mehr gewünscht. Aber realistisch war das mit der 6700XT nicht drin.
Ergänzung ()

Philste schrieb:
Im Herbst 22 kommt doch nach aktuellem Stand nur Navi 33 mit ~ 6900XT Leistung in 6nm. Die wirklichen 5nm Chiplet Designs kommen Anfang 23.
Von wem stammt dieser aktuelle Stand?
Ergänzung ()

Maxxx800 schrieb:
Was für ein Blödsinn, die haben schon längst ihre Kapazitäten gebucht.
Richtig.

Das hat Lisa Su heute noch einmal ausdrücklich bestätigt (Advanced Micro Devices, Inc. (AMD) CEO Lisa Su Presents at Credit Suisse 25th Technology Conference Call).

Lisa Su auf die Frage wie es AMD 2021 in einem schwierieg Umfeld zu wachsen und was für 2022 ansteht:
"Well, I would say when we really saw the sort of the pandemic-driven demand which was probably really the second half of last year, we were very aggressive in ensuring that we work with our supply chain partners. And it's every aspect of the supply chain, right? It's wafers, it's back-end capacity, it's substrates, it's logistics, all of that stuff coming together and we have made progress. I would say the entire semiconductor industry has made progress. I mean a lot said about supply chain shortages but I think we also have to recognize that the demand in 2021 is so much higher than any of us thought four quarters ago. We've done well. We continue to work very closely with all aspects of the supply chain. We brought on a lot of new partners and they performed well. And we've also made forward investments. So investments for AMD-specific capacity over the next three or four years to support our growth. So as far as I see today, I see that we're going to continue to put on more capacity as we go through 2022. The 2022 demand environment looks like it's shaping up very nicely across all of our market segments. And so we continue to believe this is a great growth market for us. And on top of that, it's not just the market but I think we have also -- our product portfolio is well positioned for us to continue to gain share."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign und Colindo
basic123 schrieb:
Sofern die neuen Karten überhaupt 2022 kommen sollten, wird es sehr wahrscheinlich auf das Gleiche wie bei Ampere hinauslaufen. Out of Stock nach 1 Sekunde und danach über PartAlert sich über Wochen oder Monate durchquälen.

Außerdem dürfte Nvidia nun endgültig klar sein, welche Preise die Kunden bereit sind zu bezahlen. Während die 3080 offiziell für 699€ angeboten wurde, wird die 4080 wohl kaum unter 999€ Listenpreis zu haben sein. Das Geld, welches momentan die Scalper einstecken, wird Nvidia zukünftig selbst einkassieren.

Meine Karte hat bei Alternate vor einem Jahr 1800 € gekostet. Jetzt bekommt man sie nirgends mehr unter 2900 €. Hab noch nie erlebt das ne Grafikkarte ein Jahr später mehr wert ist. Auf Preise um 3000 € für das Top Modell werden wir uns wohl einstellen können. Die 4000er Serie werde ich vermutlich wie die 2000 überspringen.
 
danyundsahne schrieb:
Jetzt überlegt mal TSMC bekommt den N3 nicht richtig zum Laufen. Oder irgendein Folgeprozess in X Jahren...dann wirft das jede Produktveröffentlichung aller Hersteller durcheinander. Das wäre ein SuperGAU.

Dass hier alles an einem Prozess abhängt ist wirklich höchst riskant. Da ist es egal wie viele Fabs der neuesten Gen da stehen. Wenn der nicht funzt, müssen alle neuen Produkte auf einem alten Prozess portiert werden (zur Not). Und man sah bei RKL was daraus wurde...lange Verzögerungen, enormer Stromverbrauch, etc.

Eigentlich ein Spiel mit dem Feuer was die Hersteller treiben.
Das gab es in der Vergangenheit schon. Intel... Und - die Konkurrenz hat überholt und macht heute das Geld...
 
Bezüglich Preis möchte ich noch eines sagen...
NVIDIA war es die da den Kunden Sand ins Auge gestreut hatte. Denn die UVP die damals bei den 3tausendern genannt wurde - habe ich nie als realistisch angesehen...
AMD konnte die 6er dann nur daran preislich ausrichten..
Umd heute sind vermutlich beide froh das sie die Karten nicht wirklich zur UVP verkaufen müssen - sondern der Markt deutlich mehr hergibt...
 
Floletni schrieb:

gib zu, eine gewisse Ähnlichkeit ist vorhanden:

Screenshot_20211201-080024.png Screenshot_20211201-080122.png

Danke für die Info. Wenn es mich wohl auch kaum weiterbringt in meinem heutigen Dasein.
Da ich die GEN sowieso auslasse hab ich eigentlich keinen Berührungspunkt und fühle mich auch nicht wirklich verpflichtet das zu wissen. Mal schauen welcher Nerd das im Kollegenkreis weiß.
 
  • Gefällt mir
Reaktionen: bad_sign
Summerbreeze schrieb:
Kein normal denkender Techniker würde eine Steckverbindung dauerhaft an ihrer Spezifikationsgrenze betreiben wollen. Das macht man einfach nicht. Das machen nur Pfuscher.
Der Slot sicher, aber der 12+4 Pin ist ja nicht am echten Limit. Außerdem wird/wurde eben der PCIe Slot öfters am/über Limit betrieben^^
 
syfsyn schrieb:
das bild wird in teilen gesplittet und wie bei sli zusammengefügt
Nein. Auf keinen Fall.
N31 funktioniert nach Außen und Innen wie ein Chip. Da finden keine voneinander unabhängigen Bildberechnungen, welche erst nach Berechnung nacheinander ausgegeben werden, mehr statt.
syfsyn schrieb:
10240 shader =160cu was sehr wahrscheinlich ist wovon 120 aktiv sein werden
pro chiplet 80cu 60 aktiv
aktuell 80cu etwa 275w (ohne vram)
5nm Effizienz Vorteil vs 7nm 50% amd nutz davon 20% takt und 20% nimmt man mit
Und 10% gibt man für die fläche auf was die chips aber vergrößer von möglichen 60% kleiner werden dann nur 50%
275*0,8=220w für ein 80cu chiplet
Verabschiede dich doch erstmal von den CU´s. Hat AMD bei N1 ja auch schon gemacht. ;)
Die sind weg bzw. in den WGP´s, welche jetzt die kleinste unabhängige Arbeitseinheit der GPU sind, aufgegangen. Wenn die noch erwähnt werden, dann nur aus gedanklichen Kompatibilitätsgründen.
Die produzieren bei TSMC, da brauchst keine 25% Fehlerquote einrechnen. ;)

Alles bisher bekannte besagt für N31 15360 Shader in 60-120 WGPs. (noch Unsicher)
Die Menge an ausführenden Einheiten per Chip wird um grob 50% erhöht, Flächen- und Leistungsbedarf wird vrsl. halbiert.
(Stimmt so natürlich nicht ganz, da die Anzahl der TMU´s (und / oder dedizierte Matrixeinheiten) stärker zunehmen wird. IF Cache fällt weg da er nach oben wandert.
Vor 3 Wochen hat AMD ja schon freundlicherweise die Kennzahlen ihrer N5 Chips bekanntgegeben. :D
2021-11-28 18.43.44 www.computerbase.de -75%.jpg


syfsyn schrieb:
Dies lässt sich in atx 2,52 nicht umsetzen
Ich verstehe deine ganze Rechnerei nicht. Jedes aktuelle halbwegs ambitionierte Netzteil hat 4 Anschlüsse für PCIe. Da kannst heute schon 600W drüber schicken. Sonst könnten die 3090er heute schon nicht funktionieren.
Die 3090ti dürfte auch aus dem Grund auf den Markt kommen um den Strom-Schock nächstes Jahr nicht zu groß werden zu lassen.
ETI1120 schrieb:
aber wenn AMD von 50 % höherer Perf/Watt redet
Tja. Ziel für die 6700(XT) eindeutig verfehlt. Bei den anderen passt es ja wieder ungefähr.
Hätten sie wohl doch besser N6 genommen. Dumm gelaufen.

Ich denke, die sollten sich einfach mal von ihrem inneren Sparzwang lösen und auch mal die fortschrittlicheren aber teuren Prozesse buchen. (Also zumindest für die höherwertigen Produkte.) Wird doch bezahlt.
Apple machts doch vor.
Die arbeiten im teuersten Prozess mit den, mit Abstand höchsten Endpreisen und die Geräte werden ihnen quasi aus der Hand gerissen.

N31 wird wohl nicht billig. 2000 UvP befürchte ich bisher als Minimum. Ebenso die 4090er.
 
  • Gefällt mir
Reaktionen: Colindo
bensen schrieb:
N5 hat eine fast 3x so hohe Transistordichte im Vergleich zu 8LPP.
Das reicht für einen ordentlichen Performancesprung.
3x?
Finde ich gerade etwas viel.

Wenn der aber stimmt und sie steigern ihre Funktionseinheiten angeblich nur um (mir bisher bekannte) 70% wird das ein kleiner^^ Chip
Mal als Überschlagsrechnung
Aktuell 628mm² x 1,7 = 1068 / 3 = 356mm²
Das ist mir zu klein. Dann müssten sie die Einheiten min. verdoppeln oder Faktor 3?
628 x 2,5 / 3 = 523
628 x 3 / 3 = 628
Dann kommt auch wieder dieser kolportierte Riesenchip raus und Navi3 erscheint auch nicht mehr als irgendeine absolut unangreifbare Über-Chipgruppe aus anderen Sphären.
 
Summerbreeze schrieb:
Tja. Ziel für die 6700(XT) eindeutig verfehlt. Bei den anderen passt es ja wieder ungefähr.
Die 6700XT hätte das Ziel nur erreichen können wenn der Takt nur leicht gestiegen wäre.

Die Leistungssteigerung bei RDNA2 kommt daher weil AMD endlich mehr CUs auslasten kann und weil RDNA höher taktet. In der IPC gab es sogar einen leichten Rückschritt.

Summerbreeze schrieb:
Hätten sie wohl doch besser N6 genommen. Dumm gelaufen.
N6 war wohl noch nicht so weit. Weder für Zen 3 noch für RDNA2.

So wie ich es verstehe bringt N6 nicht viel bei Transistordichte und bei Performance und Verbrauch habe ich nichts gehört.

Allerdings ist der Prozess einfacher weil die EUV-Schritte jeweils mehrere DUV-Schritte ersetzen.
Summerbreeze schrieb:
Ich denke, die sollten sich einfach mal von ihrem inneren Sparzwang lösen und auch mal die fortschrittlicheren aber teuren Prozesse buchen. (Also zumindest für die höherwertigen Produkte.)
Ich denke das Timing war einfach schlecht. Für Zen 3 war N5 nocht nicht so weit und bis Zen4 kommt dauert es halt noch.
Summerbreeze schrieb:
Wird doch bezahlt.
Apple machts doch vor.
Was man nicht vergessen darf, Apple sorgt auch dafür dass die Prozesse für die anderen Kunden ausreifen.
und darin steckt auch eine Risikokomponente. Es geht bei AMD nicht nur ums Geld sondern auch ums Risiko. Und da musste AMD bisher viel vorsichtiger als Apple sein. Inzwischen ist AMD finanziell gesund. Und damit ist auch mehr Risiko möglich.

In Zukunft geht es darum die erforderlichen Kapazitäten zu bekommen und da sieht es so aus als dass AMD deutlich aggresiver zu Werke geht.

Summerbreeze schrieb:
Die arbeiten im teuersten Prozess mit den, mit Abstand höchsten Endpreisen und die Geräte werden ihnen quasi aus der Hand gerissen.
Apple ist eine eigene Welt. Und die könnten durchaus mit etwas weniger Performance ebenso Premium verlangen.

Ich habe zu Apple ein sehr ambivalentes Verhältnis. Aber Apple verdient Respekt.
Die PC-Anbieter können dem technischen Know How die Hardwareabteilung von Apple nur wenig entgegen setzen. Klar auch Apple macht Mal Fehler, aber deutlich weniger als die PC-Hersteller.

Und in gut designte Systeme gehören nun Mal die best möglichen Komponenten. Das ist was Apple antreibt.

Summerbreeze schrieb:
N31 wird wohl nicht billig.
Ja
Summerbreeze schrieb:
2000 UvP befürchte ich bisher als Minimum. Ebenso die 4090er.
Es ist bei Navi klar, dass man mit der 3-fachen Anzahl der Recheneinheiten auch bei 50%-höhere Transistordichte mehr Fläche benötigt. Das bei einem deutlich höheren Preis. Und die Chiplets bauen sich auch nicht von alleine zusammen.

Den 2000 $US kann ich nicht wiedersprechen. Aber wenn sich nichts ändert wird der UVP eh uninteressant.

Was mich wundert ist, dass Lisa Su wiederholt behauptet dass Cryptomining keine Rolle spielt. Das könnte aber nur dann stimmen wenn AMD bisher RDNA 2 nur fein dosiert ausliefert. Was sie aber nach eigener aussage nicht tun.
 
Die wgp sind nur ne neue bezeichung und beschreiben das zusammenlegen der cu in gruppen ist wie bei nvidia aufteilung
nvidia hat je gpc 5 tpc mit 10 sm ein tpc hat 2sm und ein sm hat 128 fp16/32 einheiten
Wovon 64fp32 nativ sind und 64fp16 mit software auf fp32 zu 50% ausgelstet wetrden können
amd n31 wird
so aussehen
https://www.3dcenter.org/dateien/abbildungen/RDNA3-MultiChip-Ansaetze-Moeglichkeiten-5.png

wir wissen das n31 15360shader hat
ein wgp müsste demnach 15360/80/2(chiplets)=96 shader sein
Die leistungs einschätzung bleibt aber gleich
Ich sehe da kein inf cache dann hat n31 und n32 quasi ein 512bit si
Das könnte die speicherbandbreiten problem fasst aufheben
512*21/8=1344gb/s
Und da der n32 das si nicht beschneidet könnte das passen
Das aber ist total unterschiedlich zum n33 chip
https://www.3dcenter.org/dateien/abbildungen/RDNA3-MultiChip-Ansaetze-Moeglichkeiten-1.png
Das Bild ist was verwirrend ich gehe davon aus das dies 4 varianten sind zu eine design
Und man wohl n33 eine refresh n22 darstellt
Wo entweder 4 gcd mit je 10cu an 4*64mb inf cache oder 8x32mb verwendet
das erklärt auch die verwirrung meinerseits mit cu und wgp
Am ende sind es n33 40*64=2560, bei n31 160*96=15360 und bei n32 120*96=11520
also hat ein wgp 96shader
Und n33 ist rdna2 näher als gedacht was ein refresh von n22 infrage stellt. Dder n34 dürfte dann auch dem n33 folgen in 6nm mit vermutlich 2gcd und 20cu
das würde mehr sinn machen als rdna2 in 6nm zu machen
Diese infos hab ich gerade erst entdeckt ist wohl an mir vorbeigegeangen ich bin ehger in nviida drin.
da ich deren technik schon besser einschätzen kann
Nvidia müsste schon arg dumm anstellen um mit 5nm nicht die effizienzkrone zu bekommen.
amd rdna3 archtektur verbesserungen werden spannend ein 512bit si war mir nicht klar
das ändert einiges
am ende kommt es auf mcm an geht es ohne latenz oder nicht.
 
Zurück
Oben