aldaric schrieb:
Na ich denke das sowohl AMD als auch nVidia ganz gut über die Konkurrenzprodukte bescheid wissen. nVidia kann sich ja schon ausmalen, anhand der Konsolen, was evtl. mit RDNA2 möglich ist. Ich denke da lassen sich von deren Experen ganz gute Prognosen ableiten.
Zu einem großen Teil magst du recht haben, gerade was die Möglichkeiten was den 7nm Prozess betrifft und wie gut dieser läuft: Yield Rate, max. Taktraten, Packdichte etc. werden sie wohl schon sehr gut informiert sein.
Weiter wissen sie wohl genau so gut Bescheid wie AMD selbst ob z.B. HBM2 eine Option darstellen könnte, oder ob es auf GDDR6 hinaus läuft.
Aber bei Details bezüglich z.B.: des Speicher-Interface ob es nun 384Bit, 512Bit oder laut aktuellem Gerücht 256Bit + 128MB Infinity Cache könnte ich mir vorstellen das sie ebenfalls im dunklen tappen.
Theoretisch sind alle 4 Varianten inklusive HBM2 möglich selbst 512Bit siehe (XBOX 320Bit) sehr niedrige Leistungsaufnahme.
Auch HBM2 ist mitlerweile aus den Kinderschuhen entwachsen und dürfte sich mitlerweile auch was den Preis anbelangt nicht mehr auf dem selben Level bewegen wie es noch z.B bei der 7 der Fall war.
Mit dem Vorteil der Flächenersparnis und des deutlich geringeren Verbrauchs.
384Bit ebenfalls möglich allerdings beißt sich dies mit den Kolportierten 16GB. (Wohl eher wenn überhaupt kommt es bei der 6800(XT) zum Einsatz)
Dann das letzte und aktuellste Gerücht, was ich zwar kaum glauben kann, aber sich anscheinend einige Leute bereits ziemlich sicher sind das es so kommen wird. Die 256Bit + 128 MB Cache.
Das wäre wirklich erstaunlich wenig für eine voraussichtlich 80CU's (5120) beinhaltende GPU.
Auch was die Die Größe anbelangt gibt es für Big Navi bis jetzt wenn ich richtig auf dem Laufenden bin 2 verschiedene Varianten:
Eine kostenoptimierte mit 428 mm2 und eine mit 505mm2.
Beide Varianten hätten ihre Vorteile:
Gemäss XBOX dessen GPU ca. 300mm2 misst (nur GPU Anteil am 360mm2 SoC) 300/56x80 = 428mm2, Würde ich die 1. Variante sicherlich als realistisch und potenziell machbar einzustufen.
80CU die anhand der Linux Treibereinträge bereits mehr oder weniger als gesetzt zu betrachten sind (egal ob nun Variante 1 oder 2 zur Anwendung kommen wird)
Variante 2 mit 505mm2 würde im Gegensatz zum RDNA2 Derivat in der XBOX wohl grössere Änderungen vermuten lassen. Tensor cores für deep learning etc.?
Mehr Cache? Eventuell die spekulierten 128MB Infinity cache die eine sehr große Fläche beanspruchen dürften.
Als kleines Beispiel (Pi x Daumen nicht nur mit einer Prise salz zu betrachten sondern da muss man sich grad eine ganze Linie hineinziehen
)
Also:
Bei Zen 2 z.B. Size 74mm2 davon machen die 32MB L3 Cache ca. 34mm2 aus
128mm2 x 34mm2 / 32mm2=136mm2 - Platzersparnis da nur 256Bit (ca. 40mm2) anstatt 384 (ca.60mm2?) oder gar 512Bit (ca.80mm2?)
XBOX 50mm2 --> 320Bit
300-50=250 bzw. nur 290mm2 wenn nur 256Bit SI vorhanden.
290-40=250 (ohne SI für Berechnung)
290-40 =250/56x80=357mm2 (ohne SI) + 136mm2 =493mm2 + 40mm2 = 533mm2 (mit SI)
Es ging mir bei dieser Pi x Daumen Berechnung nur darum aufzuzeigen das auch das letzte Gerücht generell machbar erscheint.
Klar sind die Werte die ich z.B.: für die Größe eines 256 /512 Bit SI verwendet habe (40/80mm2)
nur geschätzt und können ebenso gut auch nur 30/60 oder 50/100mm2 ausmachen, aber in etwa sollte das schon so hinkommen.
Die Größe des GPU Anteils am XBOX Die mit 300mm2 sollte valide sein, kann aber natürlich auch noch einige mm2 variieren z.B. nur 280mm2.
Auch die 34mm2 für den L3 Cache des Zen2 scheinen relativ valide zu sein.
Auch ist klar das die Density für den L3 nicht 1:1 übertragbar sein muss, aber bei gleichem Prozess oder
leicht modifiziert ist es trotzdem gut möglich das dies in etwa übertragbar sein könnte.
Aber bei diesem Punkt bin ich mir nicht wirklich sicher und dies stellt zu gleich auch den größten Unsicherheitsfaktor dar.
Aber falls die Density größer ist als bei Zen2 würde man eh noch weniger Fläche benötigen bzw. es garantiert machbar 128MB in 505mm2 unterzubringen.
Also für mich liegt auch das letzte, aktuelle Gerücht im Bereich des möglichen. (Allerdings mit einem gewissen Unsicherheitsfaktor)
Weiter sind NVIDIA zwar die Effizienzzuwächse von Renoir und vor allem derjenige des XBOX SoC. sicher nicht entgangen, aber da schwirren einfach zu viele Variablen, die prinzipiell möglich erscheine im Raum herum, so das ich mir nicht wirklich vorstellen kann das NVIDIA wirklich im Detail weiß was AMD abliefern wird.
Klar man muss kein Genie sein um vorauszusagen:
Das Big Navi wohl mindestens die Zweifache Leistung von NAVI10 in Form der 5700XT abliefern wird und man sich darauf auch einstellen sollte.
Aber was wäre wenn z.B.: Ein best case szenario z.B eine IPC Steigerung von 25% analog RDNA1 vs. GCN eintreffen würde wäre da NVIDIA wirklich darauf vorbereitet?
Analog folgendem Gerücht (Oder wurde das sogar mehr oder weniger durch Microsoft bestätigt?)
Link
"According to Microsoft during the lecture, we’re looking at RDNA 2 featuring about 25 percent performance per clock increase from the previous generation (RDNA 1), which is quite frankly very impressive and a testament to the engineering efforts over at the Radeon Technology Group."
2 x 5700XT + 25% IPC = x 2.5 bzw. + 67% relativ zur 2080ti FE bzw. da Skalierung nicht linear >50%
Es gab da letztens auch einen Benchmark (Ashes of the Singularity) von einer unbekannten AMD Karte
die sich auf dem selben Level wie eine 2080ti FE (ca. 1.72 -1. 75GHz bei den meisten Games) bewegte.
Das einte Gerücht (Variante 2) sprach von drei Varianten (mm2):
240 (ca. 36/40CU) 6700 / 6700XT
340 (52/56CU?) 6800 / 6800XT scheint plausibel
505 (72/80CU) 6900/6900XT
Bei dem Benchmark müsste es sich eigentlich um die 6800
gehandelt haben da die 6800XT sicher deutlich stärker als eine 2080ti FE wäre (IPC + Takt!)
also 6800 = 2080tiFE / 52 x 80 = +54% was wiederum meine >50% von zuvor betätigen würde.
Daher meine Prognose: BIG Navi leicht schneller bzw. etwa gleich schnell wie eine
mit einem Power Target von 440W versehene 3090 OC.
Das bei ca. 1000$ (999$) da kostengünstiger in der Herstellung + nur 16GB normalen GDDR6 anstatt 24GB teuren GDDR6X und um Marktanteile zurück zu erlangen müssen die Karten auch leicht günstiger über den Tisch gehen das ist logisch.
Wermutstropfen nur 16 anstatt 24GB
Dafür nur ca. 300W anstatt 440W Verbrauch bzw. das alte Netzteil kann noch verwendet werden.
Dann kommen noch die Wassergekühlten OC Varianten bis 360W? Die ihrerseits nochmals bis zu 10% oben drauf legen um die unangefochtene Spitze zu erklimmen. (Nur eine Annahme aber plausibel das es so kommen wird)
Das Gesamtpaket von Big Navi wird extrem attraktiv sein und dem ist sich NVIDIA sicherlich auch bewusst.
Allerdings glaube ich kaum das sie vollumfänglich über den eingeschlagenen Weg von AMD bzgl. RDNA2
informiert sind.
Die 3090 wird mit ihrem angesetzten Preis von 1499€ - custom Modelle bis 1800€?
keine Chance gegen eine leicht schnellere, effizientere, deutlich günstigere und auch bei
beim Thema RT wohl in etwa gleich performante Karte haben.
Die 3080 wiederum muss sich wohl mit einer um die 700 - 800$ teuren 6900 auseinander setzen die
wiederum deutlich schneller analog 3090 vs. 6900XT mit ebenfalls 16GB ausgestattet ist.
Die 3080 mit 20GB wird nicht nur deutlich teurer sein, sondern auch in den max. OC Varianten mit
420W vs 260W??? (6900)? deutlich mehr schlucken.
Es scheint zwar so das NVIDIA mit würgen und brechen leistungsmäßig den Anschluss halten könnte, aber ich denke das hat mehr mit Glück als mit Kalkül zu tun, NVIDIA ist einfach am Anschlag da geht nichts mehr.
Bei dieser Generation werden sie ganz klar den Kürzeren ziehen.
Ob sie sich aus diesem Loch in dem sie sich gerade befinden wieder befreien können?