Chismon schrieb:
Um noch einmal die
WccfTech-Glaskugel zu bemühen/zitieren:
An interesting development that also happened is
TSMC confirming that the company is starting
mass production of NVIDIA’s 7nm GPUs which could indicate that the Turing architecture (and therefore the GTX 1180) will be based on the 7nm process.
Wenn das so kommen sollte (für die Mainstream-Gaming-Karten, k.A. ob nVidia da noch semi-professionelle oder speziell ausgelegte Kryptomining-Karten mit Turing Chips in 7nm Fertigung plant), wovon Du ja nicht ausgehst, dann würde ein RX Vega Refresh kaum einen hinter dem Ofen hervor locken können und nur schwerlich Absatz finden (allzuviel Preisspielraum dürfte man dann auch nicht haben und man würde evt. höchstens wieder als nVidia-GPU-Preisdrücker fungieren).
die nvidia karten werden zweifelsohne teuer - mehr siehe unten, aber zunächst:
auch im falle eines 7nm turing wäre eine 7nm vega besser als nichts - so kann man wenigstens den unmut über nvidia abschöpfen - ohne produkt bleibt ja nichts anderes als nvidia oder nichts kaufen - und von nichts hat amd auch nichts. ob dann eine mittelklasse navi in +- einem jahr da großartig was dran ändert? im wesentlichen ist die 7nm midrange navi auch "nur ein kleiner 7nm vega refresh / GCN mit gddr6". da es zu dem zeitpunkt schon lange nvidia karten mit der selben leistung gibt, ist die radeon alternative nur ein sidegrade, das sich kaum jemand antun wird. im prinzip bleiben amd dann nur diejenigen, die die schnauze so von nvidia voll haben, dass sie auf die neuen turing karten gerne verzichten - ich zum beispiel
das größte problem von vega ist die skalierung von takt/vcore über dem sweetspot und der stromverbrauch des riesigen dies + materialkosten. eine 7nm vega auf tsmc statt 14nm Low power plus von Glofo könnte hier schon die wesentlichen kritikpunkte aus der fertigung heraus angehen. wir können natürlich nicht abschätzen, ob sich da großartig was ändert, aber es spricht schon bände, wenn amd von exklusiv glofo mit 2/3 vom portfolio auf tsmc wechselt. in 7 nm wird auf lange sicht der die auf jeden fall billiger als das 500mm² monster in 14nm. dazu kann man am platinenlayout sparen - das VRM von vega referenz kostet etwa 30-40$ - etwas weniger als die hälfte vom die - das ist n ordentlicher brocken. so viel haut nvidia nichtmal auf die titan karten drauf. mit 7nm sinkt die leistungsaufnahme, was indirekt auch dazu führt, dass man ein weniger monströses vrm nutzen kann. hier lassen sich mit 35% weniger leistungsaufnahme auch 35% komponenten einsparen.
das sollte auch der kühlung zugute kommen - und auch der HBM2 wird dann weniger aufgeheizt.
dazu kommt noch, dass die 14nm vega noch einige ecken und kanten hat, an denen man zügig mit einem refresh ansetzen könnte. ich bin mir sicher, dass die vega architekten/ingenieure noch vor dem release von vega 14nm eine liste an änderungen hatten, die es nicht mehr in die produktionsversion von vega geschafft haben und jetzt für einen refresh quasi abruffertig herumliegen - die werden seit vega release schon was gearbeitet haben. dazu das problem mit unterschiedlichen zulieferern für vega packages und hbm, das man wahrscheinlich auch eleganter lösen kann.
heute gabs auf videocards folgendes zu sehen:
https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera
das ist ein entwicklerboard mit GDDR6. ich hab mal den core der 1080ti dagegen verglichen, skaliert und perspektivisch korrigiert anhand der pcie kontakte.
ich gehe davon aus, dass das, was wir hier sehen, die gtx 1180 ist. und wir sehen, dass der die fast gleich groß ist. die 400mm², die wccftech mal hier erwähnt hat:
https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/
sehen damit ziemlich plausibel aus. wenn das ein 7nm chip wäre, müsste das n ordentliches stück kleiner sein, weil pascal 16nm ist und vega ist schon 14 - und trotzdem ist vega in 7nm n gutes stück kleiner als das.
damit ist die 12nm gtx 1180 mit >400mm² weit weg von der 314mm² 16nm gtx 1080. die neue 1080 ist also von der hardware her eher ein 1080ti shrink als ein 1080 shrink. wir haben noch was von gesteigerten taktraten gehört.
und dann schauen wir uns mal das entwicklerboard an. ein massives VRM, und 3x8 pin. sicher, das ist ne entwickler karte - auf so ein board steckt man aber keine 160w gpu - für so ein PCB wirds schon irgendwo einen grund geben. die taktraten. quasi eine factory oc 1080ti. deshalb ist der chip so groß, deshalb ist das pcb so fett - so meine theorie.
-----------------------------
EDIT - EINSCHUB:
techpowerup hat den die "vermessen" und ist zu folgendem schluss gekommen:
I tried to estimate die size from the photo. We do know from the datasheet that the GDDR6 memory chips are 14 mm x 12 mm. Based on that information I rescaled, warped and straightened the image, so that each GDDR6 memory chip is 140 x 120 pixels. With all memory chips around the GPU now being at the correct size, we can use the GPU's silkscreen print to estimate the actual size of the chip package, which I measured at 48.5 x 48.5 mm. Assuming that the inner silk screen with the solder balls represents the surface of the GPU die, we get a length of 26 mm for each side of the die, which brings die size to 676 mm². This makes it a relatively large die considering NVIDIA's existing lineup: GV100 (815 mm², Titan V), GP100 (610 mm², Quadro GP100), GP102 (471 mm², GTX 1080 Ti), GP104 (314 mm², GTX 1080), GP106 (200 mm², GTX 1060). So my initial assessment that this could be the GP102 successor seems accurate, especially since GV100 die size is quite a bit bigger than GP100 die size, by roughly 33%. Our calculated GV102 die size is 40% bigger than GP102, which falls in that range.
https://www.techpowerup.com/245501/...potted-up-to-525-w-power-delivery-gtx-1180-ti
ich sehe ehrlichgesagt nicht, wie nvidia einen fast 700mm² chip ins konsumer segment bringen könnte, vorallem auch noch in 12nm. das ist wahnsinn. das passt auch nicht wirklich zu dem optischen größenvergleich, den ich hier vorgestellt habe - aber vielleicht täuscht das? ich habe selbst extra keine größe angegeben - soll sich jeder selber anhand der bilder überlegen, ist sowieso nicht wirklich exakt - aber 700mm²? jetzt schon eine 1180 ti? ich hab den fehler nicht gefunden, aber irgendwas kommt mir da komisch vor.
trotzdem, meine annahmen bisher ändern sich dadurch nicht.
die 1080 ti ist mit ihren 471mm² exakt 50% größer als die 1080. wenn das was wir hier sehen die 1180ti ist, und die tatsächlich 676mm² groß ist, wäre eine 1180 im selben schema ca 450mm² groß. das ist nur unwesentlich kleiner als die 1080 ti in 16nm und entspricht im wesentlichen dem, was ich oben beschrieben habe.
die schlechte nachricht:
titan v, 815mm²: 3000$
1180, 676mm²: ????
wenn man die hälfte ansetzt, wäre das schon großzügig.
8gb hbm2 kosten ca 150$, 8gb GDDR6 liegt bei ca >80$. die titan v hat 32gb hbm2, das sind 600$ hbm 2 auf der titan v, und die karte hier hat 12gb gddr6, das wären 120$.
der neue chip ist nur ca 83% so groß die wie titan.
das ergibt:
3000 - 600 = 2400 * 0,83 = 1992 + 120 = 2112$
wenn man jetzt für den yield eine exponentielle funktion und keine lineare annimmt, wird man weiter unten rauskommen. dann zieht man noch den titan bonus ab und dann kann man zu der annahme kommen, dass die 1180 ti vielleicht bei 1500$ liegen könnte.
----------------------------
nvidia wird selbst probleme haben an den massiven performance sprung von kepler - maxwell - pascal anknüpfen zu können. deshalb muss nvidia jetzt auch
endlich in sachen hardware tiefer in die tasche greifen.
wir können uns jetzt schonmal daran gewöhnen, dass in zukunft "stromverbrauch bei gpus total irrelevant ist, es geht um fps". zumindest werden die grünen von ihrem öko kurs abstand nehmen müssen. nvidia muss jetzt auch über die fläche und takt arbeiten, wie amd.
amd hat aber einen vorteil: 7nm statt 12nm, vega kommt von einer sehr schlechten node für high performance chips, nvidia hatte mit 16nm schon einen high performance optimierten prozess von tsmc. der 7nm vega refresh würde vermutlich heftiger einschlagen, als sich das so manche vorstellen würden - mir eingeschlossen.
ich bin nicht davon ausgegangen, dass amd nochmal ne chance bekommt - aber hier ist sie.
Chismon schrieb:
Des Weiteren wird ja irgendwann von Ende des 3.Quartals 2018 für die Founders Edition Referenzkarten und von November bis Dezember 2018 für die deutlich interessanteren Custom-Modelle mit GT104 Chip ausgegangen.
man hört ständig von einem paperlaunch, das müssen wir abwarten - nvidia wird aber ordentlich mit den FE karten abcashen wollen, die reiten gerade eine hohe welle und haben gerade nochmals n dicken batzen pascals zurückbekommen (vielleicht waren noch ein paar dustins und kevins dabei). aber zum weihnachtsgeschäft 2018 erwarte ich spätestens die turing customs.
Chismon schrieb:
So gerne ich eine Früh-/Vorveröffentlichung von AMD/RTG Navi-Karten (bspw. Anfang 2019) sehen wollen würde, so unwahrscheinlich erscheint mir das leider aktuell.
wird man auch abwarten müssen - eigentlich hätte der 12nm refresh für vega ja schon releast sein müssen - den hat man aber kommentarlos gestrichen. eine alternative wäre, dass man statt 12 direkt auf 7 gehen wollte.
gemessen daran, dass es jetzt schon funktionierende 7nm vega samples gibt und die 7nm instinct vega noch im 2h 2018 kommen soll, UND 7nm anscheinend ganz gut läuft, sind die infos vor der computex 2018 eigentlich veraltet. ich weiß nicht, wie lange die wafer produktion dauert, aber ich würde sagen, dass das relativ kurzfristig ist. zusammen mit turing im weihnachtsgeschäft landen ist zumindest in kleinen stückzahlen nicht unmöglich.
http://www.pcgameshardware.de/AMD-Z...a-20-Navi-TSMC-7-nm-Serienproduktion-1259389/
Chismon schrieb:
Ein 7nm RX Vega-Refresh würde im Falle einer 7nm Turing Oberklassekarte einfach nur weggeputzt werden, da der Chip nicht vordergründig nur auf Gaming ausgelegt/verschlankt ist (dann kommen die üblichen Leute wieder mit Ihrem Effizienzgelaber - scheinbar das wichtigste an GPUs ist das Strom sparen
- und wie viel teurer denn GPUs von AMD die Stromrechnung machen würde, aber gleichzeitig zahlen einige von denen bestimmt gerne den horrenden Aufpreis für G-Sync HDR Module/-Monitore), der teure HBM2 (auch im Vergleich zu vermutlich immer noch deutlich günstigeren GDDR6) die Marge relativ klein halten/verderben dürfte.
ja in 7nm vs 7nm stimme ich dir zu, aber das ist sehr wahrscheinlich ja nicht der fall. das wird 7nm vs 12nm, desseidenn das ist ein veraltetes entwicklerboard und nvidia stellt jetzt noch alles auf 7nm um? wenn, dann kommt n jahr drauf der 7nm refresh - das ist so kostenineffizient, das wird nvidia vermutlich nicht machen.
ein interessanter punkt wäre noch der erheblich gestiegene stromverbrauch vom gsync monitor - der jetzt auch aktiv gekühlt werden muss. wieviel watt muss das gsync verbraten, damit man das aktiv kühlen muss? 20 - 40w bestimmt. damit ist die energiebilanz schon nicht mehr so prickelnd
amd kämpft schon seit pascal mit erheblich höheren produktionskosten - die nvidia aber jetzt scheinbar auch hat. die zeiten von low-kost hardware sind allem anschein nach vorbei. in der hinsicht wird das ganze mit vega refresh navi vs turing sogar eher noch positiv für amd ausgehen.
Chismon schrieb:
Ich denke die Oberklasse ist erst einmal wieder für einige Jahre in nVidia-Hand und zweifele (im Gegensatz zu Dark Knight) nicht an der Vorhersage des Fudzilla-Artikels, dass Navi wieder "nur" ein direkter Polaris-Nachfolger und damit eine GPU-Halbgeneration (alleinig Einsteiger- und Mittelklasse-Grafikkarten-Markt bedienend) sein könnte, bevor nicht irgendwelche neuen MCM-/Skalierungs-Gerüchte die Runde machen und einigermaßen glaubwürdig erscheinen.
MCM für gaming ist raus.
https://www.pcgamesn.com/amd-navi-monolithic-gpu-design
mcm wird so schnell nicht fürs gaming kommen - und wenn, dann erst, wenns nvidia anfängt. für amd wird keiner für mcm entwickeln. ich denke auch, dass navi als polaris ersatz daherkommt - zuerst unter vega refresh und dann unter einem navi vollausbau? wang hat angedeutet, dass man mehr produkte an den start bringen möchte, würde doch passen, oder?
Chismon schrieb:
Des Weiteren kann ich mir nicht vorstellen, dass bei all den Sachen die seit RX Vega Marktstart/Koduris Weggang und Neubesetzung bei AMD/RTG passiert sind, genügend Ressourcen und Planung im GPU Bereich angelaufen sind um über die (semi-)professionelle Sparte hinaus (die schon über ein Jahr vorher per Slide angekündigt wurde) einen RX Vega Refresh auf 7nm Fertigung basierend heraus zu bringen.
ich würde mal vermuten, dass, wenn ein vega refresh kommt, der nicht groß von der instinct variante abweicht - war ja bei vega FE und rx vega auch so. da wird man schlucken müssen, dass das eben keine reine gaming gpu ist. eine in hardware optimierte gaming vega wirds nicht mehr geben - das wird vermutlich komplett an navi gehen, wenn überhaupt. könnte auch sein, dass vega für den prof. markt noch eine weile erhalten bleibt und für gaming / apu dann navi übernimmt.
Chismon schrieb:
Falls doch, dann wird es interessant, aber vermutlich wird nVidia wieder die meisten wankelmütigen User abgrasen, die ungeduldig oder süchtig nach neuen GPUs sind (warum auch immer(?), es sei denn diese gurken noch mit 5+ Jahren alten Karten herum).
man kann davon ausgehen, dass nvidia die ersten turing gpus aus den händen gerissen werden. ich habe absolut keine zweifel, dass das ein allzeithoch bei nvidia gibt. noch nie war die nvidia fanmeute so groß und hungrig nach neuen gpus - und noch nie war der preis so egal. wenn man sich mal überlegt, was die leute nvidia an kohle reindrücken - es scheint keine schmerzgrenze zu geben.
es gibt aber neben diesen leuten auch noch diejenigen, die sich bei amd mit einer hawaii/grenada/fiji/polaris eingedeckt haben, und die gerne etwas mehr power möchten. für den fall, dass amd nichts von sich hören lässt, wird hier vermutlich auch ein größerer teil die alten karten in rente schicken. gut 1/3 aller derzeit verbauten amd karten (in gaming systemen) sind alte hawaii/grenada/fiji karten.