ETI1120 schrieb:
Und was hat HBM dazu beigetragen?
Ich habe es in diesem Thread schon einmal geschrieben, Vega war ein Schritt in Richtung CDNA. Vega war nie als reine Gaming-Architektur konzipiert. Das war IMO auch der Grund warum AMD HBM beibehalten hat.
Bei der Gaming-Architektur RDNA hat AMD hat die Shader so organisiert, dass sie von Games ausgelastet werden können. Und HBM rausgeschmissen, weil es für Games keinen Nutzen bringt.
hbm braucht weniger platz, strom, kühlung, ermöglicht kleinere platinen und hat unmengen an bandbreite. unterm strich ist HBM einfach die bessere speichertechnologie. du diskutierst hier an einem punkt herum, der sich genau so anfühlt, wie damals die diskussion "singlecore vs dualcore - lieber einen schnellen als zwei langsame" - eine fehleinschätzung, die nur monate später böse bestraft wurde. dualcores waren auch "teurer und aufwendiger" als single cores. und nu?
wenn man jetzt anfängt alles so haarklein zu diskutieren, muss mans aber auch gründlich machen und nicht architektur, prozess, speicher und hardware bugs über einen kamm scheren.
seit dem ende der terascale architektur nach der 6000er serie nutzt amd GCN - GCN ist seit jeher eine GPGPU hybrid architektur und keine reine gaming architektur - das selbe gilt übrigens auch u.a. für nvidias lovelace - nvidia fährt seit einer weile auch wieder eine gpgpu hybrid strategie.
mit hawaii vs kepler hat das mit maximal 44CUs noch gut funktionert - GCN hat aber mit unoptimierten gaming workloads ein auslastungsproblem mit einer hohen CU anzahl. sehr gut sichtbar bei fiji, ebenfalls bei vega und der radeon 7 - kleinere GCN karten funktionieren noch gut, siehe polaris oder eben hawaii.
ein weiteres problem ist das verstopfen der GCN renderpipeline mit sub pixel tessellation:
generell gilt: je mehr CUs der chip hat, desto schlechter die "auslastung" in nicht low level api spielen. GCN will mit einem taktzyklus so viel wie möglich synchron und parallel abarbeiten, aber das heißt auch, dass ohne entsprechende auslastung takzyklen teilweise leer laufen, was in bestimmten situationen extrem ineffizient sein kann. in gut optimierten low level api spielen kann auch GCN 5 (vega) aber auch sehr gut performen, siehe doom 2016 mit vulkan oder forza horizon mit dx12.
https://www.anandtech.com/show/11717/the-amd-radeon-rx-vega-64-and-56-review/10
https://www.techspot.com/review/1716-forza-horizon-4-gpu-benchmarks/
vega war nicht auf einmal "CDNA" - vega war GCN, genau wie polaris und hawaii vorher. GCN war der aufgabe einfach nicht mehr gewachsen - das lag aber nicht am "compute fokus" der architektur, sondern einfach daran wie GCN generell funktioniert und weil die meisten spieleentwickler nicht für GCN optimiert haben, sondern für nvidia oder garnicht. manche architekturen skalieren einfach schlecht in die eine oder andere richtung und mit 64 CUs war mit GCN im gaming ohne optimierungssonderbehandlung einfach ende - das hätte mit GCN 2 unter hawaii genau so schlecht oder noch schlechter funktioniert als mit GCN 5 bei vega.
hier ein taktbereinigter IPC test vega vs fiji - man stellt fest - hier performen vega und fiji quasi identisch, was dafür spricht, dass GCN5 vs GCN3 in gaming quasi identisch ist - d.h. eine annährung zu CDNA auf kosten der gaming performance hat es nicht gegeben. vega war im gaming genau so GCN wie hawaii, polaris oder fiji:
https://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc
außerdem gab es auch polarisbasierte pro gpus - ich erwähne das deshalb, weil polaris gerne als die vorzeige gcn gaming karte herausgekramt wird - stimmt ja auch, nur hat polaris nicht mehr oder weniger gpgpu anleihen wie vega oder fiji, ist einfach nur ein kleinerer chip mit weniger CUs, die viel näher am optimum liegen, was man mit GCN für gaming machen kann.
vega hatte aber nicht nur probleme mit der architektur und nicht funktionierenden oder nicht unterstützen oder nutzlosen hardware funktionen wie HBCC, rapid packed math und primitive shaders, sondern auch mit dem fertigungsprozess - 14nm Glofo, der für so high-power prozessoren einfach nicht gut war. bis fury waren alle radeons bei TSMC. mit polaris und vega gabs einen GloFo ausflug - das hat den GPUs auch geschadet - beim verbrauch und dem maximalen takt. man sieht ja hinterher an der radeon 7, wieviel hier alleine durch den wechsel von glofo auf tsmc möglich ist - genau das selbe übrigens auch bei nvidia mit dem wechsel von samsung (ampere) zurück auf tsmc (lovelace).
was hat jetzt HBM für vega getan? ersteinmal den massiven bandbreitenhunger von vega gestillt - in doom 2016 skaliert die performance 1:1 mit dem speichertakt - trotz HBM2. ein ähnliches GDDR5 speicherinterface mit der selben bandreite würde statt 15w grob 50-70w fressen, was direkt vom powerbudget des cores weggeht. grenada und hawaii (GCN 2) hatten jeweils ein 512bit speichersystem - der bandbreitenhunger kommt von GCN. das hat speziell mit vega nichts zu tun - für eine "schnellere" GCN gaming karte, musste einfach enorm viel speicherbandbreite her.
vega hatte eine veraltete architektur mit bugs und nicht funktionellen features, die zu groß ausgelegt wurde, gefertigt auf einem minderwertigen prozess.
ohne HBM wäre vega quasi nicht möglich gewesen, aber der speicher reißt hier halt keine bäume aus. der core hat einfach nicht die nötige leistung gebracht um die 1080ti zu schlagen und somit die karte in einem besseren preissegment platzieren zu können, wo HBM2 preislich auch besser hineinpasst.
ETI1120 schrieb:
Was ist daran so schwer zu verstehen, dass die Karte mit HBM noch teurer würde?
du gehst davon aus, dass der einzige faktor für den endkundenpreis die herstellungskosten sind, aber das ist falsch. der endkundenpreis ist das, was endkunden maximal bereit sind zu zahlen. was glaubst du was amd beim 5600X für 330€ für eine marge hatte? ein 7nm core chiplet kostet grob $15, ein 12nm IOD ca $12 - nimmst noch substrat, ihs, packaging, pins, verpackung dazu. unterm strich kommt da ne cpu raus, die amd in der produktion vielleicht grob $50 kostet. was glaubst du, wieso ein r5 1600AF für $90 MIT boxed kühler existieren kann - genau deshalb. das ist so ziemlich das unterste, was amd für einen 6kerner nehmen sollte - heißt aber auch, dass die differenz zwischen 1600AF und 5600X direkt in die portokasse von amd fließt. kann man sehen wie man will, aber mit 200€ wäre der 5600x auch noch gut bezahlt gewesen. der rest ist mehr oder weniger löcher in die taschen der kundschaft reißen.
genau wie es amd und nvidia bei den grafikkarten machen. was meinst du wo bei nvidia die extreme durchschnittsmarge von >65% herkommt? maximal billig einkaufen, maximal teuer verkaufen. die hersteller könnten bei den heutigen preisen im high end ganz locker HBM absorbieren. das würde sich nur auf die gewinnmarge auswirken, aber ein kostendruck zur preiserhöhung würde dadurch nur entstehen, wenn man keine einschnitte bei den rekordmargen akzeptieren würde. oder meinst du du bekommst mit einer 4080 für 1200€ ne angemessene hardware: 380mm² core, 16gb speicher, 256bit bus? das liest sich für mich wie midrange - ist auch nur der 103 core.
das ist alles strategie - weniger fortschritt + mehr preiserhöhung = mehr gewinn, weniger investitionskosten, weniger risiko.
bei den GPUs haben wir mit der neuen generation 0,0 verbesserung bei der preis/leistung bekommen und nur die zwei schnellsten gpus, die 4090 und 7900XTX, sind überhaupt schnell genug, um das "next gen" zu nennen. 90% vom restlichen produktstack ist genau die gleiche performance fürs selbe geld wie die letzte generation. wir (endkunden) werden nur gemolken.
und wenn man jetzt mal aufhören würde das zu rechtfertigen, oder noch schlimmer, zu beklatschen, könnten die preise auch mal wieder runtergehen und es würde mehr fortschritt geben.
ETI1120 schrieb:
Wer hat denn die Marktanteilszahlen gewürfelt?
Das Zwischenhoch auf das Du raus willst wurde vom 1. Cryptoboom verursacht. Mit dem Ende des Cryptobooms und dem Release der RTX2000 folgte der Absturz. IIRC war Polaris der Treiber dieses Zwischenhochs und nicht Vega.
Diese Marktanteilszahlen zeigen viel, aber keinen positiven Auswirkungen von HBM.
ich dachte das wäre klar - JPR daten in einer grafik zusammengefasst von guru3d. neben dem einen cryptoboom gibts noch einen zweiten, bei dem AMD nicht mehr gut wegkommt, und der marktanteile einbruch kommt mit jedem nvidia release - nur unterschiedlich stark. ganz so einfach ist das dann doch nicht. jedenfalls ist es so, dass nvidia seit rdna1 die marktanteile von amd halbiert hat - crypto oder nicht. hat weniger mit HBM zu tun, als mit der generellen strategie von amd. amd wollte einfach nicht rechtzeitig die preise senken - und jetzt, ein jahr nach rdna3 release, sind immernoch 6800XT auf lager. das sind die karten, die amd marktanteile kosten, weil man nicht bereit war rechtzeitig die preise zu senken.
ETI1120 schrieb:
Marge ist für Unternehmen über lebenswichtig.
Einen Kundenstamm bekommt man, wenn man teuren Speicher verbaut, der keinen Einfluss auf die Performance hat?
einen kundenstamm bekommt man wenn man produkte verkauft, die endkunden gerne kaufen. das sind in der regel produkte, bei denen sich kunden nicht veräppelt vorkommen, produkte die spaß machen, die cool sind, die preiswert (nicht billig, preiswert) sind. nehmen wir doch nur mal zen1 und zen2 - ein riesiger erfolg. wieso? weil die cpus so eine riesige marge hatten? nein - weil die cpus den kunden zu günstigen preisen das geboten haben, was intel nicht angeboten hat: mehr als 4 kerne zu einem vernünftigen preis. threadripper oben drauf war einfach :*
mit zen3 hat amd irgendwie vergessen, was den erfolg von zen ausgemacht hat, und genau an dem punkt konnte intel mit alderlake den siegeszug von ryzen beenden. zen4 auf am5 ist ein gigantischer flop - mindfactory verkauft jetzt noch 40% mehr am4 cpus als am5. wir sind fast am ende vom zen4 produktzyklus, und zen3 dominiert immernoch - "gerade hast du geschrieben, zen3 sei überteuert gewesen" - seit einführung zu heute haben sich die zen3 preise halbiert bis beinahe gedrittelt, so dick ist die marge bei ryzen. überleg mal am3 mit piledriver hätte ein jahr nach zen1 immernoch mehr cpus verkauft - eine katastrophe.
mit den gpus wars ähnlich. rdna1 war zu teuer und hat sich nicht gut verkauft. daher auch der einbruch bei dne marktanteilen - rdna1 auf dem papier war super, aber überteuert. sicherlich war man etwas günstiger als nvidia - aber das ist einfach nicht die richtige strategie. das wird jetzt eben mit 18% marktanteile vs 36% abgestraft.
steam hardware survey: die zwei besten radeon gpus sind immer noch die rx570 und rx580, jeweils vor der 5700xt und 6700xt - und die sind mittlerweile 6 jahre alt. die 4090 ist übrigens auch vor der 5700XT und 6700XT.
https://store.steampowered.com/hwsurvey/videocard/
das ist einfach strategisches versagen, weil sich amd einbildet man verdient mehr als man bekommt. polaris war gut und günstig, eine brot und butter gpu - und der größte verkaufshit von amd - bis heute ungeschlagen. da sollte man sich mal gedanken drüber machen, ob man da vielleicht nicht irgendwo was falsch macht, wenn die marktanteile mit der besten architektur (rdna2) des letzten jahrzehnts einfach nur abstürzen - und nein, es sind nicht immer die dummen konsumenten schuld.
hbm kommt da ins spiel, wo amd bei der pflicht aufhört, wo man eigentlich die kür setzen könnte. bei der effizienz hängt amd hinterher. da kann hbm helfen. SFF karten für SFF builds, ganz einfach per HBM. oder mal ne richtig fette gpu wie die titan V.
ich würde vermuten, dass eine 7990XTX mit 500mm² core mit 140CUs, gestackten MCD chiplets, 32gb HBM2 speicher einige hälse verdrehen würde unter den tech enthusiasten - so eine karte sollte auch die 4090 schlagen und kann dann auch 2000€ kosten.
oder man schaut ob man nicht nochmal sowas wie die radeon 7 bringt, die gerade für einige compute aufgaben extrem gut war - die war mit knapp 700€ auch in einem erträglichen preisbereich für die hardware. es gibt enorm viele content creator, die so eine gpu mit handkuss nehmen würden.