Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon RX 7000: Navi 3X und RDNA 3 sind hybrid in 5 und 6 nm geplant
Es würde mich nicht wundern, wenn die Leaker nur die technischen Eckdaten erfahren, nicht aber, wieviele Chiplets eingesetzt werden. Das würde zumindest das ständige Hin und Her der geleakten Daten erfahren.
Mich verunsichert es, dass viele die die Patente kennen, penetrant die Interpretation vertreten dass Navi 31 und Navi 32 auf jeweils anderen Chiplets basieren und die Möglichkeit nicht in Betracht ziehen, dass AMD die Chiplets auch einzeln rausbringt.
Wenn man von 2 verschiedenen GDC für Navi 31 und Navi 32 ausgeht und diese Standalone betreiben kann, ist die Lücke zwischen 4096 und 10240 Shadern gut gefüllt:
mit 5120 (Navi 32/2)
und mit7680 (Navi 31/2)
Allergings hat das Argument zwei Haken:
Auch bei Navi 2 gab es zwischen Navi 21 und Navi 22 eine unsinnig große Lücke.
5120 Shader ist kein großer Sprung von 4096 Shader. Allerdings sollte hier auch der bessere Prozess helfen
Alles was verbreitet wurde wird passt zum Activ Bridge Patent. Nur die Bezeichnungen unterscheiden sich. Für mich ergibt das Activ Bridge Patent nur dann einen Sinn, dass AMD die GPU-Chiplets auch einzeln verwenden will.
Wenn die GCD wie die CCDs nur im Verbund eingesetzt werden, wäre es IMHO viel sinnvoller folgenden Aufbau zu wählen:
L3 Cache, Memoryschnittstelle, Videoencoder etc. auf einem IOD
Auf dem GDC sind Shader + L1+L2 Cache + Grafic Data Fabric + Scalable Data unterzubringen.
Aber alle Quelle und Interpretationen sagen zwei GCD werden über ein MDC verbunden auf dem der Cache sitzt. Kein Leak redet von einem IOD.
Angesichts der Sparsamkeit (Geiz passt besser) von AMD bei Designs, bekomme ich die Lösung mit einem 5120-Shader-GCD das zwei oder 3 Mal verwendet wird nicht nach dem Kopf.
Das Problem ist aber, dass wenn man übers Eck koppelt kann man auch gleich Lösungen mit 4 GCD machen. Und wenn man wie in den Patenten gezeigt über die Breite koppelt wird die Active Bridge sehr lang.
PS: Ich finde es komisch dass foldender Tweet keine große Wellen geschlagen hat.
Normalerweise folgt auf jeden Tweet von Greymon ein Artikel bei wccftech ... Wahrscheinlich konnten die nichts mit diesem Tweet anfangen.
Das ergibt auch Sinn, dass die Matrix-Cores auf einen Chiplet ausgelagert werden, der bei den Consumer-GPUs nur das Upscaling durchführt. Solche Cores müssten auch nicht gemeinsam mit den normalen Shadern skalieren (obwohl Nvidia das macht).
Wahrscheinlich war der Tweet wirklich zu vage, denn man kann daran wenig festmachen.
Achso: Da steht ja 3D Infinity Cache. Das wäre für mich die Erklärung, wie man bei der Verwendung nur eines GCDs den Infinity-Cache bereitstellt: Oben auf den GCD drauf, während er sonst in der Bridge steckt.
Das ist meine feste Überzeugung. Das brauche ich nicht zu zitieren.
Diese Überzeugung speist sich aus 3 Argumenten
Der Normalzustand ist der Verkäufermarkt
Cryptoming wird nicht ewig den GPU-Markt pushen
Booms zerstören sich selbst
Der Normalzustand ist der Verkäufermarkt
Aktuell haben wir im Halbleitermarkt einen Verkäufermarkt. D. h. die Nachfrage übersteigt das Angebot und die Verkäufer können die Bedingen diktieren.
Der der Normalzustand ist ein Käufermarkt. D. h. das (potentielle) Angebot übersteigt die Nachfrage. Potentiell deshalb, weil die Hersteller die Produktion drosseln und ihre Produktionskapazität nicht auslasten. Nur wenige Unternehmen können sich dem entziehen in dem sie für sich und eine Nische schaffen in die kein anderes Unternehmen eindringen kann. Apple ist eine dieser Ausnahmen.
Natürlich kann man argumentieren dass sich AMD und Nvidia einigen und die Produktion an GPUs begrenzen. das bedeutet aber, dass AMD Nvidia 80 % der Einnahmen und mehr als 90 % des Gewinns überlässt. Das ist ausgeschlossen.
Schon jetzt ist klar dass Intel in den GPU Markt einsteigt. Wenig deutet darauf hin das es Intel wieder versaut. Also wird sich Intel Marktanteile holen.
Cryptoming wird nicht ewig den GPU-Markt pushen
Der Gaming-Markt ist aus dem Gleichgewicht, weil die GPUs für das Abwickeln von Transaktionen bei einigen Crypto Währungen (aka Crypto Mining) eingesetzt werden. Dieser Markt erscheint unersättlich.
Für Bitcoin der Crypto-Währung mit der größten Verbreitung sind GPUs im Vergleich zu spezieller Hardware zu ineffizient. Zur Zeit werden sie wohl wieder für Ethereum eingesetzt.
Als 2018 schon einmal für Ethereum eine Lösung mit kundenspezifischen ICs (ASIC) verfügbar wurde, war damalige Mining Boom schlagartig beendet und Nvidia und vor allem AMD saßen auf einem riesigen Stapel an GPUs. Für Nvidia war es ärgerlich, aber nach 2 Quartalen waren die GPUs im Gaming Markt abgesetzt. AMD brauchte mehr als ein Jahr um die überschüssigen Polaris-GPUs loszuwerden. Ab und zu taucht wohl noch eine vergesse Kiste auf.
Ethereum hat angekündigt das Verfahren umzustellen, um weniger Rechenleistung zu benötigen. Wenn dies in Kraft tritt, wird der Bedarf an neuen Grafikarten bei Ethereum abnehmen.
Booms zerstören sich selbst
Während jedes Booms gibt es unzählige Leute die behaupten, es wäre der neue Normalzustand. Nach dem unvermeidlichen Ende des Booms stellt sich heraus, dass es eben eine Ausnahmezustand war.
Während der DotComBlase gab es Deppen die von einer neuen Ökonomie mit unbegrenztem Wachstum geschwaffelt haben. Es stellte sich bald heraus, dass es keine neue Ökonomie gab. Unternehmen müssen für andere wertvolle Produkte anbieten. Nur wenn Kunden einen Gegenwert erkennen werden sie kaufen.
Märkte werden gesättigt. Gesättigte Märkte nehmen nur ein begrenztes Volumen auf.
Das gilt auch fürs Cryptomining. Wenn zu viel Rechenleistung für das Berechnen der Hashleistung bereitstellt wird, werden die Preise für die Hashes sinken. Während der Wachstumsphase glaubt man das es keine Grenzen gibt.
Auch der Gaming Markt kann nicht beliebig viele Grafikkarten aufnehmen. Ich halte es für ausgeschlossen, dass alle potentieller Grafikarten-Käufer ihr Kaufverhalten bei doppelten Grafikkarten-Preise beibehalten. Die steigenden Grafikkartenpreise werden auf Dauer zwei Effekte haben:
Die Käufer werden die Grafikkarten länger behalten
Andere Anbieter werden in den Markt einsteigen
Die Käufer werden die Grafikkarten länger behalten Die Enthusiasten die immer die schnellste Grafikkarte haben wollen, egal was es kostet sind die Ausnahme. Wenn die Preise steigen, wird sich herausstellen, dass für viele "egal was es koste" nur bis 800, 1000 oder 1500 Euro gilt. Das heißt einige die mit jeder Generation eine neue Grafikkarte kaufen schließen sich der Großen Mehrheit an die eine Grafikkarte über mehrere Generationen behalten.
Und die Leute, die schon immer mehrere Generationen übersprungen haben, verlängern einfach den Zeitraum in dem sie ihre Grafikkarten austauschen.
Andere Anbieter werden in den Markt einsteigen
Intel hatte sich schon längst entschieden mitzumischen. Aber dies hatte strategische Gründe.
Nvidia und vor allem ATI haben anfang der 2000er alles aufgekauft was wie eine GPU ausgesehen hat. Dies hat das Duopol aus Nividia und ATI/AMD erst ermöglicht.
Hohe Preise senken die Einstiegshürde für Neueinsteiger. Es ist nicht so, dass nur AMD, Intel und Nvidia wissen wie GPUs funktionieren. Es gibt einige Anbieter für GPU-IPs.
Das ergibt auch Sinn, dass die Matrix-Cores auf einen Chiplet ausgelagert werden, der bei den Consumer-GPUs nur das Upscaling durchführt. Solche Cores müssten auch nicht gemeinsam mit den normalen Shadern skalieren (obwohl Nvidia das macht).
Die meisten Antworten auf diesen Tweet haben auch das Upscaling abgezielt.
Wir hatten das Thema schon einmal bei der MI200. Die MI200 hat AMD offensichtlich extrem auf die FP64-Leistung ausgelegt. Bei FP64 wird die A100 deutlich übertroffen. Die MI200 kann zwar auch ML, kann aber nicht mit der A100 mithalten.
Damit hat AMD eine offensichtliche Lücke, und ich überlege mir, ob das nicht nach einer M(L)DNA schreit.
Ich habe auch das Gefühl, dass Nvidia mehr Tensorcores auf die Gaming-GPUs packt, als fürs Upscaling erforderlich sind.
AMD könnte die Matrixcores fürs Upscaling auch direkt auf dem GPU-Die bereitstellen. Vor allem, wenn nur relativ wenige Matrixcores benötigt werden.
Die Chiplets könnten eine Möglichkeit zum Skalieren sein:
Gaming GPUs brauchen nur relativ wenig Matrixleistung: ein ML-chiplet
GPUs fürs Machine Learning benötigen eine sehr hohe Matrixleistung: Mehrere ML-chiplets
Ich grüble ob folgendes möglich ist:
Die ActiveBridge wird auf einem reifen Node wie 65 nm hergestellt.
Das Cache-Chiplet wird in N6 hergestellt.
Das Cache-Chiplet wird auf die ActiveBridge gesetzt.
Die Active Bridge wird auf die GDCs gesetzt.
Je nach dem wie viel ML-Leistung benötigt wird, setzt man Cache-Chiplets oder ML-Chiplets auf die Active Bridge.
Es ist eine überarbeitete Version eines AMD-Patents von US 2021/0158599 A1, das im Mai 2021 veröffentlicht wurde. So weit ich sehe gibt es folgende Unterschiede:
Eine Liste mit Referenzen wurde eingefügt
In Claim 1 wurde die vorangestellte Nennung des command buffers gestrichen. Auf ihn wird nur noch im Text des Claims verwiesen
die beiden Claims 10 und 19 sind hinzugekommen. Sie erscheinen wir als Laien eher unwichtig, da sie explizit darauf hinweisen, dass die Vielzahl der Prozessing Units auf einen Substrat hergestellt werden.
Das Patent US 11,232,622 B2 basiert offensichtlich auf dem Active Bridge Patent und verwendet viele Grafiken aus diesem Patent. Es beschreibt wie die GPU-chiplets zusammenarbeiten.
@ETI1120 Danke für das Update zum AMD-Patent. Bis auf die Tatsache, dass so etwas ähnliches wie Checkerboarding stattfindet (AMD redet von mutually exclusive pixels) enthält es aber leider für uns nicht viel Interessantes.
ETI1120 schrieb:
Ich grüble ob folgendes möglich ist:
Die ActiveBridge wird auf einem reifen Node wie 65 nm hergestellt.
Das Cache-Chiplet wird in N6 hergestellt.
Das Cache-Chiplet wird auf die ActiveBridge gesetzt.
Die Active Bridge wird auf die GDCs gesetzt.
Je nach dem wie viel ML-Leistung benötigt wird, setzt man Cache-Chiplets oder ML-Chiplets auf die Active Bridge.
Laut Patent soll der Cache Teil der Active Bridge sein. Ich kann mir auch einen kleinen Cache, der bei den größeren Karten per 3D-Stacking vergrößert wird, vorstellen. Und die Active Bridge habe ich mir immer als besonders bestückten Interposer vorgestellt. Meinst du, die Active Bridge ist ein weiterer Chip oben drauf? Wäre auch kühltechnisch schwierig.
Die Skalierung der ML-Leistung von Consumer und Server, die du ansprichst, sehe ich genauso. Von daher ergibt ein ML-Chip Sinn und wird dann für Consumer als einzelner Chiplet hinzugefügt, während die Datacenter-CPUs mehr bekommen.
Gut, dann wird es eine neuen Coin geben der die Miner abholt, damit die weiterminern können und man seinen Schnitt macht.
Wer glaubt das Miner Ihre Karten verkaufen scheint nicht zu begreifen das es so dieses mal nicht laufen wird. Es wird nur der Coin der geminert wird gewechselt.
Weiß jetzt nicht was au dem SSD Coin geworden ist, aber es zeigt wohin es geht.
Es gibt da keine Vernunft, nur Gier. Auch soll Etherium jetzt schon das wievielte Jahr vom geminere wegkommen?
In den Patenten steht explizit das der L3-Cache in der Active Bridge ist.
Der Cache auf der Active Bridge hat die Funktion die über die Speicherkontroller der einzelnen Karten geladenen Daten für alle Chiplets verfügbar zu machen. Das kann er idealerweise, wenn er in der Mitte angeordnet ist.
Colindo schrieb:
Und die Active Bridge habe ich mir immer als besonders bestückten Interposer vorgestellt
Es gibt Interposer aus verschiedenen Materialien. Da ich mich von der TSMC-Seite in das Thema Advanced Packaging einlese, kommen mir natürlich immer zuerst Slilizium Interposer in den Sinn.
Silizium-Interposer werden meines Wissens mit 65 nm und höher hergestellt.
Allerdings jetzt wo ich darüber nachdenke kommen mir Zweifel, ob es tatsächlich ein Silizium Interposer sein muss.
Silizum Interposer sind teuer und deshalb hat AMD bei Zen 2/3 auf Leiterplatten gesetzt. Für Zen 4 ist ASE FOCoS ein ganz heißer Guess. Bei MI200 hat AMD nur eine kleine Brücke aus Silizium eingesetzt.
Das ist soweit natürlich ein wichtiger Faktor.
Nur ist das mining ein Multi Milliarden Geschäft.
Also würde es plötzlich einen neuen Coin oder Fork geben welcher das Mining weiter ermöglicht.
Nicht umsonst ist Etherium immer noch PoW. Zum xten Jahr.
Aber natürlich wünsche ich mir das ich mich irre.
###
Wegen der Grafikkarten, das klingt ein wenig zu mächtig. Solche Sprünge gibt es doch recht selten.
Soweit ich es mal hörte, ist gerade der Transport der Daten besonders Energiehungrig (siehe Ryzen), die Chiplet Abwärme selbst ist nicht so das Problem. bin gespannt wie das Gesamtpaket mit den Cachestufen dann aussieht und auch hoffentlich reibungslos arbeitet.
@ETI1120 ein paar Anmerkungen zu deinen Ausführungen:
1. Die Umstellung von proof-of-work zu proof-of-stake bei ETH steht gefühlt seit Jahren "unmittelbar bevor".
2. Wenn ETH wegfällt, wird sich ein alternativ-hype-coin finden in dem das Glücksrittertum mit GPU-mining weitergeht, getrieben von dem Glauben der nächste Bitcoin-Like-Millionär zu werden und der Hardware die Rumsteht und weiter "Rendite" abwerfen soll.
3. Der Preispunkt für GPUs wurde erstmal gesetzt und ist notgedrungen von der Kundschaft akzeptiert, AMD und Nvidia werden nur zögerlich versuchen über den Preis zu konkurrieren. Siehe auch den Smartphone und Notebook Markt, dort hat u.a. Apple hohe Preise Salonfähig gemacht und andere Hersteller haben fleißig ihre Preise nach oben korrigiert.
Ich gehe fest davon aus, dass die UVP (sofern es eine gibt) mit der Mehrleistung zur aktuellen Generation skalieren wird. Sprich wenn die Leistung 1,5x so hoch ist wie aktuell, wird der Preis auch 1,5x so hoch ausfallen wie aktuell (bezogen auf die UVP). Zumindest ist mein Eindruck, dass Nvidia diese Strategie auch schon seit längerem fährt.
Das ist soweit natürlich ein wichtiger Faktor.
Nur ist das mining ein Multi Milliarden Geschäft.
Also würde es plötzlich einen neuen Coin oder Fork geben welcher das Mining weiter ermöglicht.
Wir werden sehen ob die Skalierung über die vielen Shader tatsächlich funktioniert.
Vor allem ob diese riesige Anzahl bei den hohen Taktfrequenzen auch beschäftigt werden kann.
Allerdings packt auch Nvidia den ganz großen Hammer aus. Sie überspringen einen Node und gehen direkt auf N7 (Samsung 8 nm ist eigentlich eher 10 nm als 7 nm)
Grundsätzlich sehen sich Nvidia und AMD so ziemlich auf Augenhöhe und wollen an die Spitze ergattern.
Auch wollen beide Intel den Einstieg vermiesen.
Wenn die schnellste Arc tatsächlich mit der 3070 TI mithalten kann, wäre es ein guter Einstieg für Intel. Das sieht aber gegen die neue Generation nicht mehr so toll aus.
Ergänzung ()
0xffffffff schrieb:
2. Wenn ETH wegfällt, wird sich ein alternativ-hype-coin finden in dem das Glücksrittertum mit GPU-mining weitergeht, getrieben von dem Glauben der nächste Bitcoin-Like-Millionär zu werden und der Hardware die Rumsteht und weiter "Rendite" abwerfen soll.
Es geht nicht um die Hardware die die Miner herumstehen haben. Es geht immer um die Hardware, die die Miner zusätzlich kaufen.
0xffffffff schrieb:
3. Der Preispunkt für GPUs wurde erstmal gesetzt und ist notgedrungen von der Kundschaft akzeptiert, AMD und Nvidia werden nur zögerlich versuchen über den Preis zu konkurrieren. Siehe auch den Smartphone und Notebook Markt, dort hat u.a. Apple hohe Preise Salonfähig gemacht und andere Hersteller haben fleißig ihre Preise nach oben korrigiert.
Es gibt bei Apple einen funktionierenden Gebrauchtmarkt. Apple hält die Geräte lange aktuell und somit behalten diese Geräte auch ihren Wert. Zweitkunden könne die Geräte über Jahre hinweg einsetzen.
Diesen Gebrauchtmarkt gibt es für Android nicht im selben Masse. Deshalb haben die Highend-Phones zwar hohe Einstiegspreise, fallen so ich weiß aber erheblich schneller im Verkaufspreis.
Die Leute behalten ihre Telefone länger. 2020 hatte behielten die Apple-Käufer im Schnitt ihre Telefone länger als 3 Jahre. Schnitt bedeutet es gibt Leute die verkaufen ihr iPhone nach 1 oder 2 Jahren also gibt es auch Leute die ihr iPhone länger als 3 Jahre behalten.
Weil die iPhones länger gebraucht werden können, macht Apple in den letzten Jahren immer ein bisschen Boden gegen Android gut.
Es werden immer noch sehr viele Mobiltelefone über Telefonverträge verkauft. Also "kosten" sie die Kunden nichts.
0xffffffff schrieb:
Ich gehe fest davon aus, dass die UVP (sofern es eine gibt) mit der Mehrleistung zur aktuellen Generation skalieren wird. Sprich wenn die Leistung 1,5x so hoch ist wie aktuell, wird der Preis auch 1,5x so hoch ausfallen wie aktuell (bezogen auf die UVP). Zumindest ist mein Eindruck, dass Nvidia diese Strategie auch schon seit längerem fährt.
Also machen wir ein Gedankenexperiment: AMD und Nvidia erhöhen die Leistung um den Faktor 20 und die Leute geben in 10 Jahren 20 000 bis 25 000 Euro für eine Grafikkarte aus?
Ich denke wir sind uns einig: Nein.
Es gibt Preisgrenzen die die Leute nicht überschreiten. Diese liegen für die einzelnen Leute auf verschiedenen Niveaus, aber je teurer desto weniger Käufer.
Und genau das zeigen auch die Verkaufsstatisken in normalen Jahren. Die Masse der Grafikkarten im Preisbereich unter 500 Euro verkauft. Und auch diese Käufer behalten ihre Grafikkarten über viele Jahre.
Das was Du beschrieben hast, hat Nvidia mit der RTX2000 gemacht. Bei der RTX3000 hat Nvidia anders reagiert. Deshalb war in den Forum im September 2020 auch eine riesen Euphorie. Die sehr schnell kollabierte, als die Karten zuerst nicht lieferbar waren und dann weit über UVP angeboten wurden.
Inzwischen sind die meisten Karten in Shops verfügbar. Man findet nicht jede Karte in jedem Shop, aber ich denke über alle Shops hinweg gibt es ein breites Angebot. Der Haken an der Sache ist, dass die Karten zu überteuerten Preisen angeboten werden und nur wenige verkauft werden. Die Masse der Grafikkarten kommt nicht in die Verkaufsflächen der Shops.
Um es ganz klar zu sagen in dem Maß wie AMD und Nvidia bei der nächsten Generation mit Siliziumfläche und teuerer Produktionstechnik um sich schmeißen, werden die UVP steigen. Auch ohne Crypto Mining. Aber dieses Spiel wird vielleicht noch ein oder zwei Mal funktionieren. Wenn Mainstreamkarten für 600 Euro und Einstiegskarten für 400 Euro angeboten werden, brechen verkauften Stückzahen im Gaming Markt ein.
Also machen wir ein Gedankenexperiment: AMD und Nvidia erhöhen die Leistung um den Faktor 20 und die Leute geben in 10 Jahren 20 000 bis 25 000 Euro für eine Grafikkarte aus?
Naja, die letzten 4 Jahre ist das aber so passiert.
Das P/L entspricht etwa 2018.
Klar geht das so nicht ewig weiter. Aber derzeit verkauft es sich doch.
Weder AMD noch NVIDIA müssen im 500€ Segment ein sinniges Produkt anbieten.
Einfach den kleinstmöglichen DIE mit Notebook GPU Leistung reicht ja.
Takt schön hochprügeln dann wird das schon.
Beleg ist die 500€ RTX 3050 welche 8GB vRAM besitzt.
Die AMD 6500 funktioniert mit Ihre 4GB wenigstens noch für Einsteiger.
Da für Mining gänzlich ungeeignet (noch).
1500€ sind für Oberklasse (nicht Topmodell) meiner Meinung nach klar gesetzt. Die Interposer und das Packaging kostet auch Siliziumwafer. Miningfarmen kaufen weiterhin jede Grafikkarte mit 8GB vRAM.
PoW ist Jahr 2022 immer noch aktiv und bei Etherium x-mal totgesagt wurden. Strom kostet in vielen Ländern weiterhin beinahe nichts.
@ETI1120 Mit Packaging habe ich mich noch nicht im Detail beschäftigt. Nachdem Volker im letzten Messe-Artikel die vielen unzähligen Varianten von TSMC vorgestellt hatte, war mir die Lust auch ziemlich vergangen. Denn selbst wenn ich mich einlesen würde, wäre ich wohl nicht in der Lage, mir die schlecht gewählten Namenskürzel zu merken.
Naja, die letzten 4 Jahre ist das aber so passiert.
Das P/L entspricht etwa 2018.
Klar geht das so nicht ewig weiter. Aber derzeit verkauft es sich doch.
das verbreitetste Klagen ist "nicht verfügbar oder falls verfügbar weit überteuert".
Ich habe den Eindruck, dass nur wenige Gamer kaufen und das Zähneknirschend.
Draco Nobilis schrieb:
1500€ sind für Oberklasse (nicht Topmodell) meiner Meinung nach klar gesetzt. Die Interposer und das Packaging kostet auch Siliziumwafer.
Noch, aber das kann und wird nicht ewig anhalten. Mehrere Länder haben die Miningframen geschlossen weil sie Ihr Stromnetzt gefährdeten. Diese Länder subventionieren den Strom um die Bevölkerung ruhig zu halten. Die kommen in massive Bedrängnis wenn plötzlich ein paar Leute riesige Mengen Strom abzapfen.
Diese Länder subventionieren den Strom um die Bevölkerung ruhig zu halten. Die kommen in massive Bedrängnis wenn plötzlich ein paar Leute riesige Mengen Strom abzapfen.
Was wieder Angebot vs. Nachfrage bedeutet.
Die Preise steigen also.
Gamer kaufen normal, wie du schreibst, nicht zu den Preisen.
Und somit fallen Gamer als Kunden raus. Seit inzwischen bald 2 Jahren.
Also warum sollte der Mining Wahnsinn aufhören?
Warum sollten die Gamer, sobald die Karten attraktiv werden nicht auch mal wieder eine Karte kaufen?
Sind nochmal einige Millionen Karten weniger.
Jede Form von Angebot wird an dieser Stelle durch mehr Nachfrage kompensiert.
Wenn eine Karte >100€ im Monat an Reingewinne erzeugt, warum sollte dann nicht ein Miningbetreiber jede Karte auf dem Planeten kaufen wollen?
Und auch Mining Grafikkarten gehen irgendwann kaputt.
Daher sehe ich logisch keinen Grund warum der Absatz abreißen sollte.
Nur harte Exits seitens Regierungen würden dafür infrage kommen.
Aber Miningfarmen ziehen dann einfach um, alles schon geschehen.
Würde es uns und der Umwelt schon wünschen, aber sehe real keine Möglichkeit das dies passiert. Und wieder wünsche ich mir mich zu irren. Aber für jedes Problem des Minings gibt es eine Lösung, da der Rubel halt rollt.
Das Eine impliziert das Andere. Da sind haufenweise Leute die teuer in Hardware zum Geldrechnen investiert haben. Die haben nun ein Ureigenes Interesse daran, dass der Markt nicht zusammenbricht. Das wiederum weckt weitere Begehrlichkeiten einzusteigen oder die eigenen Kapazitäten zu verbessern.
Dachte man bei Smartphones, Notebooks und vielen anderen nicht lebensnotwendigen Konsumgütern auch. Der Markt wird regeln, bei dem Duo-/Oligopol aber erfahrungsgemäß deutlich zugunsten des Anbieters. Gaming ist Liebhaberei, die wenigsten werden aussteigen und verzichten.
Vielleicht bieten Nvidia & Co. ja demnächst auch passende Finanzierungsoptionen... 😏
Viel einfacher ist es das Mining einfach zu verbieten. Das Problem einer Miningsteuer ist, das das Erheben nicht so einfach ist.
Geschäftsmodelle die garantiert und mühelos hohe Einnahmen bringen, funktionieren immer nur eine begrenzte Zeit. Denn das Füllhorn das dieses Einkommen ermöglicht, hat immer Grenzen, in der Gesamtsumme oder dem Volumen pro Jahr. Solange die Grenzen nicht erreicht, sind erscheint alles grenzenlos. Aber je höher der Enthusiasmus desto höher ist der Aufprall auf die Realität.
Du kannst, wenn Du willst, im Pessimismus schwelgen.
Smartphones sind hier die Ausnahme, aber mit dem Ansteigen der Preise hat sich auch die Nutzungsdauer erhöht. Somit stellt sich die Frage, ob die Ausgaben je Jahr tatsächlich gestiegen sind.
0xffffffff schrieb:
Der Markt wird regeln, bei dem Duo-/Oligopol aber erfahrungsgemäß deutlich zugunsten des Anbieters.
Gerade weil es eine Liebhaberei ist, werden die Ausgaben nur bis zu einem gewissen Punkt ausgeweitet. Dieser Punkt hängt von Einkünften, Familienstand und sonstigen Interessen ab.
Es ist ja nicht so, dass das Geld nur für Grafikkarten ausgegeben werden kann.
0xffffffff schrieb:
Vielleicht bieten Nvidia & Co. ja demnächst auch passende Finanzierungsoptionen... 😏
Texte mit Abkürzungen vollzupflastern ist eine effektive Methode das Verstehen von Texten zu erschweren.
Richtig böse wird es
wenn viele Abkürzungen auch noch mit demselben Buchstaben beginnen
wenn Abkürzungen verwendet werden, die auch mit anderer Bedeutung verbreitet sind.
Das Spaßige beim Advanced Packaging ist, dass jede Firma eigene Bezeichnungen verwendet. Mein Problem war, dass mir die Grundlagen fehlten um einzelnen Techniken wirklich unterscheiden bzw. bewerten zu können. Aber mit jedem Dokument wird es besser.
Das Bild ist aus dem Patent GPU Chiplets using High Bandwidth Crosslinks.
Beim Patent Fabricating Active-Bridge-Coupled GPU Chiplets hat AMD beide Variante gezeigt:
GPU Chiplet auf Active Bridge (Fig 2)
Active Bridge auf GPU Chiplet (Fig 3)
Die Active Bridge wird jeweils als schmaler Quader dargestellt. In Bild 2 ist die Active Bridge wegen der Darstellung der TSV (204) nur schwer erkennbar. 214, 312 und 314 kennzeichnen die Schaltkreise auf derjeweilgen Vorderseite. 312 könnten Cache-Chiplets sein.
Das Patent beschreibt nicht wie die Active Bridge hergestellt wird.
Spekulation um die Active Bridge als Quader herzustellen:
Die Cache-Chiplets auf den Interposer aufsetzen.
Die Lücken zwischen den Chache-Chiplets mit Silizium auffüllen (Wie bei Zen oder entsprechend 310 und 308)