News AMD Fiji mit HBM: Hawaii profitiert nur wenig von mehr Bandbreite

Ich hab wirklich keine Nachladeruckler bei meiner hd6950 2 Gb. Aber wenn man da welche sehen will.....

Fiji ist kein breiter Hawaii, von daher ist das alles zwecklos. Aber bringt Klicks im Sommerloch:-)
 
Das Sommerloch (falls es denn heutzutage noch so etwas - dank weltweiter Berichterstattung - gibt) hat noch nicht begonnen. So wie der Sommer (21.06.2015).
Guck doch mal, wie viele News allein heute wieder auf CB und im Allgemeinen erschienen sind.^^
 
Krautmaster schrieb:
Ist doch auch kein Problem wenn die TITAn X OC mit 1200 oft ~60-80% schneller ist als eine R9 290X auf 1000 Mhz.
...
Ändert ja nichts an der eher dürftigen Qualität des Tests heute hier ;)

Der Schreibfehler ist gewollt, oder? ;)

Google Fiji HBM
Unbenannt.PNG
Die Überschrift steht, die Balken leuchten, Suggestiv-Arbeit ist getan, Futter für die Fanboys. Geld muss verdient werden.
Die unbedeutenden Kommentare ein gerne genommenens Zubrot.
 
C4rp3di3m schrieb:
Komischer Vergleich, HBM ist doch auch ganz anders mit der GPU verbunden als GDDR5.
Zudem hat AMD sicher auch den Rest der GPU auf die neue HBM Technik angepaßt.
DX12 kommt noch hinzu.

mfg
Habe ich mir auch so gedacht.
 
ramster schrieb:
a) Kostenvorteile = billigere Grafikkarten
b) Stromersparnisse - wobei das vernachlässigt werden kann

Da muss ich Dich wohl ein bisschen Enttäuschen.
a) Billiger wird es keinesfalls:
-Jeder DRAM Die wird grösser wegen der makroskopischen TSV Kanäle für die 1024 IO‘s
-Jeder DRAM Die enthält ECC, 8+1 bit
-für 4 Dram Die gibt es noch einen 5 Interface Die dazu
-TSV Prozess Kosten und Ausbeuteverluste durchs Stapeln
-Extra Silicon-Interposer-Kosten
-es gibt weniger Anbieter
b) Stromersparnisse sind aus Marketinggründen überschätzt, tatsächlich gehen ca. 1/3 des Strom fürs Interface drauf.
An dem kann ich sparen, aber Silicon Interposer sind zwar kurz aber leider hoch kapazitiv. Den Rest verbraucht
eigentliche Speichercore - pro genutzter Bandbreite wird gleich viel Strom verbraucht wie DDR4 o. GDDR5.
Evtl. steigt der Core-Energieverbrauch leicht durch das ECC bit.
Warum soll wohl die 390X eine Water Cooled Edition haben?

Wo hast du denn deine Infos her?
-1 GB HBM ist 37x Mal kleiner als 1 GB DDR4. Kein Die wird größer wegen den TSV
-ECC ist optional und kann sogar gemischt werden je 128-bit Speicherkanal
-Die Bandbreite ist um einges größer und es wird trotzdem weniger Strom verbraucht bei HBM.
-Die R9 390X 8Gb gibts auch mit Lüfter und nicht nur als WCE. Die Luftgekühlte hat einen 6- und einen 8-pin, die WCE 2x 8-pin.
 
An all die Leute die behaupten man hätte den Takt senken sollen um so auf einen "Faktor" zu kommen: Das ist Schwachsinn, denn so einfach ist das nicht! Der Speichertakt geht nicht linear in sie fps ein. Das kann man sich ganz leicht klar machen: wenn man den Takt auf einen unendlich hohen Wert anheben würde, würde sich die Leistung nur um einen endlichen Wert erhöhen. Der GPU würden in diesem Fall alle Daten sofort zur Verfügung stehen, was aber eben nichts daran ändert das mit den Daten auch was getan werden muss.


Grober Ansatz: P_res = P_max*(1-D_50/(d+D_50)) (1)
P_res ist die Leistung der GPU relativ zu den Ausliefer-Taktraten. Dabei ist P_max die Maximale Leistung der GPU mit unendlich schnell angebunden RAM. D_50 ist die Datenrate welche für 50% der Maximalen Leistungsfähigkeit der CPU notwendig ist. d ist die zu bewertende Datenrate.
Wenn die Anbindung des Speichers extrem gut ist erreicht die GPU annähernd P_max. P_max * FPS_Basis in einem spiel würde dann z.B. die neuen FPS ergeben.

für die 290X aus dem Test kommt man durch einsetzen auf folgende Werte:

D_50 = 522,6
P = 1,209


Wenn der RAM der 290X also mit unendlicher Rate takten würde wäre Sie dennoch nur um ~21% schneller als mit dem Standard Takt. D_50 ist nur um den Arbeitspunkt relevant, also in der nähe der beiden Testfälle; hat also als Zahlenwert wenig Aussagekraft.

Was nun folgt ist eine noch gröbere Approximation!
Die 390X ist um 45% schneller als die 290X. Sie würde also 45% mehr Datenrate brauche um die selbe "Sättigung" zu erreichen wie die 290X
-> D_50_neu = 522,6*1,45 = 757,77

P als Leistungfaktor sollte sich nicht wesentlich verändern da die Architektur ähnlich ist.
Um die selbe Datenrate mit dem altem RAM zu erreichen müsste dieser mit 5000 Mhz takten.
So ergibt sich für die 390X mit (1):

P_res = 1,04989

Durch den schnelleren RAM sollte die 390X also ca 5% schneller sein als es der Anstieg der Rechenleistung um 45% vermuten lassen würde.
Die r9 390X sollte also ca 47,25% schneller als die r9 290X

Wäre noch immer der gleiche Ram wie bei der 290X verbaut wäre die GPU um ca. 7% langsamer als anzunehmen.
Damit wäre die 390X dann nur noch um ca. 41,76% schneller. Die Formel sollte nach unten noch deutlich ungenauer als nach oben, in Realität würde dieser Wert wohl noch etwas niedriger ausfallen.
 
Zuletzt bearbeitet:
Daedal schrieb:
Der Vergleich DDR4 zu HBM2 ist sehr interessant. Besonderen Dank für diesen Link, den kannte ich noch nicht.

Auf Seite 25 und 26 wird wunderbar gezeigt woduch die Latenz so enorm verringert werden kann. Und auch wie die Auslastung enorm effizienter wird.

Anhang anzeigen 492674 Anhang anzeigen 492675


Auch durch das unabhängige Addressieren der Rows und Colums reduziert sich die Latenz deutlich, ebenso wie dadurch, das HBM priorisieren kann, sprich Teile des Spiechers direkt unabhängig refreshen kann.

Ist zwar ein schöner Marketing Vergleich DDR4 vs. HBM2 aber in Bezug GPU irrelevant. DDR4 ist auf Stromsparen für Server ausgelegt und hat daher die tFAW Limitierung( wie schnell darf ich ROWs im Einzel-DRAM öffnen ). Dort egal da es im Server ganz viele Module parallel gibt. GDDR5 hat diese Limitierung nicht da dessen Memory Core bei der 3 fachen Frequenz läuft und ein entsprechendes Powersystem hat. Cas-Latenztechnisch sind alle aktuelle DRAM Standards Prinzip bedingt sehr ähnlich – für GPUs nicht messbar.
HBM ist in Sachen Latenz nicht besser als die derzeitigen Lösung – DRAM wird eben nie ein SRAM. Da gibt’s dann von der 390x keine Wunder zu erwarten. Alles was zählt ist Bandbreite(Hubraum) und angepasste Verbraucher(Shader).
 
Du vermischst da was. Das sind IPC Daten und da spielt der Takt keine Rolle. Dreifacher Takt heist das selbe läuft dreimal schneller ab.

GDDR5 hat diese Limitierung nicht da dessen Memory Core bei der 3 fachen Frequenz läuft und ein entsprechendes Powersystem hat.
Wenn du diesen Satz noch genauer erläutern könntest im Bezug auf tFAW oder eine Quelle hättest wo das ausgeführt wird wäre es schön. So sehe ich keinen Kontext in dem Satz.
 
Alles was zählt ist Bandbreite(Hubraum) und angepasste Verbraucher(Shader).

So isses, zumal die Thematik nicht neu ist, Anbindung, Komprimierung und Speichertakt ändern sich mal immer wieder.
Anbindung wird sicher nicht über 512Bit sein (da sonst zu hoher Stromverbrauch), Komprimierung geht nicht mehr viel, Speichertakt halt Boost über HBM. Denke mal 15% sind drin, in 4k bis zu 30%, wenn der Chip keine Gurke wird und mit üblichen 10%+ daherkommt.
 
Daedal schrieb:
Wo hast du denn deine Infos her?
-1 GB HBM ist 37x Mal kleiner als 1 GB DDR4. Kein Die wird größer wegen den TSV
-ECC ist optional und kann sogar gemischt werden je 128-bit Speicherkanal
-Die Bandbreite ist um einges größer und es wird trotzdem weniger Strom verbraucht bei HBM.
-Die R9 390X 8Gb gibts auch mit Lüfter und nicht nur als WCE. Die Luftgekühlte hat einen 6- und einen 8-pin, die WCE 2x 8-pin.

Das kleinste was es derzeit gibt ist ein 1GB DDR4 -höchst optimiert. Sorry, aber jeder HBM die muss grösser werden, da der untere Die die gesamten Daten der darüber liegenden Dice durch leiten muss. 3/4 der TSVs quasi sind Ballast - 3D Integration eben. Dann muss Du mal "TSV pitch roadmap" und "TSV Keep Out Zone" googlen und dir wird das Problem klar worüber keiner gern spricht.

ECC ist optional aber wird immer eingebaut, da das Volumen für 2 verschiedene HBM zu klein ist und bei HBM2 Quasi-Standard ist.

HBM verbraucht ein bisschen weniger Strom aber für die Grafikkarten derzeit nicht der Rede Wert - nur im Forum.
 
lolololol schrieb:
Anbindung wird sicher nicht über 512Bit sein (da sonst zu hoher Stromverbrauch), Komprimierung geht nicht mehr viel, Speichertakt halt Boost über HBM.

ZONNNK!

Ein HBM-Speicherinterface arbeitet üblicherweise mit einer Breite von 1024 Bit DDR pro Speicherstack, dafür aber Taktraten von nur 500 MHz (oder etwas mehr).
http://www.3dcenter.org/news/ein-moeglicher-grafikspeicher-der-zukunft-high-bandwith-memory-hbm

Deshalb kommt man ja gerade auf die große Bandbreite trotz niedrigem Takt (=wenig Verbrauch).

ramster schrieb:
HBM verbraucht ein bisschen weniger Strom aber für die Grafikkarten derzeit nicht der Rede Wert - nur im Forum.
Die Hauptersparnis vom Stromverbrauch kommt doch eh durch das Interface bzw. den im Chip integrierten Speichercontroller:
http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-anfangen-kann
 
Zuletzt bearbeitet: (Klarstellung)
An all die Leute die behaupten man hätte den Takt senken sollen um so auf einen "Faktor" zu kommen: Das ist Schwachsinn, denn so einfach ist das nicht! Der Speichertakt geht nicht linear in sie fps ein.

Du hast hier etwas nicht verstanden: Eben weil der Speichertakt nicht linear in die Performance eingeht, kann man nicht linear die Performance in Abhängigkeit vom DRAM-Takt extrapolieren. Um nun dennoch herauszufinden, wie sich die Performance in Abhängigkeit von der Speicherbandbreite verhält, kann man nun, wie hier vorgeschlagen, den komplett möglichen DRAM-Taktbereich und da vor allem niedrigere DRAM-Takte benchmarken. Unter der Annahme, dass beim höchten DRAM-Takt der DRAM nur vernachlässigbar wenig limitiert (die Annahme ist gerechtfertigt da Skalierung beim höchsten DRAM-Takt deutlich kleiner als 1:1 ist), kann man jetzt ebenfalls abschätzen wie viel Prozent Performance wegen einer Limitierung durch die DRAM-Bandbreite verloren gehen. Anschließend kann man ebenfalls schätzen wie viel Performance bei einer gegebenen DRAM-Bandbreite verloren gehen würden, wenn die GPU X mal so viele Rechenoperationen ausführen könnte.

Alternativ kann man auch versuchen wie du vorgeschlagen hast die Performance in Abhängigkeit vom DRAM-Takt mit einer empirischen Sättigungsformel zu extrapolieren. Da hat man allerdings zwei Probleme:
-Die Sättigungsformel ist empirisch.
-Die Algorithmen in der Rastergraphik sind hochgradig inhomogen. Das heißt eigentlich hättest du für jeden der N Pässe des Spiels einen eigenen Sättigungsterm und müsstest die Summe davon berechnen:
P_res = Summe über i von 1 bis N P_max_i (1-D_50_i/(d_i+D_50_i))
Beide Effekte könnten dir die Extrapolation stark verfälschen. Ein Problem, welches sich beim direkten Benchmarking nicht stellt.

Nachtrag zu noch so einem Problem an der Formel: Versucht man ihre Konstanten in einem Bereich, wo die Skalierung mit dem DRAM-Takt gering ist zu bestimmen, so ist das ein schlecht konditioniertes Problem. Kleine Fehler (sei es durch die Empirik oder Vereinfachtheit der Formel) verursachen große Änderungen an den Konstanten. Dadurch wird die Schätzung beziehungsweise die Extrapolation mit Hilfe der Formel in denjenigen Bereichen stark verfälscht, wo gemäß der Formel die Skalierung mit dem DRAM-Takt gut ist.
 
Zuletzt bearbeitet:
ramster schrieb:
Das kleinste was es derzeit gibt ist ein 1GB DDR4 -höchst optimiert. Sorry, aber jeder HBM die muss grösser werden, da der untere Die die gesamten Daten der darüber liegenden Dice durch leiten muss. 3/4 der TSVs quasi sind Ballast - 3D Integration eben. Dann muss Du mal "TSV pitch roadmap" und "TSV Keep Out Zone" googlen und dir wird das Problem klar worüber keiner gern spricht.

ECC ist optional aber wird immer eingebaut, da das Volumen für 2 verschiedene HBM zu klein ist und bei HBM2 Quasi-Standard ist.

HBM verbraucht ein bisschen weniger Strom aber für die Grafikkarten derzeit nicht der Rede Wert - nur im Forum.

Die Aussage, dass HBM 37x kleiner ist als DDR4 stammt aus der von mir verlinkten Folie. Dabei geht es nicht um den Die, sondern um das Package. Und ein DDR4 im BGA Package ist natürlich deutlich größer als HBM, welches mit den TSVs direkt kontaktiert wird.
Das Chips durch TSVs größer werden ist doch klar - da wo ich die Durchkontaktierung im Silizium habe kann ich natürlich keine Transistoren haben.
 
Oteph schrieb:
Die r9 390X sollte also ca Mööööpmöpmöp schneller als die r9 290X
Danke für deine Milchmädchenrechnung. :) Du kannst sie stark verbessern indem du auch auf folgendes eingehst:

  • HBM hat geringere Latenzen
  • HBM hat eine verbesserte Signalqualität aufgrund der verringerten Signalwege
  • HBM stacks sind wesentlich stromsparender (Watt/GB bzw. Watt/Gbps) als GDDR5-Speichermodule
  • Der HBM-Controller (PHY) ist wesentlich kleiner als ein GDDR5-Controller
  • Der HBM-Controller (PHY) ist wesentlich stromsparender als ein GDDR5-Controller
  • Fiji hat eine verbesserte Architektur (GCN 3)
  • Was macht ein Chiphersteller wenn sein Chip (und die Speicher) dank HBM etwa 40 bis 50 Watt weniger verbraucht?
  • Was macht ein Chiphersteller wenn die thermische Verlustleistung dank HBM nennenswert verringert wird?
  • Was macht ein Chiphersteller wenn der Speichercontroller dank HBM weniger Chipfläche benötigt?
  • Was macht ein Chiphersteller wenn sein Chip Aufgrund von architektonischen Verbesserungen die Leistung/Watt verbessert wird?
  • usw.

Danke und viel Spaß. :)
 
Zuletzt bearbeitet:
dexplus schrieb:
Danke für deine Milchmädchenrechnung. :) Du kannst sie stark verbessern indem du auch auf folgendes eingehst:

  • ....
  • HBM stacks sind wesentlich stromsparender (Watt/GB bzw. Watt/Gbps) als GDDR5-Speichermodule
  • Der HBM-Controller (PHY) ist wesentlich kleiner als ein GDDR5-Controller
  • ....

Danke und viel Spaß. :)

Ja, dass stimmt so weit, die Watt/Gbps sind geringer, angeblich um 42%.
Nur leider hat HBM halt auch eine höhere Datendurchsatzrate, so das der absolute Verbrauch sich nicht viel ändern sollte.

Ach ja, das was die GPU günstiger wird aufgrund des kleineren Speichercontroller ist der HBM dann halt teuer. Der ist ja nicht weg, sondern nur wo anders. Damit ergibt sich in Summe keine Kostenersparnis.
 
ragnarok666 schrieb:
Ach ja, das was die GPU günstiger wird aufgrund des kleineren Speichercontroller ist der HBM dann halt teuer. Der ist ja nicht weg, sondern nur wo anders. Damit ergibt sich in Summe keine Kostenersparnis.

Mit "Hauptersparnis" meinte ich nicht die Kosten, sondern den Stromverbrauch, der bei Verwendung von HBM im Interface deutlich geringer ausfallen soll. Hab's oben nochmal editiert, um das klarzustellen
 
ragnarok666 schrieb:
Ja, dass stimmt so weit, die Watt/Gbps sind geringer, angeblich um 42%.
Nur leider hat HBM halt auch eine höhere Datendurchsatzrate, so das der absolute Verbrauch sich nicht viel ändern sollte.
Falsch. Erstens gehst du überhaupt nicht auf den HBM-Controller ein. Zweitens kann man die Bandbreite anpassen, indem man den Speichertakt verringert. Weniger Takt = weniger Verbrauch.

Ich vermute nur die FirePros werden die Bandbreite voll ausschöpfen.

ragnarok666 schrieb:
Ach ja, das was die GPU günstiger wird aufgrund des kleineren Speichercontroller ist der HBM dann halt teuer. Der ist ja nicht weg, sondern nur wo anders. Damit ergibt sich in Summe keine Kostenersparnis.
Es hat keiner behauptet, dass die R9 390X günstig sein wird, denn HBM ist teuer.

Kleinerer Speicher-Controller = Mehr Platz für Shader.
 
Hawaii profitiert nur wenig von mehr Bandbreite

Also dann wäre das ja mal geklärt. Viel interessanter , was könnte uns mit Hawaii bevorstehen, wenn man die Taktraten etwas anpasst. Bei PCGH hat man gelesen dass bei vielen R9 290 (X) der VCore viel zu hoch eingestellt ist. Hier lassen sich oft 25-50 mV sogar undervolten. Bei AMD Karten ist undervolten immerhin möglich und sollte auch mal schön getestet werden.

Für so einen Test könnte man mal eine 8 GB Sapphire nehmen mit einer starkem Kühle. 8 GB, weil ich stark davon ausgehe, dass es die R9 390X und R9 390 beide mit 8 GB HBM kommen werden. Ich glaube nicht mehr an eine 4gb Version, maximal für die R9 390 als "billig" Version vs die 980 GTX.
Da aber AMD offensichtlich zur E3 eine Show abziehen will, DX12 eine große Nummer spielen wird und 4k auch toll werben lässt, Gerüchte gibt, dass die R9 380 schneller sein soll als die R9 290 und der Preis nicht der "selbe" ist, nehme ich stark an, dass AMD allgemein die R300 Serie als DX12 und 4k Grafikkarten werben wird. Wir hatten auch genug Tests, wo wir gesehen haben, dass Hawaii in hohen Auflösungen quasi auf der selber Augenhöhe wie die 980 GTX ist.
Somit sollte es klar sein, AMD wird die Karten so zusammenstellen, sodass man die Konkurrenz in den Schatten stellen kann und das ist nun mal in hohen Auflösung dank hoher Bandbreite.

Somit ein Test mit einer R9 290X undervoltet, am besten mit 50mv, den Vram etwas untertaktet und der Chip gut gekühlt, würde wenigstens aufzeigen, ob man aus einem Hawaii chip eventuell noch eine bessere "Effizienz" rausholen kann.
Desweiteren wäre es nicht unmöglich, dass AMD einen Refresh mit Hawaii unterzieht und dass es ein neues Bios geben könnte.

Ein weiteres großes Fragezeichen gibt es auch noch, nämlich Omega 2 Treiber. Kann gut sein, dass AMD zum Release auch noch passende Treiber parat hat, die auch die Performance aktueller Grafikkarten hoch hebt. DSR wird mit Sicherheit weiter ausgebaut um die oberen Karten auch jene ohne 4k monitor schmackig zu machen.
Persönlich könnte ich das als Hawaii Besitzer nur hoffen. Rebrands sind keine schöne Sache, außer für User, die ihre Grafikkarten gerne länger nützten und von Rebands (aktuelle Treiber) gerne profitieren.
Man sieht es ja aktuell bei der Kepler Generation, dass Maxwell klar bevorzugt wird. Aber vllt ist das nur ein Eindruck den ich habe. Das werden wohl andere besser beurteilen können, nämlich jene die eine Kepler GPU haben.

Kurzfassung: Viel interessanter wäre es gewesen, was AMD aus Hawaii noch rausholen kann, nämlich bei Undervolten und eventuell sogar mit niedrigeren Ramtakt. Das SI selber werdet ihr wohl schwer reduzieren können.
Oder wird CB dann 2016 den DDR4 für Carrizo Refresh OC um für die Zen APU + HBM eine erste Prognose zu stellen ?

Btw, wieso wurde eigentlich nicht eine Tonga Pro genützt ?
https://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/11/
https://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/9/#abschnitt_uebertaktbarkeit

@Rebands

Bisher wurde von Rebrands ausgegangen, aber selten wurde mal in Frage gestellt, ob jeder Chip weiterhin nur 2 Grafikkarten bestücken wird.
Was ist wenn die R9 390X, R9 390 und R9 380X auf Fijii basieren ? Wieso auch nicht.

Wer sagt, dass AMD mit einem Chip nur 2 Grafikkarten Generationen auf den Markt bringen könnte ?
Man kann sich vorstellen, dass zwischen R9 390 und R9 290X doch noch eine Karte dazwischen Platz haben könnte.
Ich behaupte nicht, dass es so passieren wird, aber unrealistisch wäre es auch nicht:

R9 390 X 4.096 Shader 8 GB HBM =>Fijii Performance bei einer 980 GTX TI
R9 390 etwa 3.700 Shader 8 GB HBM => Fijii Performance oberhalbt einer 980 GTX
R9 380X etwa 3300 Shader 4 GB HBM => Fijii Performance zwischen 980 GTX und 970 GTX
R9 380 2816 Shader 4 GB GDDR5 => Hawaii Refresh, niedrigere Taktrate und wesentlich niedrigere VCore => Performance knapp unterhalb und Verbrauch bei einer 970 GTX
R9 370x 2560 Shader 4 GB GDDR5 vs fiktive 960 GTX TI
R9 370 2048 Shader Tonga vs 960 GTX
R9 360 1792 Shader Tonga

Ein Beispiel, bei dem Rebands nicht unbedingt "schlimm" sein müssen, auch wenn es vermutlich nicht so kommen wird. Aber auf was ich hinweisen will, "alles ändert sich, nur das Prinzip der Wandlung nicht" und das gilt auch dafür, dass ein Chip nicht immer nur für 2 Modelle genützt werden müssen.
Was HBM außerdem kostet, ist auch abhängig von Verträgen. Immerhin ist AMD Mitentwickler und erster HBM Großkunde, von dem Hynix genauso profitiert. Nicht nur AMD will was verkaufen, auch Hynix will was verkaufen und einen Standard durchbringen. Soviel dazu. Einige vergessen dabei, dass vor einigen Jahren NV noch HMC nützten wollte. Wer weiß, wie alt die Verträge zwischen Hynix und AMD vor Bekanntgabe von NV waren, Bis dahin gab es eben nur einen Kunden und das ist AMD, der die Technik überhaupt benützten, etwas investieren und Risiken eingehen wollte.

Das HBM nicht billig ist, sollte klar sein, trotzdem weiß keiner, welche Verträge es zwischen Hynix und AMD gibt. Ohne AMD könnte es gut sein, dass es kein HBM gäbe und AMD sowohl als auch NV HMC für die nächsten Generationen nützten würde. Von Maxwell hätte es dann eventuell nur einen Shrinke auf 14nm gegeben, bis irgendwann dann Volta mit HMC gekommen wäre, weil es davor, einfach zu "teuer" gewesen wäre. HBM hat gegenüber HMC den Vorteil, dass es günstiger ist.
 
Zuletzt bearbeitet:
ramster schrieb:
ECC ist optional aber wird immer eingebaut, da das Volumen für 2 verschiedene HBM zu klein ist und bei HBM2 Quasi-Standard ist.
Das ist der nächste Satz der für mich Erklärungsbedürftig ist. Welches Volumen soll zu klein sein?
Die Fragen zuvor magst du offensichtlich auch nicht beantworten?

Du haust technisch nicht plausible Dinge hier ins Forum.
 
@Nai und offtopic
Ich bewundere Dich! Habe kein Wort verstanden aber trotzdem einen Riesen Spaß gehabt das zu lesen. Weiter so!
 
Zurück
Oben