Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGrafikspeicher: Micron stellt GDDR6 mit 20 Gbps in Aussicht
Aus der Taktrate allein ist keine Datenrate ableitbar. Der Artikel bzw. Micron schreiben aber über das, was am Ende bei rauskommt, und das ist die Datenrate in xBit pro Sekunde.
Dann sollte man im Artikel wohl auch besser von "Datenraten" schreiben, wie Du es so schön erklärt hast. Ich finde es immer schade, wenn professionelle Schreiber solche Ungenauigkeiten stehen lassen - ich bekomme da immer Schluckauf beim Lesen. :-)
GDDR6 hat jetzt hbm2 kurzfristig überholt. Aber wenn man sich mal überlegt wie lange es GDDR5 gab, bin ich mir sicher, dass hbm zurückschlagen wird., bis überhaupt an GDDR7 gedacht werden kann. Kosten sind leider immer noch ein Problem.
Aus der Taktrate allein ist keine Datenrate ableitbar. Der Artikel bzw. Micron schreiben aber über das, was am Ende bei rauskommt, und das ist die Datenrate in xBit pro Sekunde.
Ja, genau, aber genau das ist ja ein sehr wichtiger Punkt, um umso mehr auf eine saubere Trennung der Begriffe zu achten. Wenn Micron nur Angaben in Bit/s macht, dann meinen sie ziemlich sicher die Bandbreite, nicht den Takt, der sonst ausschließlich in Hz angegeben werden wird. Sind eben einfach festgelegte Einheiten, die man wegen Marketing Geblubber, wo die durcheinander geworfen werden, nicht ignorieren oder ändern kann. Im Artikel ist mit deshalb der Satz, der auf "[...] das Speicherinterface auf bis zu 20 Gbps getaktet werden." endet, aufgefallen, weil er so nicht richtig sein kann. Man kann ein Interface nicht mit x Bit/s takten, genau so wenig, wie man die Menge Milch in einem Glas in einer Einheit für Temperatur angeben kann... Oder die Höchstgeschwindigkeit eines ICEs in einer Einheit für die Dichte von Stoffen. Da wird wohl auch keiner behaupten, dass es Erbsenzählerei wäre, auf korrekte Einheiten zu achten...
Also jeder Interessierte wird den Artikel verstanden haben, aber es würde sicher nicht schaden, bei den technischen Begrifflichkeiten genauer hinzusehen.
Weil HBM mit 1024 Bit Anbindung gigantisches Potential beim Takt hat während GDDR das schon ausreizt. Dazu kommt die Nähe der Anbindung und somit ein deutlich besseres Signal bei weniger Energie. Kurz: AMD ist mit den Privatanwender Karten zu früh dran, weil sie den Markt vollkommen falsch eingeschätzt haben.
Naja 20 Gb/s sind an sich nichts ungewöhnliches. Gibt ja schon länger 25 Gb/s PHYS für 100G Netzwerkkarten.
Was mir aber noch eingefallen. Im Artikel steht das nur das Speicherinterface 20Gbps geschafft hat. Ist jetzt natürlich die Frage woher die clk kam, wie lange das trace war und wie das Impedanzmatching gemacht wurde.... Das gezeigte kann also mit der finalen Signalqualität ziemlich wenig zu tun haben....
Da werden übertragene GigaBit pro Sekunde pro Datenpin genannt, eine in der Industrie übliche Angabe für RAM-Geschwindigkeit.
Diese Angabe hat den Vorteil, daß man nicht die Breite des SI berücksichtigen muß, oder ob die Daten SDR, DDR oder QDR übertragen werden.
Skysnake schrieb:
Naja 20 Gb/s sind an sich nichts ungewöhnliches. Gibt ja schon länger 25 Gb/s PHYS für 100G Netzwerkkarten.
Natürlich ist das nicht 1 zu 1 Vergleichbar, aber die PHYS können bis zu einem oder zwei Meter weit die Signale über Kupfer treiben. Das ist jetzt nicht unbedingt wirklich einfacher, sondern einfach anders. Und near and far crosstalk gibt es bei denen auch. Sind ja min 4x Verbindungen.
Kannst mich aber gerne darüber aufklären was du genau meinst.